Luciano Martins
banner
lmm.ai
Luciano Martins
@lmm.ai
Brazilian, ML Software Engineer, AI Developer Advocate at Google DeepMind -- opinions are my own.
confira o artigo completo de Daniel Strebel no Medium do Google Cloud: medium.com/google-cloud...
Beyond Prompt Engineering: Using Agent Skills in Gemini CLI
What do you expect from a master chef? You want them to be creative with flavors, but when it’s time to prepare a classic chocolate…
medium.com
February 3, 2026 at 2:27 PM
No Gemini CLI, essas "Skills" funcionam como ferramentas modulares. O agente não tenta adivinhar o processo; ele chama uma função testada para resolver o problema. É a transição de um chatbot para um colaborador técnico real.
February 3, 2026 at 2:27 PM
Depender apenas de prompts gigantes é como pedir para um chef decorar todas as receitas do mundo de uma vez. O modelo acaba se confundindo. Para escalar, precisamos ir além da engenharia de prompt e focar em "Agent Skills".
February 3, 2026 at 2:27 PM
Você espera que um chef seja criativo, mas no suflê de chocolate, a precisão da receita é tudo. Na IA, vivemos o mesmo dilema: como equilibrar a criatividade dos LLMs com a consistência técnica que a produção exige? 🧵
February 3, 2026 at 2:27 PM
A ciência por trás do modelo foi validada pela comunidade: os detalhes do AlphaGenome e sua capacidade de predição foram publicados na revista Nature. Um passo fundamental para validar a eficácia da IA na genética aplicada
February 3, 2026 at 11:02 AM
O AlphaGenome é o modelo de sequência de DNA mais abrangente desenvolvido. Ele permite entender com alta fidelidade como mutações específicas afetam o funcionamento dos genes, superando benchmarks anteriores
February 3, 2026 at 11:02 AM
A Google DeepMind acaba de lançar o AlphaGenome, seu modelo de IA mais preciso para genômica até hoje. Ele representa um salto na predição de variantes regulatórias do DNA, abrindo novas portas para a biologia computacional e a medicina de precisão. 🧵
February 3, 2026 at 11:02 AM
O processo é fluido: você define o cenário e o personagem via prompts, o Nano Banana Pro gera uma prévia ajustável e o modelo Genie 3 renderiza o ambiente em tempo real enquanto você se move. É possível criar do zero ou remixar mundos da galeria.
February 2, 2026 at 5:44 PM
O Google DeepMind acaba de lançar o Project Genie, um protótipo experimental que permite criar e explorar mundos virtuais interativos de forma infinita. É um passo fundamental para entendermos o futuro dos world models e da imersão digital. 🌎
February 2, 2026 at 5:44 PM
É super simples! No menu do lado esquerdo do Gemini, vá em Gems depois em Meus Gems > Novo Gem > em Conhecimento, clique no "+" e escolhe "Adicionar do Drive" 🤓
January 29, 2026 at 8:25 PM
Ao conectar um arquivo do Docs a um Gem, ele referencia sempre a versão mais atual.

Se você alterar uma regra ou dado no documento, o Gem aprende instantaneamente. Não é preciso reconfigurar ou atualizar as instruções do agente manualmente.
January 29, 2026 at 8:25 PM
Uma dica de ouro para quem usa o Gemini: os Gems (seus agentes personalizados) podem se manter atualizados sozinhos.

O segredo está na conexão direta com o Google Docs. 🧵👇
January 29, 2026 at 8:25 PM
para maiores detalhes, veja o blog de lançamento: blog.google/innovation-a...
Introducing Agentic Vision in Gemini 3 Flash
Agentic Vision, a new capability introduced in Gemini 3 Flash, converts image understanding from a static act into an agentic process
blog.google
January 29, 2026 at 7:28 PM
através de execução de código, a IA pode rotacionar, anotar e editar visualmente para chegar à melhor resposta. É inteligência agêntica na prática!
January 29, 2026 at 7:28 PM
O Gemini Flash agora pode executar código diretamente em imagens para resolver tarefas complexas. O fluxo Think-Act-Observe permite que a IA manipule arquivos e extraia dados com precisão cirúrgica 🥼
January 29, 2026 at 7:28 PM
O futuro da IA não é só ver, é agir! 👁️🤖

Com o 'Agentic Vision' no Gemini Flash, a IA agora usa código para interagir com imagens: cortar, anotar e criar bounding boxes. É o ciclo 'Pense-Aja-Observe' levando a automação para outro nível!
January 29, 2026 at 7:28 PM
Essa abordagem reduz a dependência de prompts gigantescos e melhora a precisão em tarefas de lógica. O resultado? Um desenvolvimento mais modular, eficiente e capaz de lidar com a imprevisibilidade do mundo real. 🚀
January 29, 2026 at 12:13 PM
No ADK, agentes recursivos podem decompor tarefas difíceis em subtarefas menores, chamando a si mesmos até encontrar a solução ideal - criando agentes que não apenas seguem instruções, mas raciocinam sobre fluxos de trabalho complexos. 🛠️
January 29, 2026 at 12:13 PM
veja mais no artigo de Liam Connell no Medium (Google Cloud): medium.com/google-cloud...
Recursive Language Models in ADK
Implementing and Extending the Most Exciting Agentic Paradigm of 2026
medium.com
January 29, 2026 at 12:13 PM
A recursão está chegando ao Agent Development Kit (ADK) do Google Cloud, permitindo que IAs resolvam problemas complexos de forma iterativa e muito mais inteligente. Entenda como funciona: 🧵👇
January 29, 2026 at 12:13 PM
O desenvolvimento com IA está evoluindo rápido! Não se trata mais apenas de chamadas de API simples, mas de criar sistemas complexos e distribuídos 🤖

A Google Cloud lançou a trilha de aprendizado do Agent Development Kit (ADK) para quem quer aprender esse novo caminho
January 28, 2026 at 5:32 PM
Essa tecnologia é a base para o futuro da robótica e da realidade aumentada, onde a compreensão espacial é tudo. O que você acha dessa evolução na visão computacional?

Detalhes aqui: deepmind.google/blog/d4rt-te...
D4RT: Unified, Fast 4D Scene Reconstruction & Tracking
Meet D4RT, a unified AI model for 4D scene reconstruction and tracking.
deepmind.google
January 28, 2026 at 11:09 AM