- IA Express
- Posts
- Estudo da Anthropic: Autonomia dos agentes de IA dobrou em três meses
Estudo da Anthropic: Autonomia dos agentes de IA dobrou em três meses
Bem-vindos, humanos: Seu download com as principais notícias sobre Inteligência Artificial começa agora. Nesta edição, você saberá que agentes de IA deixaram de apenas responder perguntas e passaram a trabalhar 'por conta própria’ por quase uma hora direto. 🕛🤖🕐
Porém isso não é tudo na IA Express de hoje:
- Manus oferece agentes de IA pessoais integrados em aplicativos de mensagens
- Meta prepara reconhecimento facial para seus óculos inteligentes Ray-Ban
- BRICS intensifica esforços para estabelecer diretrizes de regulação da IA
- Vaticano oferece tradução ao vivo assistida por IA durante missas
Porque, no mundo da Inteligência Artificial, conhecimento é seu algoritmo mais valioso.
AI_NEWS_CIRCUIT
ANDANDO PELAS PRÓPRIAS PERNAS
Estudo da Anthropic: Autonomia dos agentes de IA dobrou em três meses
A Anthropic acaba de divulgar um estudo sobre o comportamento dos agentes de IA. Em vez de testes controlados em laboratório, a análise mergulhou em milhões de interações reais entre usuários e máquinas, utilizando dados do Claude Code e de sua API pública.
Qual foi o objetivo? Mapear como a autonomia da IA está evoluindo no mundo real de desenvolvedores e empresas.

O que os números disseram?
Em apenas três meses, a duração das sessões mais longas do Claude Code quase dobrou, saltando de menos de 25 minutos para mais de 45 minutos de trabalho autônomo contínuo.
O mais interessante? Esse crescimento não aconteceu em picos após grandes atualizações, mas de forma gradual e suave, sugerindo um amadurecimento orgânico da tecnologia. Isso sugere que a evolução vem tanto do refinamento do modelo quanto da curva de aprendizado dos usuários.
Usuários experientes deixam o Claude funcionar de forma mais autônoma, intervindo apenas quando necessário. Em 40% das vezes, usam aprovação automática versus 20% entre os novos usuários.
Em tarefas complexas, Claude Code interrompe o processo para pedir esclarecimentos com uma frequência duas vezes maior do que os usuários o interrompem.
Embora a engenharia de software ainda concentre quase metade das
atividades, o uso de agentes começa a ganhar tração em setores críticos,
como saúde, finanças e cibersegurança.
Ainda assim, o mercado avança com cautela. A maioria das ações via API permanece em zonas de baixo risco e fácil reversibilidade.
E para quem teme a perda de controle, os dados finais são reconfortantes: 80% das ações contam com algum tipo de salvaguarda, 73% mantêm humanos no comando (human-in-the-loop), e apenas 0,8% são irreversíveis (como o envio de e-mails a clientes).
AI_TRENDS
Manus passou a oferecer agentes de IA pessoais integrados em aplicativos de mensagens, começando pelo Telegram.
NotebookLM ganhou “revisões baseadas em prompt” para que os usuários refinem slides nas apresentações geradas por IA usando linguagem natural.
Claude Sonnet 4.6 é a versão mais recente do modelo da Anthropic com melhorias significativas em codificação e raciocínio de contexto longo.
Grok 4.20 beta foi lançado prometendo ser 10 vezes mais inteligente e rápido do que o Grok 4 com atualizações semanais e melhorias diárias.
Perplexity está testando o modo Gamma, busca ultrarrápida alimentada pelo modelo Grok da xAI.
Glimmer é a linguagem do Google para design de interfaces (UX) voltada para óculos que prioriza voz, gesto e rastreamento ocular.
Recraft V4 é um novo modelo de geração de imagens com foco em gosto visual, precisão de prompts e qualidade profissional.
FireRed-Image-Edit é um modelo de edição de imagens de uso geral que oferece alta fidelidade e resultados consistentes em uma ampla gama de cenários.
Microsoft confirmou que um bug no Microsoft 365 Copilot Chat permite acessar e gerar resumos de e-mails marcados como confidenciais.
MIT descobriu que plataformas de ranking de LLMs são extremamente sensíveis a pequenos volumes de dados de usuários, podendo produzir resultados enganosos sobre quais modelos são realmente os melhores. 🥇🥈🏅🤥
AI_GOVERNANCE & ETHICS
😎 Óculos invasivos
A Meta está desenvolvendo um recurso de reconhecimento facial para seus óculos inteligentes Ray-Ban, internamente chamado de Name Tag, que permitiria identificar pessoas em tempo real e obter informações sobre elas via assistente de IA. Segundo documentos internos obtidos pelo jornal New York Times, a Meta considerou lançar a funcionalidade durante períodos de "tumulto político" nos Estados Unidos, acreditando que grupos da sociedade civil estariam distraídos com outras preocupações e não reagiriam à medida. A estratégia, descrita como oportunista, também incluiu planejar um lançamento inicial disfarçado de recurso de acessibilidade para pessoas com deficiência visual.
AI_SNAPSHOT
💡 Inovação & Inspiração
Esperança para tratamento do Alzheimer Pesquisadores da Universidade da Califórnia, Irvine desenvolveram o mapa mais abrangente já criado sobre como genes se influenciam mutuamente em células cerebrais afetadas pelo Alzheimer; e o resultado vai muito além de simples correlações. A equipe criou a plataforma SIGNET (Scalable Inference of Gene Networks) que usa aprendizado de máquina para distinguir relações de causa e efeito genuínas entre genes, em vez de apenas identificar padrões que aparecem em conjunto. O estudo marca um importante avanço, pois deixa de apenas observar correlações para desvendar os mecanismos causais que impulsionam a progressão da doença. Além disso, a SIGNET tem potencial
para ser aplicada a outras doenças complexas, como câncer, distúrbios autoimunes e condições de saúde mental. 👵🧠🧬
🌍 IA Global
🇧🇷🇨🇳🇷🇺🇮🇳🇿🇦 Esforços unificados Os países do BRICS estão intensificando seus esforços para estabelecer diretrizes unificadas de regulação da IA em um movimento que busca equilibrar inovação tecnológica, segurança e inclusão global. A iniciativa ganhou força com a realização da Cúpula Global de IA organizada pela Índia, nação que preside o bloco em 2026. Para os países do bloco, a construção de um marco regulatório compartilhado para IA não é apenas uma questão técnica, mas um passo estratégico rumo a uma governança tecnológica alinhada aos interesses das nações em desenvolvimento.
📢 IA em uma frase
“Se tivesse de quantificar o que está por vir com o advento da AGI, diria que será algo 10 vezes mais impactante do que a Revolução Industrial, mas em uma velocidade 10 vezes maior.” | A frase é de Demis Hassabis, CEO do Google DeepMind, durante o Simpósio sobre Impactos da IA realizado na Índia, quando comparou a chegada da AGI à descoberta do fogo e da eletricidade devido a seu potencial transformador. Hassabis reiterou sua previsão anterior, afirmando que 2026 verá outro momento importante para IA e que AGI deve chegar em cinco anos. |
AI_TOOLKIT
🛠️Ferramentas
📚 Miscelânea
Jornalista da BBC realizou um experimento que expôs uma falha crítica nos modelos de IA. Em apenas 20 minutos, conseguiu "hackear" o ChatGPT e o Gemini para que ambos passassem a divulgar informações falsas como se fossem verdadeiras.
AI_FLASH_NEWS
Índia quer atrair US$ 200 bilhões em investimentos em infraestrutura de IA até 2028 com incentivos fiscais, capital de risco estatal e apoio político.
ElevenLabs lançou uma plataforma para o setor público com agentes de voz e chat multilíngues; implantações avançam na Ucrânia e na República Tcheca.
Perplexity abandonou sua estratégia de publicidade e decidiu se concentrar exclusivamente em receitas geradas por assinaturas e vendas para empresas.
Vaticano oferece tradução ao vivo assistida por IA em 60 idiomas aos fiéis durante as missas na Basílica de São Pedro, acessível via QR code.
Parlamento Europeu proibiu o uso de ferramentas de IA nos equipamentos de trabalho dos parlamentares, citando riscos de cibersegurança e privacidade.
Netflix ameaça processar a ByteDance, exigindo a remoção do conteúdo de sua propriedades intelectual dos datasets de treinamento de IA.
Sam Altman, da OpenAI, e Dario Amodei, da Anthropic, se recusarem a dar as mãos na recente Cúpula de IA da Índia, evidenciando a rivalidade.
Meta está investindo US$ 65 milhões em apoio a políticos estaduais dos Estados Unidos favoráveis à indústria da IA.
Podcaster Herbert Greene processou o Google alegando que NotebookLM replica indevidamente sua voz; empresa garante que áudio é de um ator profissional contratado. 🎙️🎧👺
Até a próxima
Obrigado por mergulhar nesta edição. Seu tempo é valioso, e estamos felizes por você ter escolhido passar alguns minutos aqui.
Voltaremos à sua caixa de entrada em breve. Até lá, cultive a curiosidade.😊