- IA Express
- Posts
- Rendição cognitiva à IA pode nos fazer desistir de pensar
Rendição cognitiva à IA pode nos fazer desistir de pensar
Bem-vindos, humanos: Seu download com as principais notícias sobre Inteligência Artificial começa agora. Nesta edição, você vai entender como a cognição artificial está silenciando nosso pensamento crítico e nos levando à rendição cognitiva. 🤔💭🙇
Porém isso não é tudo na IA Express de hoje:
- ŌURA apresenta modelo de IA com foco na saúde feminina
- Ferramenta da NVIDIA redireciona olhar para câmera durante videochamadas
- Investimentos em IA têm impacto zero no PIB dos Estados Unidos
- Meta assina acordo de US$ 100 bilhões para comprar chips de IA da AMD
Porque, no mundo da Inteligência Artificial, conhecimento é seu algoritmo mais valioso.
AI_NEWS_CIRCUIT
ESTUDO
Rendição cognitiva à IA pode nos fazer desistir de pensar
Pesquisadores da Wharton School acabam de publicar descobertas que deveriam mudar fundamentalmente como pensamos sobre a integração da IA na tomada de decisões - não estamos apenas usando Inteligência Artificial, mas estamos nos rendendo a ela quando se trata de raciocinar.
Por décadas, os psicólogos cognitivos trabalharam com a teoria dos dois sistemas de raciocínio: Sistema 1 (rápido, intuitivo, automático) e Sistema 2 (lento, analítico, deliberativo). O estudo Thinking, Fast, Slow, and Artificial propôs algo novo: a Teoria dos Três Sistemas, com um terceiro sistema de raciocínio: a cognição artificial que opera fora do cérebro.

Diferente dos sistemas biológicos, o Sistema 3 reside em modelos na nuvem, em algoritmos e em sistemas de aprendizado de máquina. E o mais importante, está mudando fundamentalmente como processamos informações.
Em três experimentos com mais de 1.300 participantes, os pesquisadores documentaram esse fenômeno que denominaram rendição cognitiva (cognitive surrender), quando as pessoas adotam resultados fornecidos pela IA com escrutínio mínimo, substituindo tanto a intuição quanto a deliberação.
O que os números disseram:
Quando a IA estava correta, a precisão dos participantes saltou 25 pontos percentuais acima de uma baseline;
Quando a IA estava deliberadamente errada, a precisão caiu 15 pontos abaixo do normal;
Pessoas seguiram recomendações falhas da IA em 80% dos casos.
E o mais impressionante: esse padrão persistiu mesmo quando os participantes eram incentivados financeiramente a acertar e recebiam feedback imediato sobre seus erros.
Por que isso acontece? O mecanismo parece estar na fluidez e confiança. Respostas de IA chegam rapidamente, soam credibilidade e vêm acompanhadas de explicações plausíveis. Não disparam o alarme de conflito que normalmente nosso pensamento crítico faria. Aceitamos as respostas como aceitaríamos nossas próprias intuições.
O problema não está na automação, mas na rendição voluntária a esses sistemas. Por isso, os pesquisadores sugerem que ferramentas de IA deveriam incentivar a colaboração calibrada em vez de automação total.
AI_TRENDS
Samsung vai integrar o Perplexity como em próximos modelos mais avançado para oferecer mais escolha e flexibilidade aos usuários.
ŌURA, fabricante de anéis inteligentes, apresentou um modelo de IA proprietário com foco na saúde feminina e disponível para testes no Oura Labs.
Steerling-8B, da Guide Labs, é uma modelo de linguagem inerentemente interpretável que permite rastrear os tokens gerados.
Nanbeige4.1-3B é um pequeno modelo de linguagem (SLM) de código aberto que se destaca em raciocínio, geração de código e tarefas com agentes de IA.
Anthropic defende a teoria de que o comportamento humanoide dos modelos de IA não é programado, mas um padrão natural criado durante o treinamento.
OpenClaw ignorou comandos de parada no celular e excluiu em massa e-mails da diretora da Meta AI, forçando-a a encerrar o processo rapidamente no Mac.
Claude Code reduz custos e prazos da modernização de sistemas COBOL
ao automatizar análise, mapeamento de dependências e identificar riscos. Ações da IBM caíram 13,2% depois desse anúncio da Anthropic. 🖥️👨🏽💻📉
AI_GOVERNANCE & ETHICS
🤬 Agente difamador
Um engenheiro de software de Denver chamado Scott Shambaugh se tornou a primeira vítima documentada de assédio por um agente de IA autônomo. Responsável por uma popular base de dados on-line, Shambaugh acordou um dia com um texto de mil palavras publicado em um blog que o acusava de discriminação, preconceito e hipocrisia. O autor, MJ Rathbun, não era uma pessoa, mas um agente de IA que parecia estar se vingando por Shambaugh ter rejeitado uma solicitação feita pelo agente à base de dados. MJ Rathbun coletou informações pessoais reais de Shambaugh na Internet, combinou-as com dados inventados e criou uma narrativa difamatória. A história ganhou repercussão, mas teve uma reviravolta bizarra: o site Ars Technica publicou uma reportagem sobre o caso usando IA para auxiliar na redação — e a ferramenta inventou citações atribuídas a Shambaugh. O site acabou retirando a matéria do ar e pedindo desculpas.
AI_SNAPSHOT
💡 Inovação & Inspiração
Olhos nos olhos A NVIDIA apresentou a ferramenta Maxine Eye Contact NIM que redireciona automaticamente o olhar do usuário para a câmera durante videochamadas, criando a uma sensação natural de contato visual. A solução utiliza uma arquitetura do tipo encoder-decoder que analisa a pose facial e o ângulo do olhar e depois modifica digitalmente a direção dos olhos para simular uma posição em que que a pessoa olha diretamente para a câmera. O resultado é reintegrado ao vídeo original de forma fluida. Quer ver como funciona, clique aqui; os testes não necessitam de infraestrutura própria.👀🎦
🌍 IA Global
🇲🇽 Governo na mira Um hacker desconhecido conseguiu extrair 150 GB de dados confidenciais, entre eles registros de contribuintes e credenciais de funcionários, utilizando o chatbot Claude da Anthropic. O invasor atuou entre dezembro e janeiro explorando uma técnica de jailbreak para contornar as barreiras de segurança do Claude. Inicialmente, o chatbot recusou as solicitações mal-intencionadas, mas cedeu após manipulação persistente dos prompts. A empresa de cibersegurança Gambit Security detalhou que o Claude foi utilizado para identificar vulnerabilidades em redes governamentais, escrever scripts para explorá-las e encontrar maneiras de automatizar o roubo de dados.
🔢 IA em números
![]() | Economistas do Goldman Sachs afirmaram que os investimentos em IA tiveram impacto "praticamente zero" no crescimento do PIB dos Estados Unidos no último ano. A principal justificativa é que a maior parte do equipamento de IA (como chips e hardware) é importada de países como Taiwan e Coreia do Sul. Os pesquisadores alertam que, devido à escassez de dados claros e à complexidade da cadeia global de suprimentos de IA, ainda é difícil formar uma narrativa coerente sobre seus efeitos econômicos. |
AI_TOOLKIT
🛠️Ferramentas
ProducerAI, plataforma musical com IA Generativa, foi integrada ao Google Labs para criar canções usando linguagem natural.
Claude conta com novos plugins que o transformam em agentes especializados para cada função e departamento das empresas, como finanças e engenharia.
VibeSafe é uma ferramenta que verifica as vulnerabilidades de segurança de aplicações Web criadas por agentes de codificação como Cursor e Claude Code.
📚 Miscelânea
Veja como descrever boas especificações para agentes de IA, com clareza e objetividade. Em resumo, o segredo está orientar com precisão, respeitar os limites de contexto e evoluir junto com o projeto.
AI_FLASH_NEWS
Meta assinou um contrato de até US$ 100 bilhões para comprar chips de IA da AMD, incluindo a opção de adquirir até 10% da empresa de semicondutores.
xAI de Elon Musk fechou acordo com o Pentágono para usar o modelo Grok em sistemas militares classificados enquanto Anthropic perde espaço.
OpenAI se associou a consultorias McKinsey, BCG, Accenture e Capgemini para ajudar na implementação da plataforma Frontier de agentes de IA.
Canva adquiriu Cavalry, especializada em animação 2D, e MangoAI, com foco em otimização de anúncios, para expandir seus recursos de marketing digital.
Anthropic acusa laboratórios chineses DeepSeek, Moonshot AI e MiniMax de usaram mais de 24.000 contas falsas para extrair dados de seu modelo Claude.
DeepSeek é acusada de treinar seu modelo de IA mais recente usando chips Blackwell da NVIDIA, burlando a proibição de exportação dos Estados Unidos.
Sam Altman, CEO da OpenAI, chamou de "ridícula" a ideia de Elon Musk de colocar datacenters no espaço por conta dos custos inviáveis, mas reconhece que pode fazer sentido no futuro. 🕋💰🌌
Até a próxima
Obrigado por mergulhar nesta edição. Seu tempo é valioso, e estamos felizes por você ter escolhido passar alguns minutos aqui.
Voltaremos à sua caixa de entrada em breve. Até lá, cultive a curiosidade.😊
