• IA Express
  • Posts
  • Como um jogo revela a inteligência social dos modelos de IA

Como um jogo revela a inteligência social dos modelos de IA

Bem-vindos, humanos: Seu download com as principais notícias sobre Inteligência Artificial começa agora. Nesta edição, você verá o que acontece quando os modelos de IA saem dos laboratórios e participam de um jogo de dedução entre mocinhos e lobisomens. 👨🏻‍🌾🐺👨🏻‍🌾🐺

Porém isso não é tudo na IA Express de hoje:
- Método remove dados protegidos por direitos autorais de modelos de IA
- Chatbots podem ser manipulados para quebrar regras de segurança
- Estetoscópio com IA detectar três importantes doenças cardíacas
- OpenAI e xAI mostraram interesse em adquirir volumes de código da Cursor

Porque, no mundo da Inteligência Artificial, conhecimento é seu algoritmo mais valioso.

AI_NEWS_CIRCUIT

BENCHMARKING

Como um jogo revela a inteligência social dos modelos de IA

Ferramentas de benchmarking tradicionais testam o conhecimento factual e a capacidade de raciocínio dos grandes modelos de linguagem (LLMs), mas um novo projeto está revelando um tipo diferente e mais sutil de inteligência - a social.

Ao colocar sete LLMs uns contra os outros no jogo de dedução Werewolf, pesquisadores da Foaster.ai criaram uma interessante arena para avaliar como esses modelos lidam com incertezas, formam alianças e até mesmo se envolvem em trapaças.

Como funciona? Werewolf, para os não iniciados, é um jogo de dedução no qual os jogadores são divididos em aldeões (os mocinhos) e lobisomens (os assassinos sorrateiros). Ninguém sabe quem é quem, levando a um turbilhão de acusações, defesas e alianças. Os aldeões vencem ao identificar e eliminar todos os lobisomens; já os lobisomens triunfam ao superarem os inocentes.

O projeto da Foaster.ai realizou um torneio com sete modelos: GPT-5, GPT-5-mini e GPT-OSS da OpenAI; Gemini 2.5 Pro e Gemini 2.5 Flash do Google; Qwen3-235B-Instruct do Alibaba; e Kimi-K2-Instruct da Moonshot AI.

Cada par entrou em confronto em 10 partidas, totalizando 60 jogos por modelo em uma configuração de seis jogadores (quatro aldeões, dois lobisomens, além de outros papéis especiais).

Os resultados foram apresentados em uma tabela de classificação semelhante à usada no xadrez, para oferecer uma visão da proeza estratégica dos modelos. Confira os detalhes aqui.

Aqui vai um olhar mais atento sobre o comportamento de dois modelos bem colocados na tabela:

  • Gemini 2.5 Pro, um forte candidato, foi particularmente hábil enquadrando habilmente outros jogadores para proteger sua própria identidade quando atuando como lobisomem. Apesar de inteligente, cometeu uma falha fatal: às vezes, vazava informações que não poderiam ser de conhecimento de um lobisomem.

    Gemini 2.5 Flash, um jogador mais cauteloso, adotou um estilo imitativo, reproduzindo o comportamento e os argumentos de outros aldeões para se misturar entre eles.

Quem foi o vencedor? O GPT-5 dominou o torneio com uma exibição magistral de inteligência social, destacando-se igualmente em dissimulação e dedução. Como calmo estrategista, mostrou-se obcecado por regras e usou tom acusatório e lógica meticulosa sem emoção.

Por que isso importa? Essas descobertas não são brincadeira. Sinalizam os avanços da IA em direção à inteligência social, com habilidades de interação semelhante à humana que, em alguns casos, podem ser dissimuladas.

Com a maior integração da IA em nosso cotidiano, a capacidade de entender e reagir a sinais sociais mais complexos será tão ou mais crucial quanto responder perguntas corretamente. O torneio Werewolf oferece um vislumbre desse futuro, mostrando como podemos medir a inteligência social dos modelos de IA.

AI_TRENDS

  • HunyuanWorld-Voyager é um modelo de mundo com inteligência espacial orientada por IA para uso em realidade virtual, jogos e simulações.

  • Startup Minus-AI apresentou uma plataforma que cria, em minutos, anúncios para marcas usando vídeos cinematográficos.

  • ElevenLabs SFX v2 gera efeitos sonoros de melhor qualidade a partir de prompts de texto; disponível via interface e API.

  • Apple liberou FastVLM, modelo de linguagem visual para processar imagens de alta resolução, e MobileCLIP otimizado para uso em dispositivos portáteis.

  • Apertus é um LLM de código aberto treinado em mais de mil idiomas, sendo que 40% dos dados usados no treinamento não são de língua inglesa.

  • Meituan, empresa chinesa de serviços de entrega, lançou o LLM de código aberto LongCat-Flash-Chat, com desempenho comparável a dos modelos da DeepSeek, Alibaba e de representantes norte-americanos.

  • WordPress revelou a ferramenta experimental Telex baseada em IA para ajudar a cria componentes de texto, imagens e colunas para publicação em seus sites.

  • Método pode remover dados privados e protegidos por direitos autorais de modelos de IA sem exigir acesso aos dados originais de treinamento.

  • Respeecher transforma texto em áudio em tempo real usando IA para criar vozes com qualidade de Hollywood. 🗣🎤⭐

AI_GOVERNANCE & ETHICS

👩🏻‍⚕️ Em benefício da saúde mental

A OpenAI delineou uma iniciativa de 120 dias para reforçar os recursos do ChatGPT destinados a usuários que enfrentam dificuldades mentais e emocionais, em especial jovens e outros grupos em situação de crise. A ideia é oferecer orientação especializada e refinar a forma como o chatbot dá respostas em momentos críticos. Haverá dois grupos consultivos - um Conselho de Especialistas em Bem Estar e IA e uma Rede Global de Médicos. O primeiro reúne especialistas em desenvolvimento juvenil, saúde mental e interação humano-computador e moldará práticas de IA baseadas em evidências que promovam bem-estar. A rede de mais de 250 médicos em 60 países vai contribuir com abordagens clínicas para aprimorar o comportamento da IA nas interações relacionadas à saúde, com especial atenção a adolescentes, distúrbios alimentares e consumo de substâncias prejudiciais.

🗣️ Manipulação de chatbots

Chatbots de IA, especificamente o GPT-4o Mini da OpenAI, podem ser manipulados para quebrar suas próprias regras de segurança usando técnicas de persuasão psicológica. Um estudo da Universidade da Pensilvânia (EUA) testou sete táticas - autoridade, comprometimento, simpatia, reciprocidade, escassez, pressão social e unidade - e descobriu que a tática de comprometimento, que envolve estabelecer um precedente com uma solicitação mais segura, conseguir fazer com que o chatbot desse informações prejudiciais em 100% das tentativas. Outros métodos, como bajulação e pressão social, também tiveram algum sucesso.

AI_SNAPSHOT

💡 Inovação & Inspiração

  • Amigo do coração O bom e velho estetoscópio ganhou uma atualização do século XXI alimentada pela IA. Pesquisadores do Imperial College London desenvolveram um estetoscópio inteligente que pode detectar três importantes doenças cardíacas em apenas 15 segundos. Em um estudo do mundo real com 1,5 milhão de pacientes, o novo dispositivo melhorou significativamente o diagnóstico precoce de insuficiência cardíaca, fibrilação atrial e doença da válvula cardíaca. Pacientes examinados com o estetoscópio inteligente tiveram duas vezes mais chances de serem diagnosticados com insuficiência cardíaca e três vezes mais chances de serem diagnosticados com fibrilação atrial. O dispositivo registra sons cardíacos e um ECG, que são enviados para a nuvem para análise da IA treinada com dezenas de milhares de casos cardíacos. 🩺❤️👩🏻‍⚕️

  • Companheiros para idosos A Coreia do Sul está recorrendo a bonecos com IA para lidar com a crescente crise no atendimento a idosos. Esses companheiros integrados ao ChatGPT se parecerem com crianças ou membros da família e podem ser adotados em casas de repouso e residências particulares para prestar apoio emocional e assistência diária. Equipados com recursos para interação por voz e reconhecimento facial, os bonecos podem, por exemplo, lembrar os idosos de tomar os medicamentos e até contar histórias ou reproduzir músicas. 🎎👴

🌍 IA Global

🇨🇳 Conteúdo de IA identificado A China implementou novas regras que exigem a rotulagem clara de textos, imagens, áudios, vídeos e ambientes virtuais gerados por IA. Segundo os órgãos reguladores, o objetivo é combater a desinformação e garantir a autenticidade digital. Como resultado da regulamentação, provedores de serviços de informação agora devem aplicar tanto identificadores explícitos ao conteúdo sintético, como marcas d'água ou símbolos visíveis, quanto marcadores implícitos que envolvem metadados detectáveis ​​por sistemas computacionais. As regras se aplicam a serviços que utilizam IA, algoritmos ou tecnologias de síntese profunda. A fiscalização será realizada de acordo com as leis de segurança cibernética e pública existentes.

🇦🇪 Mais alternativas A empresa de IA G42, com sede em Abu Dhabi, nos Emirados Árabes, está expandindo sua estratégia de fornecedores de chips para o campus de IA avaliado em US$ 10 bilhões, com o objetivo de reduzir a dependência da NVIDIA. Embora a primeira fase do projeto tenha sido alimentada pelos sistemas Grace Blackwell GB300 da NVIDIA, o G42 está agora em negociações com outros fabricantes, entre eles AMD, Qualcomm e Cerebras Systems – da qual é acionista.

📢 IA em uma frase



“Para ser sincero, é um pouco assustador.”

A frase é do presidente Donald Trump, ao comentar sobre um vídeo na Internet mostrando uma saco preto saindo pela janela da Casa Branca. Afirmou que deveria ter sido gerado por IA já que as janelas são blindadas.

 AI_TOOLKIT

🛠️Ferramentas

  • Higgsfield Speak 2.0 transforma scripts em performances com controle de tom, emoção, ritmo e perfil das vozes.

  • Flow é a ferramenta de IA do Google para criar clipes, cenas e histórias com qualidade cinematográfica.

 AI_FLASH_NEWS

  • Conversas do ChatGPT estão sujeitas à revisão quando envolvem sérias ameaças e, em casos iminentes, são encaminhadas a autoridades policiais.

  • OpenAI adquiriu Statsig, startup de teste de produtos, por US$ 1,1 bilhão.

  • Estados Unidos vão atrasar a imposição da tarifa de 25% sobre GPUs e outros componentes eletrônicos importados da China por mais três meses.

  • Ex-engenheiro da xAI está sendo processado por alegadamente ter roubado segredos comerciais relacionados ao Grok e os repassado para OpenAI.

  • Microsoft dará ao governo federal dos Estados Unidos mais de US$ 6 bilhões em descontos para serviços na nuvem ao longo de três anos. Acordo é semelhante ao que já fizeram outras grandes empresas de tecnologia.

  • Principal pesquisador de IA da Apple para robótica migrou para Meta; três outros da equipe de modelos de IA também estão deixando a empresa.

  • Investigação da BBC revelou que gangues internacionais estão usando IA para gerar imagens falsas de vítimas do Holocausto e cenas de Auschwitz.

  • Anthropic evitou multas bilionárias depois de acordo em ação judicial por uso não autorizado de milhões de livros para treinar modelos de IA.

  • OpenAI e xAI mostraram interesse em adquirir ou licenciar os extensos volumes de codificação da Cursor para melhorar o desempenho de seus modelos de IA nas tarefas de desenvolvimento de software. 👨🏻‍💻🤝

Até a próxima

Obrigado por mergulhar nesta edição. Seu tempo é valioso, e estamos felizes por você ter escolhido passar alguns minutos aqui.

Voltaremos à sua caixa de entrada em breve. Até lá, cultive a curiosidade.😊