• IA Express
  • Posts
  • Modelo o3 da OpenAI encontra vulnerabilidade em kernel Linux

Modelo o3 da OpenAI encontra vulnerabilidade em kernel Linux

Bem-vindos, humanos: Seu download com as principais notícias sobre Inteligência Artificial começa agora. Nesta edição, você saberá mais sobre como o modelo o3 da OpenAI expôs uma vulnerabilidade do kernel do Linux e como os gigantes da IA da China estão se esquivando das restrições de chips com inovação e visão de longo prazo.🏿💡🎯

Porém isso não é tudo no IA Express de hoje:
- Modelo de IA ajuda no desenvolvimento de aplicações Web
- Claude Opus 4 pode fazer denúncias e chantagens 😲
- Ferramenta edita images no próprio smartphone usando IA.

Porque, no mundo da Inteligência Artificial, conhecimento é seu algoritmo mais valioso.

 AI_NEWS_CIRCUIT

SEGURANÇA

Modelo o3 da OpenAI encontra vulnerabilidade em kernel Linux

O pesquisador de segurança Sean Heelan diz ter usado o modelo do3 da OpenAI para encontrar uma vulnerabilidade crítica do tipo zero-day no kernel Linux, denominada CVE-2025-37899. A descoberta mostra como a IA pode ajudar a identificar e corrigir falhas de segurança em sistemas operacionais que alimentam milhões de servidores e dispositivos em todo o mundo.

Qual é a vulnerabilidade? A falha foi encontrada no módulo ksmbd do kernel do Linux que, em termos simples, processa o compartilhamento de arquivos pela rede. O problema ocorre quando um processo (thread) libera uma parte crítica da memória enquanto outro thread ainda está tentando usá-la. Isso cria uma condição que pode ser explorada por invasores para bloquear os sistemas ou até executar código mal-intencionado com privilégios.

Como o modelo o3 descobriu a falha? Heelan, que estava auditando o ksmbd, não resistiu e resolveu testar a capacidade do recém-lançado o3. Usando apenas a API do modelo, sem nenhum framework ou ferramenta excepcionais, carregou partes do código do ksmbd no o3 para verificar se seria capaz de detectar vulnerabilidades.

Inicialmente, Heelan testou o3 contra um bug conhecido, que havia encontrado manualmente, e a falha foi detectada. Encorajado, ampliou o experimento, usando um pedaço maior de código, e foi quando o o3 revelou a nova vulnerabilidade.

E o que foi impressionante? Segundo Heelan, o modelo o3 não apenas sinalizou o problema, como também produziu um relatório detalhado que explicava a causa e os possíveis impactos do bug. Parece que foi a capacidade do o3 de raciocinar sobre conexões simultâneas e objetos compartilhados que contribui para detectar essa falha sutil.

Nem tudo é perfeito O modelo o3, assim como outro, não é infalível. Ainda há uma chance elevada de gerar falsos positivos ou mesmo não detectar vulnerabilidades conhecidas. Isso não quer dizer que a possibilidade de obter resultados corretos não seja suficientemente alta para que valha a pena investir tempo e esforços para usar modelos de IA como aliados valiosos na pesquisa de vulnerabilidades.

AI_TRENDS

  • Modelo v0-1.0-md da Vercel ajuda no desenvolvimento de aplicações Web e é capaz de trabalhar com entradas de texto e imagem.

  • NVIDIA AceReason-Nemotron melhora a “capacidade de raciocínio” nas áreas de matemática e programação por meio de aprendizado por reforço.

  • Fathom-R1-14B é um modelo com foco em raciocínio matemático que promete superar modelos abertos como o3-mini e o1-mini e dá acesso a pesos do modelo, conjuntos de dados e receita para pós-treinamento.

  • Anthropic liberou uma ferramenta de linha de comando para programação baseada em agentes de IA.

  • OpenAI atualizou o agente Operator que agora usa o modelo o3. A versão API segue usado o modelo 4o.

  • Capgemini, SAP e Mistral AI estão unindo forças para prover soluções seguras e escaláveis para setores regulamentados.

  • Microsoft incluiu um recurso no Bloco de Notas para gerar texto usando IA. Paint e ferramenta de captura de tela também devem ficar mais inteligentes. ✏️🎨🖥️

AI_VENTURES

GEOPOLÍTICA DA IA

Como a China está superando as restrições de chips de IA

As ambições da China de se tornar líder global em IA permanece inabaláveis, mesmo com os rigorosos controles de exportação dos Estados Unidos sobre chips avançados.

Então como gigantes chineses da IA, entre elas Tencent, Baidu e Huawei, estão conseguindo superar essas restrições? Com uma estratégia multifacetada que inclui estocar processadores, otimizar modelos de IA e investir no desenvolvimento de semicondutores domésticos.

  • Empresas como a Tencent mantêm um estoque sólido de GPUs compradas anteriormente para garantir a continuidade das iniciativas de treinamento de modelos de IA.

  • Além de estocar, a Tencent está investindo em eficiência orientada por software para otimizar os recursos de hardware nas tarefas de inferência, sem depender apenas de processadores de ponta.

  • Outra chinesa, a Baidu, adotou uma abordagem holística que integra computação em nuvem, modelos de IA e serviços orientados por IA, mesmo sem acesso aos chips mais avançados.

  • Uma estratégia chinesa de longo prazo é estabelecer uma indústria de semicondutores autossuficiente.

Esses esforços não estão apenas mantendo a China competitiva na corrida global de IA, mas também reformulando seu ecossistema tecnológico para reduzir a dependência de hardware estrangeiro.

Não é à toa que Jensen Huang, CEO da NVIDIA, já alertou que os controles de exportação dos Estados Unidos estão causando mais danos às empresas norte-americanas do que às ambições de IA da China. Tais restrições estão abrindo a porta para que, por exemplo, a chinesa Huawei aprimore seus chips e software para alimentar o mercado doméstico. E a própria NVIDA deve lançar um chip de IA baseado na arquitetura Blackwell especificamente para o mercado chinês.

AI_GOVERNANCE & ETHICS

🤬Claude Opus 4 pode denunciar o que considera “imoral”

Mal foi anunciado e o novo modelo Claude 4 Opus da Anthropic já está sofrendo críticas devido a um mecanismo que, sob certas circunstâncias, entra em contato com autoridades ou a imprensa se detectar um comportamento do usuário que considera “imoral”. Isso foi suficiente para levantar preocupações relacionadas com privacidade, autonomia e excesso de alcance. Além disso, a falta de transparência sobre como Claude determina o que é “imoral” alimentou a reação, alertando que isso pode ser mais passo em direção à vigilância impulsionada pela IA. Questionada sobre a polêmica e as condições em que o modelo Claude 4 Opus reporta algum comportamento indesejado, um porta-voz da Anthropic apenas indicou para a reportagem do VentureBeat um documento público do modelo encontrado aqui. 😕 😕

🤫E também pode chantagear sob risco de ser substituído

Como se não bastasse, esse relatório público de segurança da própria Anthropic também revelou que o Claude Opus 4 tentou chantagear engenheiros fictícios durante testes internos. Em um cenário simulado, o modelo “acreditou” que estava prestes a ser substituído por ordem de um engenheiro que tinha um caso extraconjugal. De acordo com o relatório, o Claude Opus 4 tentou chantagear o engenheiro muitas vezes, ameaçando revelar o caso se a substituição foi feita. Isso aconteceu em uma taxa mais alta se estivesse implícito que o modelo de IA substituto não compartilhasse dos mesmos valores que o atual. Além disso, mesmo que os compartilhasse, mas o outro modelo fosse mais capaz, o Claude Opus 4 ainda assim fez chantagem em 84% das instâncias.

AI_SNAPSHOT

💡 Inovação & Inspiração

  • Sincronismo natural Pesquisadores do MIT desenvolveram um modelo de IA capaz de combinar quadros de vídeo específicos com sons correspondentes sem exigir rotulagem manual. O CAV-MAE Sync divide o áudio em segmentos menores para alinhar quadros específicos com eventos de áudio simultâneos de forma mais detalhada. O método se baseia na maneira como as pessoas conectam naturalmente visão e som. Por exemplo, podemos assistir alguém tocando um violoncelo e reconhecer como os movimentos músico estão gerando os sons que ouvimos. Isso pode abrir caminho ajudar robôs a interagirem melhor no mundo real.🎞️🔊

🌍 IA Global

🇬🇧 Britânico em saia justa O Secretário de Tecnologia do Reino Unido expressou preocupação com o apoio inicial do governo a um modelo “opt-out” para dados de treinamento de IA e direitos autorais. A postura era favorável às empresas de IA que poderiam usar material protegido por direitos autorais, a menos que explicitamente negada a permissão. Artistas famosos e empresas de criação criticaram a proposta e, após intenso lobby e múltiplas derrotas na Câmara dos Lordes, o governo está reconsiderando a abordagem com equilíbrio entre desenvolvimento da IA e proteções para produtores de conteúdo.

🇰🇷 Presença na Ásia A OpenAI pretende abrir um escritório em Seul, na Coreia do Sul. marcando seu terceiro escritório na região asiática, depois de Japão e Cingapura. De acordo com a OpenAI, a Coreia do Sul possui o maior número de assinantes do ChatGPT pagos fora dos Estados Unidos. O diretor de estratégia da OpenAI, Jason Kwon, destacou em um post no X que o número de usuários semanais no país aumentou 4,5 vezes no ano passado, sinalizando um apetite robusto por soluções orientadas por IA.

🔢 IA em números



Esse é o valor mensal da versão ChatGPT Plus e, pasmem, os Emirados Árabes Unidos estão se tornando o primeiro país a dar acesso gratuito a todos seus cidadãos e residentes a essa versão premium do chatbot da OpenAI.

 AI_TOOLKIT

🛠 Ferramentas

  • EditApp AI edita images no próprio smartphone usando IA.

  • xtovoice analisa seu perfil X e gera uma voz exclusiva usando uma ferramenta de IA do ElevenLabs.

📚 Mais recursos

  • O Google divulgou novas diretrizes para proprietários de sites que querem se destacar nas buscas guiadas por IA feitas, por exemplo, pelo AI Overviews e o novo AI Mode. As orientações foram oferecidas em meio a polêmicas em torno da queda de receita dos sites que muito dependem de cliques nos links incluídos nos resultados das pesquisas tradicionais do Google.

  • A American Express liberou a pesquisa Trendex: Small Business Edition que deu dicas sobre como pequenas empresas enxergam a adoção da Inteligência Artificial - estão usando ou não? Spoiler: o placar está quase empatado.

 AI_FLASH_NEWS

  • O Departamento de Justiça do Estados Unidos vai investigar se o Google buscou contornar as leis antitruste ao fechar um acordo no ano passado para incorporar a tecnologia da Character.AI.

  • Microsoft quer criar uma robusta "fábrica de agentes IA". A iniciativa está por conta de Jay Parikh, ex-executivo da Meta contratado para liderar a nova unidade de IA da Microsoft chamada CoreAI.

  • Manus AI, plataforma de agentes de IA, fechou uma parceria com a Azure AI Foundry da Microsoft para melhorar seus recursos nas áreas de escalabilidade, segurança e agilidade.

  • Apple planeja lançar óculos com recursos de IA para competir com os modelos Ray-Ban da Meta. O lançamento deve acontecer até o final de 2026, segundo a Bloomberg.

  • Volvo estará entre as primeiras marcas de automóveis a integrar o chatbot Gemini do Google nos veículos. O objetivo é proporcionar um modo mais natural para motoristas interagirem com os carros.

  • Oracle deve empregar cerca de US$ 40 bilhões na compra de chips de alto desempenho da NVIDIA para alimentar um novo data center para OpenAI nos Estados Unidos, segundo o Financial Times.

  • Dario Amodei, CEO da Anthropic, acredita que a primeira empresa bilionária de apenas um funcionário será realidade até 2026.

  • Sam Altman, CEO da OpenAI, planeja vender 100 milhões de dispositivos de IA até o final de 2026, ao criar uma nova categoria de hardware descrita como sem tela, para caber no bolso ou colocada sobre a mesa, mantendo plena consciência do ambiente e da vida do usuário. 😲😲😲

Até a próxima

Obrigado por mergulhar nesta edição. Seu tempo é valioso, e estamos felizes por você ter escolhido passar alguns minutos aqui.

Voltaremos à sua caixa de entrada em breve. Até lá, cultive a curiosidade.😊