• IA Express
  • Posts
  • A armadilha dos LLMs supertreinados

A armadilha dos LLMs supertreinados

Bem-vindos, humanos: Seu download diário com as principais notícias sobre Inteligência Artificial começa agora. Nesta edição, você vai se informar sobre modelos de linguagem que estão enfrentando o paradoxo do excesso de treinamento. Também conhecerá uma ferramenta que decifra jargões em meio ao caos. 😵‍💫


Porém isso não é tudo no IA Express de hoje:
- Será que a OpenAI está desenvolvendo um computador?
- Gemini 2.5 Pro supera a pontuação média humana em testes de QI
- Agentes de IA bem comportados agora podem seguir regras
- IA recompensa com cervejas torcedores em jogos de beisebol

Porque, no mundo da Inteligência Artificial, conhecimento é seu algoritmo mais valioso.

 AI_NEWS_CIRCUIT

ESTUDO

A armadilha dos LLMs supertreinados

Boa parte do grandes modelos de linguagem (LLMs), aqueles que alimentam chatbots, passam por dois processos antes de chegar às telas. Primeiro, são pré-treinados com pilhas enormes de texto que os ensinam o básico da linguagem. Depois são ajustados para se especializar em tarefas como responder perguntas ou seguir instruções.

Imaginava-se até então que mais pré-treinamento significava um melhor cenário para o ajuste fino. Um estudo recente diz que essa ideia nem sempre é verdade.

O que você precisa saber:

  • Os pesquisadores cunharam o termo overtraining catastrófico para descrever o que acontece quando o pré-treinamento vai longe demais e, após o ajuste fino, o desempenho do LLM cai - em mais de 2% em alguns casos. É como estudar tanto para uma prova e esquecer o básico na hora H.

  • A equipe investigou o "porquê" com experimentos e teoria. A principal descoberta? Modelos supertreinados se tornam sensíveis demais. É como se o LLM se tornasse perfeccionista, agarrando-se ao seu conhecimento pré-treinado e lutando para se adaptar a novas tarefas. Os pesquisadores chamaram isso de sensibilidade progressiva, que é a raiz do problema.

Qual é o pulo do gato? Há um ponto ideal no qual o pré-treinamento maximiza os benefícios. Encontrá-lo, no entanto, depende do tamanho do modelo, da tarefa de ajuste fino e até mesmo da taxa de aprendizado - quão rápido o LLM se ajusta durante o ajuste fino.

Por que isso importa? A descoberta desafia o mantra "mais é melhor" que tem fundamentado a pesquisa de IA por anos. O estudo sugere uma reformulação: concentrar-se no pré-treinamento inteligente, não apenas no pré-treinamento longo. Colocado de outra maneira, usar dados suficientes para aprender, mas não tanto a ponto de fazer o modelo se esquecer de como se adaptar.

AI_TRENDS

  • Indagação 1 🤔: Será que a Apple anunciará em breve um plano de IA para saúde digital?

  • Indagação 2 🤔: Será que a OpenAI está desenvolvendo um computador? Em um post no X, Sam Altman, CEO da empresa, deu a entender que sim e será um "bem fofo", segundo ele, "daqueles que você vai adorar usar".

  • O Gemini 2.5 Pro (experimental) agora está disponível para todos os usuários do Gemini sem custo. A propósito, no teste de QI da Mensa Norway, obteve 130 pontos, o valor mais alto de todos os modelos que supera a pontuação média humana de 100. Experimente a fera aqui.

  • O Runway Gen-4 é uma nova série de modelos de IA para geração de mídia que enfatiza consistência, fidelidade, movimento e capacidade de controle. Oferece movimento realista, personagens, objetos e estilos consistentes, além de melhor aderência aos prompts.

  • A OpenAI planeja lançar nos próximos meses seu primeiro modelo de linguagem aberto com recursos de raciocínio desde o GPT‑2.

  • A Perplexity está criando sua versão do Circle to Search, recurso introduzido pelo Google em alguns dispositivos Android que faz buscas rápidas ao fazer um círculo em torno do que o usuário deseja pesquisar.

AI_VENTURES

RECONHECIMENTO DE FALA

Novo modelo fala a sua língua, mesmo repleta de jargões

Sim, já existem ferramentas de IA especializadas em jargões e ambientes barulhentos, como chão de fábricas ou salas lotadas de pronto-socorro. São capazes de entender comandos cheio de termos técnicos como "calibrar fresadora" ou "apendicectomia", ao contrário da maioria dos sistemas de reconhecimento de fala de uso geral que tropeçaria nas tarefas, confundindo palavras ou não reconhecendo comandos.

O Jargonic da aiOla, novo modelo de reconhecimento automático de fala (ASR, na sigla em inglês), pode lidar com terminologias técnicas, ruídos de fundo, falas sobrepostas e outras condições que costumam degradar a qualidade da transcrição, como nos setores manufatura, logística, serviços financeiros e saúde.

Como funciona? Em vez de precisar de toneladas de ajustes para entender termos especiais, o Jargonic tem um recurso de aprendizado inteligente que descobre o contexto e pesca jargões exclusivos por conta própria, sem necessidade de treinamento extra.

Além disso, o Jargonic foi treinado em ambientes sonoros reais - pense em engrenagens ou ventiladores zumbindo ou hospitais e consultórios repletos de pacientes e enfermeiros. É como dar ao Jargonic protetores de ouvido e um superpoder para se concentrar apenas no que importa: a voz de quem o comanda.

Por que isso importa? A maioria das ferramentas de reconhecimento de fala foi desenvolvida para uso geral, não para nichos desafiadores. Já a iOla inverte esse roteiro, oferecendo uma API por meio da qual é possível conectar o Jargonic a fluxos de trabalho e passar a contar com um assistente de voz que fala a sua língua.

AI_GOVERNANCE & ETHICS

📝 Agentes de IA comportados

Pesquisadores da Singapore Management University desenvolveram o AgentSpec, estrutura que aborda problemas de confiabilidade enfrentados por agentes de IA usando uma abordagem de aplicação de regras. O AgentSpec integra um mecanismo que verifica a conformidade com normas antes que as ações sejam tomadas, reduzindo assim a probabilidade de comportamento errático.

👔 Práticas responsáveis nas empresas

Um artigo do Google Cloud intitulado "Delivering Trusted and Secure AI" descreve sua abordagem para permitir que empresas adotem IA Generativa de forma responsável e segura. O material enfatiza como o mundo empresarial pode usar mecanismos robustos para governança de dados, controles de privacidade, conformidade e práticas de IA responsáveis.

AI_SNAPSHOT

💡 Inovação & Inspiração

  • Mãozinha cientista O sistema de IA CodeScientist da Ai2 quer ajudar na descoberta científica autônoma, automatizando os principais aspectos do processo científico: ler artigos, criar hipóteses, projetar experimentos, analisar resultados e gerar relatórios. Em um teste com 50 artigos, o CodeScientist gerou 50 ideias de experimentos, que foram filtradas por um pesquisador humano. Após revisão de especialistas, seis foram consideradas cientificamente sólidas. 🧑‍🔬

  • Recompensa em cervejas A marca Coors Light de cerveja de baixo teor alcoólico lançou uma campanha inovadora chamada "Obstructed Brews" que usa IA para transformar assentos com vistas obstruídas em jogos de beisebol, recompensando-os com cerveja grátis. Os torcedores enviam fotos de seus assentos obstruídos para o site ou Instagram da Coors Light, e a IA determina se, de fato, a visão está prejudicada. 🍺

🌍 Global_AI

🇬🇧 Ajuda no dever de casa O governo do Reino Unido vai criar uma ferramenta de IA para auxiliar na correção de deveres de casa de crianças em idade escolar. Serão usados algoritmos para avaliar o trabalho dos alunos e dar notas e feedback. Ao identificar tendências de desempenho, será possível apontar áreas em que os estudantes precisam de ajuda extra.

🇨🇳 Tensão entre China e EUA A Microsoft fechou seu IoT & AI Insider Lab localizada na zona de alta tecnologia de Zhangjiang, em Xangai. O movimento é visto como parte de uma retirada mais ampla de empresas da China em meio às crescentes tensões geopolíticas entre Estados Unidos e China. O laboratório apoiava o desenvolvimento local de tecnologias de IA e Internet das Coisas (IoT).

🔢 IA em números


Esse foi o crescimento do DeepSeek em novas visitas mensais em fevereiro passado, de longe o mais rápido em nível mundial, de acordo com a plataforma de análise aitools.xyz. O DeepSeek estava com participação de mercado de 6,5%, a terceira ferramenta de IA mais visitada atrás do ChatGPT (43,1%) e Canva (8,2%).

🛠 Ferramentas

  • Abridge transforma conversas médicas em documentação clinicamente útil.

  • Pika permite viajar no tempo e posar para uma selfie com sua versão mais jovem.

  • Magic Bookifier ajuda na escrita de livros inteiros em apenas alguns minutos.

📚 Mais recursos

  • Artigo do Wall Street Journal detalha os eventos que cercaram a breve saída de Sam Altman como CEO da OpenAI em novembro de 2023. É uma adaptação do novo livro "The Optimist: Sam Altman, OpenAI, and the Race to Invent the Future", de Keach Hagey .

 AI_FLASH_NEWS

  • A OpenAI garantiu US$ 40 bilhões em novo financiamento - a empresa agora está avaliada em US$ 300 bilhões. Esse aporte financeiro deve acelerar os esforços de P&D da OpenAI, particularmente na busca pela Inteligência Artificial Geral (AGI).

  • Em uma conversa no Reddit, Aravind Srinivas, CEO da Perplexity, negou firmemente que a empresa esteja passando por dificuldades financeiras e também declarou que não há planos de IPO antes de 2028.

  • A Zhipu AI apresentou o agente AutoGLM Rumination gratuito que, segundo a startup chinesa, supera o DeepSeek-R1 ao operar oito vezes mais rápido e consumir um trigésimo dos recursos computacionais.

  • A PwC lançou a plataforma AI Agent Operating System (Agent OS) para agiliza a implantação e a gestão de agentes de IA em ambientes empresariais.

  • O Ministério Público do Rio Grande do Sul já utiliza soluções de IA, por exemplo, na transcrição de vídeos e dar a promotores respostas detalhadas em segundos.

Até a próxima

Obrigado por mergulhar nesta edição. Seu tempo é valioso, e estamos felizes por você ter escolhido passar alguns minutos aqui.

Voltaremos à sua caixa de entrada em breve. Até lá, cultive a curiosidade.😊