- IA Express
- Posts
- GibberLink: novo código Morse na era da IA
GibberLink: novo código Morse na era da IA
Bem-vindos, humanos: Seu download diário com as principais notícias sobre Inteligência Artificial começa agora. Neste edição, vamos falar do GibberLink, código Morse da era da IA que acelera o papo entre agentes, e do Wan2.1 da Alibaba, que teve seu código-fonte aberto. E, quem diria, estudo de Harvard usa o3-mini para provar que pensar menos pode, alguma vezes, gerar resultados melhores.
Porém isso não é tudo no IA Express de hoje:
- Alexa ganha banho de IA
- Modelos de raciocínio: IBM Granite 3.2 x Anthropic Claude 3.7 Sonnet
- Quem usa IA no trabalho?
Porque, no mundo da Inteligência Artificial, conhecimento é seu algoritmo mais valioso.
AI_NEWS_CIRCUIT
NOVO PROTOCOLO
E se agentes de IA tivessem um código Morse próprio?
Durante uma hackathon realizada pela ElevenLabs em Londres, dois desenvolvedores criaram o GibberLink, protocolo inovador que permite que agentes de IA reconheçam uns aos outros e usem uma linguagem sonora eficiente, tornando a comunicação entre sistemas de IA 80% mais rápida e confiável. Quem sabe não é esse o código Morse na era da IA?
Como funciona:
Um agente de IA começa a falar exatamente como um assistente de voz interagindo com uma pessoa.
Se ele percebe que está falando com outro agente, ambos trocam de protocolo.
A linguagem muda, ou seja, em vez de usar palavras, os agentes passam a transmitir transmitem dados estruturados por meio de ondas sonoras moduladas.

O GibberLink combina a tecnologia Conversational AI da ElevenLabs com ggwave, biblioteca data-over-sound de código aberto.
Por que isso importa: Essa pode ser uma mudança de paradigma. Até agora, agentes de IA têm usado fala em linguagem humana porque esperamos que assim o faça. No entanto, agentes de IA poderiam “conversar” usando outro tipo de comunicação direta e otimizada. Imagine bots, assistentes inteligentes e sistemas autônomos colaborando usando um novo padrão dedicado. A que novos patamares tecnológicos isso nos levaria?
OPEN SOURCE
Alibaba abre o código do modelo Wan2.1 para geração de vídeos
A Alibaba acabou de abrir o código do Wan2.1, seu mais recente pacote de modelos de IA capaz de gerar vídeos a partir de texto (em chinês e inglês), imagens e outros sinais de controle.
O que você precisa saber:
Duas versões do Wan2. 1(14 bilhões e 1,3 bilhão de parâmetros) tiveram o código aberto. O modelo T2V-1.3B requer 8,19 GB de VR e gera um clipe de 5 segundos em 480p em 4 minutos.
O Wan2.1-T2V-14B está no topo da tabela de classificação do VBench e é o único modelo de geração de vídeo de código aberto entre os cinco primeiros.
A família Wanx 2.1 foi oficialmente lançada no início do ano e havia feito sua primeira aparição em julho de 2023.
Por que isso importa: O anúncio deve acirrar a concorrência no espaço de geração de vídeos usando recursos IA, especialmente em relação ao Sora da OpenAI. A Alibaba também está demonstrando seu compromisso com a comunidade de código aberto.
RACIOCÍNIO X PERFORMANCE
Estudo de Harvard: o3-mini pensa menos, mas é mais preciso
Um estudo feito pela Universidade de Harvard comparou os modelos o1-mini e o3-mini da OpenAI buscando entender como trabalham com problemas matemáticos complexos.
Quais foram os resultados? O o3-mini, apesar de ser um modelo de IA compacto, demonstrou uma taxa de precisão bem superior em comparação ao seu antecessor. Curiosamente, o melhor desempenho não foi devido apenas à força bruta, mas ao fato de empregar menos etapas de raciocínio.
Outra observação contraintuitiva foi que cadeias de raciocínio mais longas, em geral, usadas para abordar os problemas de forma mais completa, podem reduzir a precisão, particularmente nos modelos menos sofisticados.
A possível explicação é que os modelos podem recorrer a cadeias de raciocínio mais longas quando confrontados com problemas que não conseguem resolver prontamente. Além disso, raciocínios estendidos estão sujeitos a probabilidade maior de erro. Cada etapa, cada cálculo, cada inferência apresenta uma chance de desvio do caminho correto, levando a uma cascata de imprecisões.
TREND_GPT
De volta para o passado 🔙: Vídeos gerados por IA mostrando pontos de vista de pessoas acordando em diferentes períodos históricos se tornaram virais no TikTok.
Boas previsões: O novo modelo de IA CorrDiff da NVIDIA usa IA para "reduzir" o volume de dados meteorológicos grosseiros para fazer previsões locais detalhadas. Segundo a empresa, é 500 vezes mais rápido e 10.000 vezes mais eficiente em termos energéticos do que os métodos tradicionais. Além disso, aprende diretamente dos dados, ignorando equações físicas complexas, o que pode ser considerado um grande avanço na previsão do tempo guiada por IA 🌤️.
Diferentes modos de raciocínio: A IBM ampliou sua família de modelos de IA com o novo Granite 3.2, que dispõe de capacidade de raciocínio (CoT) experimental, podendo ser ativada e desativada. Essa flexibilidade ajuda a poupar recursos computacionais no caso de tarefas simples e melhora os resultados para problemas mais desafiadores. Apenas para efeito de comparação, o Claude 3.7 Sonnet da Anthropic integra raciocínio avançado e respostas instantâneas em um único modelo híbrido.
AI_VENTURES
ÓCULOS INTELIGENTES
Aria Gen 2 da Meta já pode ver o futuro?
A Meta acabou de revelar o Aria Gen 2, sua mais recente inovação em óculos inteligentes e uma plataforma de pesquisa para o avanço da percepção de máquina. Esses óculos experimentais, que foram desenvolvidos sobre a versão Aria Gen 1 anunciada em 2020, são voltados para pesquisadores que estão se aprofundando em estudos de IA e pretendem contribuir em áreas como IA contextual e robótica. Então, o que você precisa saber:
Os óculos ajudam a coletar dados em ambientes do mundo real para que os pesquisadores que buscam explorar como os sistemas de IA possam entender melhor o mundo de uma perspectiva humana.
O Aria Gen 2 apresenta um conjunto ampliado de sensores em relação à geração anterior que inclui sensores de frequência cardíaca e microfone de contato para distinguir melhor a voz do usuário no ambiente.
O Aria Gen 2 estará disponível para parceiros de pesquisa acadêmica e comercial no início de 2026.
Por que isso importa: O lançamento marca um passo significativo no Projeto Aria em andamento na Meta, que visa explorar como a realidade aumentada pode ser integrada às nossas vidas cotidianas.
AI_SNAPSHOT
💡 Inovação & Inspiração
Voz sob demanda: Imagine um modelo text-to-speech (TTS) que não apenas lê palavras, mas compreende o contexto por trás delas. É exatamente isso que o Octave, desenvolvido pela Hume, faz: produz falas precisas, mas também ricas em expressividade e nuances, diferentemente de outros sistemas TTS que simplesmente leem as palavras. Você quer uma voz suave e gentil? Uma voz rouca e poderosa? O Octave as cria para você, basta dar as instruções.
Banho de IA: Esqueça as respostas robóticas! A Alexa não é mais apenas um assistente de voz comum. Rebatizada de Alexa+, depois de ser reformulada com recursos de IA, a Alexa da Amazon agora está mais inteligente no controle dos dispositivos por exemplo, e natural nas conversas.
🌍 Global_AI
Quem usa IA no trabalho: A maioria dos profissionais norte-americanos (63%) afirma não usar muito ou nada de Inteligência Artificial em seu trabalho, segundo estudo do Pew Research Center. Cerca de um em cada seis (16%) diz que pelo menos parte das tarefas é realizada usando IA. Além disso, 17% nem ouviram falar sobre o uso de IA no local de trabalho.
Projeto bilionário: A Meta Platforms está planejando construir um novo campus de data centers dedicado a projetos de IA. Os custos dos projeto podem chegar US$ 200 bilhões, segundo a Reuters. A localização deve ser escolhida entre os estados de Louisiana, Wyoming e Texas, nos Estados Unidos.
📢 IA em uma frase
“Más notícias: é um modelo gigante e caro” | Afirmação de Sam Altman, CEO da OpenAI, em publicação no X sobre o novo GPT-4.5. Também disse ser o primeiro modelo que parece manter diálogos como se fosse uma pessoa atenciosa. |
AI_TOOLKIT
🛠 Ferramentas
A OpenAI anunciou oficialmente o GPT-4.5, seu modelo mais avançado até agora (disponível para assinantes do plano Pro).
Breadcrumb AI transforma dados brutos em relatórios fáceis de interpretar.
AdCreative.ai gera banners, textos, ensaios fotográficos e vídeos para anúncios.
Novo Ideogram 2a cria imagens a partir de texto de forma mais rápida e econômica.
Interpret AI produz legendas traduzidas em tempo real vivo em reuniões, eventos, conferências e as compartilha via QR code.
📚 Mais recursos
Curso gratuito da DeepLearning.AI ensina como desenvolver aplicações usando agentes de IA para programação.
Andrej Karpathy, cofundador da OpenAI, detalha como usar LLMs na vida cotidiana.
AI_FLASH_NEWS
Meta planeja lançar aplicativo de IA autônomo no segundo trimestre competir com o ChatGPT da OpenAI.
Microsoft liberou para todos os usuários do Copilot acesso gratuito e ilimitado aos recursos Voice e Think Deeper usando o modelo o1 da OpenAI.
O Google anunciou que o Gemini Code Assist, assistente de programação que usa IA para oferecer assistência em tempo real, agora está disponível gratuitamente.
A Alibaba vai investir mais de US$ 50 bilhões em IA e computação em nuvem nos próximos três anos. Apresentou recentemente o modelo de IA Qwen2.5 Max e anunciou a integração de suas tecnologias IA nos iPhones no mercado chinês.
DeepSeek reabre acesso à API após três semanas de pausa devido à alta demanda.
Salesforce vai expandir a parceria com o Google para integrar o Gemini à plataforma Agentforce e assim aprimorar os recursos de seus agentes de IA.
A IBM tem planos de adquirir a DataStax para aprimorar o portfolio watsonx e abordar as crescentes demandas de dados associadas à IA Generativa.
Até a próxima
Obrigado por mergulhar nesta edição. Seu tempo é valioso, e estamos felizes por você ter escolhido passar alguns minutos aqui.
Voltaremos à sua caixa de entrada em breve. Até lá, cultive a curiosidade.😊