- IA Express
- Posts
- Mais do que estimar, Google mede o real impacto da inferência da IA
Mais do que estimar, Google mede o real impacto da inferência da IA
Bem-vindos, humanos: Seu download com as principais notícias sobre Inteligência Artificial começa agora. Nesta edição, você ficará por dentro da metodologia do Google para medir a pegada ambiental da IA – e também das críticas que dizem que isso ainda não é suficiente. Também conhecerá o novo modelo da chinesa DeepSeek que veio desafiar a ordem estabelecida pelas gigantes da IA. 🏮🐉⛩️
Porém isso não é tudo na IA Express de hoje:
- Estudo avalia influência dos LLMs na formação de opiniões políticas
- NASA e IBM criam modelo de IA para analisar fenômenos solares
- Modelo de percepção visual calcula preço de dois cafés analisando o menu
- Benchmarking Prophet Arena testa modelos de IA em mercados de previsão
Porque, no mundo da Inteligência Artificial, conhecimento é seu algoritmo mais valioso.
AI_NEWS_CIRCUIT
IA SUSTENTÁVEL
Mais do que estimar, Google mede o real impacto da inferência da IA
Muito se fala do uso intensivo de recursos para treinar modelos de IA, mas a inferência da Inteligência Artificial, processo que utiliza esses modelos treinados para gerar resultados, também tem sua pegada ambiental e, por isso, levanta questões sobre o consumo de energia e água e emissões de carbono. Um recente artigo técnico do Google Cloud ofereceu uma visão detalhada de como mede - e não apenas estima - os impactos ambientais da inferência de IA, em especial, dos modelos Gemini.
Quais são os principais resultados dessa medição:
Um prompt de texto mediano dos modelos Gemini consome 0,24 watt-hora de energia, emite 0,03 gramas de equivalente em CO2 (CO2e) e usa 0,26 mililitros de água (equivalente a cinco gotas). Segundo o Google, colocando em perspectiva, isso é comparável a assistir TV por menos de nove segundos.
O Google também afirma que seus esforços em favor da eficiência estão valendo a pena. Nos últimos 12 meses, a pegada energética e de emissão de carbono de um prompt de texto mediano dos Gemini Apps caiu 33 e 44 vezes, respectivamente.
Esses ganhos são resultado de uma abordagem de pilha completa, destaca o Google, abrangendo as arquiteturas dos modelos, algoritmos e inferência, hardware personalizado e datacenters.
Por que isso importa? Ao contrário de cálculos simplistas que só contabilizam o uso de energia no nível dos chips, o Google faz questão de destacar que sua metodologia não apresenta apenas estimativas, mas resultados que capturam todo o sistema, incluindo máquinas ociosas, uso de CPU e RAM e sobrecarga dos data centers, para medir o real impacto ambiental da inferência da IA.
Qual é a diferença? Segundo o Google, um método não abrangente relata que um prompt de texto mediano dos modelos Gemini consome 0,10 watt-hora de energia, e 0,12 mililitros de água, além gerar 0,02 gramas de CO2e. Em comparação com os números da metodologia do Google, o cenário parece otimista, mas subestima substancialmente a real pegada operacional da inferência da IA.
Críticas já aparecem. Apesar do passo do Google na direção da transparência - poucas empresas de tecnologia compartilham métricas detalhadas por período - críticas apontam várias omissões no estudo que também podem subestimar o verdadeiro impacto ambiental da inferência da IA.
Uma das ressalvas é considerar apenas prompts de texto “típicos” do Gemini, sem definir o comprimento médio do prompt nem incluir tarefas com uso mais intensivo de recursos, como geração de imagens ou de código e pesquisas avançadas na Web.
Além disso, a metodologia não esclarece se modelos Gemini estão usando o modo de raciocínio, o que pode impactar o consumo de energia, e também parece excluir a energia consumida por redes internas nos datacenters e meios para transferências externas de dados em trabalhos mais complexos.
No caso específico do consumo de água, especialistas criticam a metodologia do Google, apontando-a como incompleta porque só explica o uso direto para resfriamento dos datacenters e exclui o consumo indireto ligado à geração de eletricidade.
O artigo do Google ainda não foi revisado por pares. 🔎🧐
AI_TRENDS
Elon Musk abriu o código do Grok 2.5, segundo ele, o melhor modelo da xAI do ano passado. Fará o mesmo com o Grok 3 em cerca de seis meses.</>🔓
Novo recurso do Gemini permite ler documentos do Google Docs em voz alta.
Também usando Gemini, Google vai lançar um treinador pessoal em outubro que atuará como preparador físico e consultor de saúde em dispositivos Fitbit.
ElevenLabs liberou Chat Mode na plataforma de agentes de conversação para cenários em que a digitação é mais eficaz do que falar.
Yan é uma nova estrutura para geração de vídeos interativos com três módulos: Yan-Sim, Yan-Gen e Yan-Edit.
Jupyter Agent 2 é um agente de IA dentro de notebooks (ambientes de programação) capaz de carregar dados, executar código e apresentar resultados.
BiomedArena.AI é um novo benchmarking para avaliação de grandes modelos de linguagem (LLMs) usados em pesquisa biomédica.
Firecrawl lançou API para scrapping 10x mais rápida com cache inteligente, rastreio semântico, novo formato de resumo e pesquisa de notícias e imagens.
Grok 5 da xAI começará a ser treinado em setembro e “tem chances de se tornar uma verdadeira AGI”, disse Elon Musk. 🏋️♂️🧠⋆☀︎.
AI_VENTURES
AVANÇO CHINÊS
DeepSeek V3.1 redefine excelência e eficiência
A DeepSeek lançou uma versão atualizada de seu grande modelo de linguagem (LLM), a V3.1, que dá mostras do poderio chinês para desafiar gigantes de IA norte-americanas como OpenAI e Anthropic em termos de desempenho e eficiência de custo.
O que você precisa saber:
| ![]() |
No benchmarking de programação Aider, o DeepSeek-V3.1 alcançou a impressionante pontuação de 71.6%, superando o ChatGPT 4.5 da OpenAI (40%) e chegando muito perto do Claude Opus 4 da Anthropic, com a vantagem de ser dezenas de vezes mais barato. E tudo isso trabalhando no modo de não-raciocínio.
Isso e muito mais colocam o DeepSeek-V23.1 entre a elite dos LLMs, combinando desempenho e eficiência de custo. Além disso, ao contrário das empresas dos Estados Unidos que colocam modelos avançados atrás de APIs caras e licenças restritivas, o DeepSeek V3.1 está livre para download, modificação e implantação local.
AI_GOVERNANCE & ETHICS
🗳️ Persuasão política
Um estudo recente testou 19 LLMs para avaliar a crescente influência desses modelos de IA na formação de opiniões políticas. Em uma série de experimentos envolvendo quase 77.000 participantes, foi avaliada a capacidade de persuasão dos LLMs em 707 questões políticas. A pesquisa mostrou que o poder persuasivo dos modelos de IA depende mais de métodos de pós-treinamento e de prompts – houve aumento da persuasão em até 51% e 27%, respectivamente – do que da personalização ou do aumento da escala dos modelos.
🏫 Educação em IA
A Anthropic lançou duas iniciativas para integrar IA de forma responsável no ensino superior. Primeiro, criou um Conselho Consultivo composto por especialistas de instituições como Stanford, Georgia Tech e Universidade de Oxford, para orientar o uso ético e eficaz do assistente Claude no ensino, na aprendizagem e na pesquisa. Em segundo lugar, liberou três cursos gratuitos de Fluência em IA, criados em conjunto com educadores, para desenvolver em professores e alunos habilidades práticas e responsáveis em IA. Esses cursos estão acessíveis a qualquer universidade.
AI_SNAPSHOT
💡 Inovação & Inspiração
IA solar A NASA, em colaboração com a IBM Research, desenvolveu um modelo de IA treinado com 14 anos de dados do Observatório de Dinâmica Solar dos Estados Unidos. Batizado em homenagem ao deus hindu do sol, Surya analisa fenômenos solares para aprimorar a previsão do tempo espacial e aprofundar a compreensão de processos solares O modelo, disponível abertamente no Hugging Face, apoia a pesquisa em heliofísica para que cientistas estudem o impacto do sol no espaço e na Terra com maior precisão e melhore as previsões de eventos solares, auxiliando na segurança de astronautas, operações de satélites e redes elétricas. ☀️🛕👩🏻🚀
IA programadora A nova plataforma Qoder da Alibaba usa modelos de IA como Claude, Gemini e GPT e engenharia de contexto para dar a desenvolvedores ferramentas inteligentes que simplificam tarefas complexas de programação. O Qoder se destaca na compreensão de bases de código intrincadas e aceita comandos em linguagem natural para fazer pesquisas aprofundadas, dar sugestões de linhas de código e fazer testes automatizados. Os fluxos de trabalho nativos em IA mantêm padrões específicos e preferências de codificação ao longo dos projetos, além de garantir consistência na geração da documentação estruturada. { }🛠️👨🏻💻
🌍 IA Global
🇨🇳 Mais um capítulo da novela China X EUA Órgãos reguladores chineses estão desencorajando a compra dos chips de IA H20 da NVIDIA após comentários do Secretário de Comércio dos Estados Unidos, Howard Lutnick, considerados "insultantes" em entrevista à CNBC. Lutnick afirmou que os Estados Unidos vendem intencionalmente à China seus “quartos melhores” chips para mantê-la dependente da tecnologia norte-americana. Em resposta, a Administração do Ciberespaço, a Comissão Nacional de Desenvolvimento e Reforma e o Ministério da Indústria e Tecnologia da Informação da China intensificaram os esforços para promover chips de IA domésticos e emitiram avisos informais para grandes empresas de tecnologia suspenderem novas encomendas dos chips H20 até uma revisão de segurança nacional.
🔢 IA em números
![]() | Meta assinou um acordo com o Google, avaliado em mais de US$ 10 bilhões e válido por seis anos - um dos maiores da história da Google Cloud. A Meta utilizará serviços de computação em nuvem do Google Cloud para atender às suas crescentes demandas por infraestrutura de Inteligência Artificial. |
AI_TOOLKIT
🛠️Ferramentas
Mocke usa IA para conhecer as possível taxas de resposta de campanhas de e-mail antes mesmo de lançadas.
Ovis2.5 é um modelo de percepção visual com raciocínio multimodal. Pode, por exemplo, olhar um menu e calcular quanto gastaria com dois cafés.
Google Whisk é ferramenta experimental que cria imagens usando outras imagens como prompts, em vez de apenas texto.
📚 Miscelânea
Ao contrário de sistemas de benchmarking tradicionais que usam dados históricos, o novo Prophet Arena testa modelos de IA pedindo que prevejam eventos do mundo real e não resolvidos provenientes de mercados de previsão ao vivo, como Kalshi e Polymarket. Os eventos incluem uma ampla gama de tópicos, como eleições, esportes e indicadores econômicos.
AI_FLASH_NEWS
Elon Musk tentou se unir à Mark Zuckerberg, da Meta, no início de 2025 para ajudar a financiar a oferta de US$ 97,4 bilhões da xAI pela OpenAI, de acordo com documentos divulgados na processo legal entre Musk e OpenAI.
Eli Lilly assinou acordo de US$ 1,3 bilhão com Superluminal Medicines para criar medicamentos voltados a obesidade e doenças metabólicas usando IA.
Anthropic criou um classificador de segurança para impedir que modelos de IA, em especial, Claude, sejam usados para criar armas nucleares.
Google vai oferecer por um ano a plataforma Gemini for Government a uma taxa de menos US$ 0,50 por agência governamental dos Estados Unidos.
OpenAI estabelecerá seu primeiro escritório em Nova Delhi, na Índia, ainda este ano.
Microsoft integrará Copilot e Azure AI à Liga de Futebol dos Estados Unidos para melhorar as operações de 30 estádios e mais de 330 eventos anuais.
Cohere lançou Command A Reasoning, novo modelo de IA para tarefas complexas em empresas, com ótimo desempenho em fluxos de agentes.
Meta pisou no freio das contratações para a divisão de IA após recrutar mais de 50 pesquisadores e engenheiros. O congelamento coincidiu com o desmembramento dos esforços de IA em quatro equipes. 🗣📢✋
Até a próxima
Obrigado por mergulhar nesta edição. Seu tempo é valioso, e estamos felizes por você ter escolhido passar alguns minutos aqui.
Voltaremos à sua caixa de entrada em breve. Até lá, cultive a curiosidade.😊

