Category: IA

Entropia Cruzada: Uma Imersão na Função de Perda para Classificação

2025-04-13

Esta publicação fornece uma explicação clara do papel da entropia cruzada como uma função de perda em tarefas de classificação de aprendizado de máquina. Começando com conceitos de teoria da informação, como conteúdo de informação e entropia, ela constrói até a entropia cruzada, comparando-a com a divergência KL. O artigo conclui demonstrando a relação entre a entropia cruzada e a estimativa de máxima verossimilhança com exemplos numéricos, esclarecendo sua aplicação no aprendizado de máquina.

OmniSVG: Um Modelo Unificado e Escalável de Geração de Gráficos Vetoriais

2025-04-13
OmniSVG: Um Modelo Unificado e Escalável de Geração de Gráficos Vetoriais

OmniSVG é a primeira família de geradores multimodais de SVG de ponta a ponta que utiliza modelos pré-treinados de Visão-Linguagem (VLMs). É capaz de gerar SVGs complexos e detalhados, desde ícones simples até personagens de anime intrincados. O projeto já lançou os datasets MMSVG-Icon e MMSVG-Illustration, e o artigo científico. Planos futuros incluem o lançamento do código e modelos pré-treinados, o dataset MMSVG-Character, e uma página do projeto com um relatório técnico.

O Enigma dos Direitos Autorais no Treinamento de IA: Direitos de Aprendizagem vs. Direitos Trabalhistas

2025-04-12

Este artigo examina as implicações de direitos autorais no treinamento de IA. Alguns argumentam que treinar IA com obras protegidas por direitos autorais requer licenciamento, estabelecendo um "direito de aprendizagem". O autor refuta isso, afirmando que o treinamento de IA analisa dados, não os copia. A questão central é a exploração do trabalho de artistas pela IA, não a violação de direitos autorais. O autor defende os direitos trabalhistas, não a expansão dos direitos autorais, pois esta última beneficia grandes corporações em detrimento de artistas independentes.

O Retorno Triunfal do Google DeepMind: Gemini 2.5 Domina a IA

2025-04-12
O Retorno Triunfal do Google DeepMind: Gemini 2.5 Domina a IA

Após ser inicialmente superado pela OpenAI, o Google DeepMind está de volta com força total. O Gemini 2.5 está esmagando a concorrência em todos os principais benchmarks de IA. Ele possui desempenho superior, baixo custo, uma janela de contexto massiva e integração perfeita com o ecossistema do Google. A dominância do Google se estende além do texto, mostrando excelência na geração de imagens, vídeos, música e fala, deixando os concorrentes para trás. O artigo destaca as inúmeras vantagens do Gemini 2.5 e a liderança geral do Google DeepMind na área de IA.

IA

Ex-funcionários da OpenAI se opõem à conversão para fins lucrativos: uma batalha entre missão e lucro

2025-04-12
Ex-funcionários da OpenAI se opõem à conversão para fins lucrativos: uma batalha entre missão e lucro

Um grupo de ex-funcionários da OpenAI entrou com um amicus brief apoiando o processo de Elon Musk contra a OpenAI, opondo-se à sua conversão planejada de uma organização sem fins lucrativos para uma corporação com fins lucrativos. Eles argumentam que isso viola a missão original da OpenAI de garantir que a IA beneficie toda a humanidade. Vários ex-funcionários criticaram publicamente a falta de transparência e responsabilidade da OpenAI, alertando para uma busca imprudente pela dominação da IA. A OpenAI respondeu que seu braço sem fins lucrativos permanece, mas está fazendo a transição para uma Corporação de Benefício Público (PBC). O processo gira em torno da estrutura da OpenAI e seu impacto no desenvolvimento da IA, destacando a complexa interação entre comercialização e responsabilidade social no campo da IA.

Os Limites de se Esforçar ao Máximo no Desenvolvimento de IA

2025-04-11

O autor usa memórias de infância de represar um riacho para ilustrar as limitações de se esforçar ao máximo no desenvolvimento de IA. Inicialmente, ele construía pequenas represas com muito esforço, apenas para depois descobrir a eficiência de usar uma pá. Essa vitória, no entanto, diminuiu o aspecto exploratório do jogo. Da mesma forma, no trabalho e na vida, alcançar um objetivo (como um emprego bem remunerado) muda as regras do jogo. O autor argumenta que o desenvolvimento de IA deve levar em conta essa lição, concentrando-se não apenas na criação de IA poderosa, mas também em riscos potenciais e áreas inexploradas. Assim como observar a tenacidade de pequenos mariscos em uma piscina de maré, a atenção aos detalhes e nuances é crucial. O relatório recente da Anthropic sobre aplicativos educacionais parece reconhecer isso.

Equilibrando Agência e Confiabilidade em Agentes de Suporte ao Cliente Baseados em LLM

2025-04-11
Equilibrando Agência e Confiabilidade em Agentes de Suporte ao Cliente Baseados em LLM

Embora os Modelos de Linguagem Grandes (LLMs) sejam cada vez mais capazes de executar tarefas de alta agência, sua implantação em casos de uso de alto valor, como suporte ao cliente, exige priorizar a confiabilidade e a consistência. Pesquisas revelam que, embora agentes de alta agência se destaquem em ambientes ideais, o suporte ao cliente do mundo real apresenta desafios: lacunas de conhecimento, comportamento imprevisível do usuário e restrições de tempo. Para resolver isso, foi desenvolvida uma métrica nova, pass^k, e testada por meio de simulações de interações com clientes. Os resultados demonstram que agentes de alta agência sofrem com problemas de confiabilidade em tarefas complexas. A solução? O agente "Give Fin a Task", que melhora a confiabilidade restringindo a autonomia do agente e empregando instruções passo a passo, decompondo tarefas complexas em módulos mais simples. Essa abordagem oferece um caminho promissor para melhorar o desempenho do LLM no suporte ao cliente do mundo real.

(fin.ai)
IA

A Sintaxe de Bonobos Desafia a Singularidade da Linguagem Humana

2025-04-11
A Sintaxe de Bonobos Desafia a Singularidade da Linguagem Humana

Um novo estudo revela que bonobos combinam chamadas de forma complexa para formar frases distintas, sugerindo que esse tipo de sintaxe é mais antigo do que se pensava anteriormente. Os pesquisadores, observando e analisando vocalizações de bonobos e usando métodos semânticos, descobriram composição não trivial em combinações de chamadas de bonobos, significando que o significado da combinação difere dos significados de suas partes individuais. Essa descoberta desafia a singularidade da linguagem humana, sugerindo que a sintaxe complexa da linguagem humana pode ter se originado de ancestrais mais antigos.

IA

Avatares de IA: A Próxima Fronteira em Conteúdo Gerado por IA

2025-04-11
Avatares de IA: A Próxima Fronteira em Conteúdo Gerado por IA

A IA já domina a geração de fotos, vídeos e vozes realistas. O próximo salto? Avatares de IA – combinando rostos e vozes para criar personagens falantes. Isso não é apenas geração de imagens e dublagem; requer que a IA aprenda a intrincada coordenação de sincronização labial, expressões faciais e linguagem corporal. Este artigo explora a evolução da tecnologia de avatares de IA, desde os modelos iniciais baseados em fotos únicas até modelos sofisticados que geram movimento de corpo inteiro e fundos dinâmicos. Também analisa as aplicações de avatares de IA na criação de conteúdo, publicidade e comunicação corporativa, e discute direções futuras, como expressões mais naturais, movimentos corporais e interações com o mundo real.

O Paradoxo do Esforço no Desenvolvimento de IA

2025-04-11
O Paradoxo do Esforço no Desenvolvimento de IA

Usando a analogia infantil de represar um riacho, o autor explora a tensão entre o esforço máximo e a tomada de decisões sábias no desenvolvimento de IA. Inicialmente, como uma criança, o autor tentou construir represas com pequenas pedras e folhas, apenas para descobrir um método mais eficiente com uma pá. Essa constatação destaca como a 'vitória' pode às vezes significar uma redução do espaço do jogo. Da mesma forma, na IA, o autor buscou incansavelmente um emprego em um banco de investimentos, apenas para descobrir, após o sucesso, que o jogo de 'ganhar o máximo de dinheiro possível' não estava mais disponível. Ele argumenta que contra forças avassaladoras (natureza, mercado), o esforço total pode ser contraproducente. O relatório recente da Anthropic sobre aplicativos educacionais, no entanto, sugere uma crescente conscientização dos riscos potenciais, semelhante a notar os mariscos em dificuldades em uma praia.

IA

Parity: SRE com IA para acabar com o inferno do plantão

2025-04-10
Parity: SRE com IA para acabar com o inferno do plantão

Cansado de plantões às 2h da manhã e alertas infinitos? O Parity usa IA para automatizar a investigação, a análise da causa raiz e a resolução de problemas de infraestrutura, tornando os plantões uma coisa do passado. O produto tem tido uma forte adoção por clientes iniciais e tem o potencial de definir uma nova categoria. O Parity é apoiado por investidores de primeira linha, incluindo Y Combinator, General Catalyst e Sugar Free Capital, bem como investidores-anjos de startups líderes como Midjourney e Crusoe.

ByzFL: Construindo IA Confiável sem Confiar em Fontes de Dados

2025-04-10
ByzFL: Construindo IA Confiável sem Confiar em Fontes de Dados

Os modelos de IA atuais dependem de conjuntos de dados massivos e centralizados, levantando preocupações sobre segurança e privacidade. Pesquisadores da EPFL desenvolveram o ByzFL, uma biblioteca que utiliza aprendizado federado para treinar modelos de IA em dispositivos descentralizados, sem centralizar os dados. O ByzFL detecta e mitiga dados maliciosos, garantindo robustez e segurança, especialmente crítico para aplicações de missão crítica como saúde e transporte. Ele oferece uma solução inovadora para construir sistemas de IA confiáveis.

Nova descoberta da Apple em IA: Controle preciso de modelos generativos com Transporte de Ativação (AcT)

2025-04-10
Nova descoberta da Apple em IA: Controle preciso de modelos generativos com Transporte de Ativação (AcT)

Pesquisadores de aprendizado de máquina da Apple desenvolveram o Transporte de Ativação (AcT), uma nova técnica que oferece controle preciso sobre grandes modelos generativos, incluindo LLMs e modelos de difusão de texto para imagem, sem o treinamento dispendioso de RLHF ou ajuste fino. O AcT direciona as ativações do modelo usando a teoria de transporte ótimo, alcançando controle agnóstico de modalidade com sobrecarga computacional mínima. Experimentos demonstram melhorias significativas na mitigação de toxicidade, indução de veracidade em LLMs e controle de estilo na geração de imagens. O AcT abre caminho para modelos generativos mais seguros e confiáveis.

Evolução Desigual do Ecossistema de IA Responsável: Uma Lacuna Crescente

2025-04-10
Evolução Desigual do Ecossistema de IA Responsável: Uma Lacuna Crescente

Incidentes relacionados à IA estão aumentando, mas avaliações padronizadas de IA responsável (RAI) permanecem escassas entre os principais desenvolvedores de modelos industriais. Novos benchmarks como HELM Safety, AIR-Bench e FACTS oferecem ferramentas promissoras para avaliar a veracidade e a segurança. Uma lacuna significativa persiste entre o reconhecimento corporativo dos riscos de RAI e ações significativas. Os governos, no entanto, estão demonstrando maior urgência, com cooperação global intensificada em governança de IA em 2024, levando a estruturas da OCDE, UE, ONU e União Africana enfatizando transparência, confiabilidade e outros princípios centrais de RAI.

Previsões de Asimov sobre IA em 1982: Colaboração, não competição

2025-04-10
Previsões de Asimov sobre IA em 1982: Colaboração, não competição

Este artigo revisita uma entrevista de 1982 com o escritor de ficção científica Isaac Asimov, onde ele definiu inteligência artificial como qualquer dispositivo que executa tarefas previamente associadas exclusivamente à inteligência humana. Asimov via a IA e a inteligência humana como complementares, não competitivas, argumentando que sua colaboração levaria a um progresso mais rápido. Ele previu que a IA libertaria os humanos de trabalhos que não exigem pensamento criativo, mas também alertou para as possíveis dificuldades e desafios do avanço tecnológico, usando o advento dos automóveis como exemplo. Ele enfatizou a necessidade de se preparar para a era da IA e evitar repetir erros do passado.

Benchmark de Redação Criativa de Longo Formato para LLMs

2025-04-10

Este benchmark avalia a capacidade de modelos de linguagem grandes de criar narrativas de longo formato. Ele avalia brainstorming, revisão e a escrita de oito capítulos de 1000 palavras. As métricas incluem o comprimento do capítulo, fluência (evitando frases usadas em excesso), repetição e a degradação da qualidade da escrita ao longo dos capítulos. Uma pontuação final (0-100) é atribuída por um LLM de avaliação.

Quasar Alpha: A Arma Secreta da OpenAI?

2025-04-10
Quasar Alpha: A Arma Secreta da OpenAI?

Um misterioso modelo de IA chamado Quasar Alpha surgiu na plataforma OpenRouter, rapidamente se tornando o modelo de IA número um para programação. Fortes evidências sugerem uma conexão com a OpenAI, possivelmente sendo o modelo o4-mini-low da OpenAI sob um nome diferente. Embora não seja de última geração, sua velocidade e custo-benefício podem revolucionar o mercado de modelos de codificação de IA. Quasar Alpha agora está disponível no Kilo Code.

IA

Anthropic lança assinatura premium para chatbot de IA Claude Max

2025-04-09
Anthropic lança assinatura premium para chatbot de IA Claude Max

A Anthropic lançou um novo plano de assinatura premium para seu chatbot de IA, o Claude Max, para competir com o ChatGPT Pro da OpenAI. O Max oferece limites de uso mais altos e acesso prioritário a novos modelos e recursos de IA em comparação com o Claude Pro de US$ 20 por mês da Anthropic. Ele vem em dois níveis: US$ 100/mês (aumento de limite de taxa 5x) e US$ 200/mês (aumento de limite de taxa 20x). Essa medida visa aumentar a receita para o desenvolvimento custoso de modelos de IA de ponta. A Anthropic também está explorando outras fontes de receita, como o Claude for Education, voltado para universidades. Embora os números de assinaturas não sejam divulgados, o novo modelo Claude 3.7 Sonnet da empresa gerou grande demanda.

Robô de terapia de IA mostra promessa no combate à crise de saúde mental

2025-04-09
Robô de terapia de IA mostra promessa no combate à crise de saúde mental

Um novo estudo publicado no New England Journal of Medicine revela que um robô de terapia de IA, desenvolvido por pesquisadores de Dartmouth, demonstrou eficácia comparável ou até superior à de clínicos humanos em um ensaio clínico randomizado. Projetado para lidar com a grave escassez de profissionais de saúde mental nos EUA, o robô passou por mais de cinco anos de treinamento rigoroso em melhores práticas clínicas. Os resultados mostraram não apenas melhores resultados de saúde mental para os pacientes, mas também o desenvolvimento surpreendente de fortes laços terapêuticos e confiança. Embora a American Psychological Association tenha expressado preocupações sobre robôs de terapia de IA não regulamentados, eles elogiaram a abordagem rigorosa deste estudo. Os pesquisadores enfatizam que a tecnologia está longe de estar pronta para o mercado, exigindo mais testes, mas oferece uma solução potencial para a crise generalizada de acesso aos cuidados de saúde mental.

Google apresenta Ironwood: uma TPU de 7ª geração para a era da inferência

2025-04-09
Google apresenta Ironwood: uma TPU de 7ª geração para a era da inferência

No Google Cloud Next '25, o Google anunciou o Ironwood, sua sétima geração de Tensor Processing Unit (TPU). Esta é a mais poderosa e escalável unidade de aceleração de IA personalizada até hoje, projetada especificamente para inferência. O Ironwood representa uma mudança para uma era proativa de "inferência", onde os modelos de IA geram insights e respostas, não apenas dados. Escalando para até 9.216 chips resfriados a líquido interconectados por meio de uma inovadora rede ICI (quase 10 MW), o Ironwood é um componente-chave da arquitetura de hipercomputador de IA do Google Cloud. Os desenvolvedores podem aproveitar a pilha de software Pathways do Google para aproveitar facilmente o poder de dezenas de milhares de TPUs Ironwood.

IA

Agent2Agent (A2A): Uma Nova Era de Interoperabilidade de Agentes de IA

2025-04-09
Agent2Agent (A2A): Uma Nova Era de Interoperabilidade de Agentes de IA

O Google lança o Agent2Agent (A2A), um protocolo aberto que permite a colaboração perfeita entre agentes de IA construídos por diferentes fornecedores ou usando diferentes estruturas. Suportado por mais de 50 parceiros de tecnologia e fornecedores de serviços, o A2A permite a troca segura de informações e ações coordenadas, aumentando a produtividade e reduzindo custos. Construído com base em padrões existentes, o A2A suporta várias modalidades, prioriza a segurança e lida com tarefas de longa duração. Os casos de uso variam da automação de processos de contratação (por exemplo, seleção de candidatos e agendamento de entrevistas) à otimização de fluxos de trabalho complexos em vários aplicativos empresariais. Sua natureza de código aberto fomenta um ecossistema próspero de agentes de IA colaborativos.

DeepCoder-14B: Modelo de raciocínio de código de código aberto que compete com o o3-mini da OpenAI

2025-04-09
DeepCoder-14B: Modelo de raciocínio de código de código aberto que compete com o o3-mini da OpenAI

A Agentica e a Together AI lançaram o DeepCoder-14B-Preview, um modelo de raciocínio de código ajustado por meio de RL distribuído a partir do Deepseek-R1-Distilled-Qwen-14B. Alcançando uma impressionante precisão de 60,6% Pass@1 no LiveCodeBench, ele compete com o o3-mini da OpenAI, usando apenas 14B de parâmetros. O projeto disponibiliza em código aberto seu conjunto de dados, código, logs de treinamento e otimizações do sistema, mostrando uma receita de treinamento robusta construída em dados de alta qualidade e melhorias algorítmicas para GRPO. Esse avanço democratiza o acesso a modelos de geração de código de alto desempenho.

Pesquisa Profunda do Gemini 2.5 Pro Experimental: IA de Pesquisa Aprimorada

2025-04-09
Pesquisa Profunda do Gemini 2.5 Pro Experimental: IA de Pesquisa Aprimorada

Assinantes do Gemini Advanced agora podem usar a Pesquisa Profunda com o Gemini 2.5 Pro Experimental, considerado o modelo de IA mais capaz do mundo, segundo benchmarks da indústria e o Chatbot Arena. Este assistente de pesquisa pessoal com IA melhora significativamente cada etapa do processo de pesquisa. Em testes, os avaliadores preferiram os relatórios gerados pelo Gemini 2.5 Pro em comparação com concorrentes por uma margem superior a 2:1, citando melhorias no raciocínio analítico, síntese de informações e geração de relatórios perspicazes. Acesse relatórios detalhados e fáceis de ler sobre qualquer tópico na web, Android e iOS, economizando horas de trabalho. Além disso, experimente o novo recurso de Visão Geral de Áudio para ouvir em movimento. Saiba mais e experimente agora selecionando o Gemini 2.5 Pro (experimental) e escolhendo 'Pesquisa Profunda' na barra de prompt.

Cyc: O Projeto de IA de US$ 200 Milhões Que Nunca Deu Certo

2025-04-08
Cyc: O Projeto de IA de US$ 200 Milhões Que Nunca Deu Certo

Este ensaio detalha a história de 40 anos do Cyc, o ambicioso projeto de Douglas Lenat para construir inteligência artificial geral (IAG) escalonando a lógica simbólica. Apesar de um investimento de US$ 200 milhões e 2.000 anos-pessoa de esforço, o Cyc falhou em atingir a maturidade intelectual. O artigo revela sua história secreta, destacando o isolamento do projeto e a rejeição de abordagens alternativas de IA como fatores-chave que contribuíram para sua falha. O longo e lento declínio do Cyc serve como uma forte acusação contra a abordagem lógico-simbólica para a IAG.

Llama 4 do Meta: Classificação em segundo lugar e um lançamento confuso

2025-04-08
Llama 4 do Meta: Classificação em segundo lugar e um lançamento confuso

O Meta lançou dois novos modelos Llama 4: Scout e Maverick. O Maverick garantiu a segunda posição no LMArena, superando o GPT-4o e o Gemini 2.0 Flash. No entanto, o Meta admitiu que o LMArena testou uma versão de bate-papo experimental especialmente otimizada, e não a versão disponível publicamente. Isso gerou controvérsia, levando o LMArena a atualizar suas políticas para evitar incidentes semelhantes. O Meta explicou que estava experimentando diferentes versões, mas a medida levantou questões sobre sua estratégia na corrida da IA e o tempo incomum do lançamento do Llama 4. Em última análise, o incidente destaca as limitações dos benchmarks de IA e as estratégias complexas das grandes empresas de tecnologia na competição.

Vídeos de um Minuto a Partir de Storyboards de Texto Usando Transformadores com Treinamento em Tempo de Teste

2025-04-08

Modelos Transformer atuais têm dificuldades em gerar vídeos de um minuto devido à ineficiência das camadas de autoatenção para contextos longos. Este artigo explora camadas de Treinamento em Tempo de Teste (TTT), cujos estados ocultos são eles próprios redes neurais, oferecendo maior expressividade. Adicionar camadas TTT a um Transformer pré-treinado permite a geração de vídeos de um minuto a partir de storyboards de texto. Experimentos usando um conjunto de dados de desenhos animados do Tom e Jerry mostram que as camadas TTT melhoram significativamente a coerência do vídeo e a narrativa em comparação com modelos base como Mamba 2 e Gated DeltaNet, alcançando uma vantagem de 34 pontos Elo na avaliação humana. Embora ainda existam artefatos, provavelmente devido às limitações do modelo de 5B parâmetros, este trabalho demonstra uma abordagem promissora escalável para vídeos mais longos e narrativas mais complexas.

Geração de Imagens com IA Multimodal: Uma Revolução Visual Começa

2025-04-08
Geração de Imagens com IA Multimodal: Uma Revolução Visual Começa

O lançamento recente pelo Google e OpenAI de recursos de geração de imagens multimodais marca uma revolução na geração de imagens com IA. Diferentemente dos métodos anteriores que enviavam prompts de texto para ferramentas de geração de imagens separadas, os modelos multimodais controlam diretamente o processo de criação de imagens, construindo imagens token por token, assim como os LLMs geram texto. Isso permite que a IA gere imagens mais precisas e impressionantes, e itere com base no feedback do usuário. O artigo mostra as poderosas capacidades dos modelos multimodais por meio de vários exemplos, como a geração de infográficos, a modificação de detalhes de imagens e até mesmo a criação de anúncios de produtos virtuais. No entanto, também destaca os desafios, incluindo preocupações com direitos autorais e éticas, bem como o possível mau uso, como deepfakes. Em última análise, o autor acredita que a IA multimodal mudará profundamente o cenário da criação visual, e precisamos considerar cuidadosamente como orientar essa transformação para garantir seu desenvolvimento saudável.

Neuroplasticidade em tempo real: Dando a LLMs pré-treinadas aprendizagem em tempo real

2025-04-08
Neuroplasticidade em tempo real: Dando a LLMs pré-treinadas aprendizagem em tempo real

Esta técnica experimental, chamada de "Grafite Neural", usa um plug-in chamado "Camada de Pulverização" para injetar rastros de memória diretamente no estágio final de inferência de modelos de linguagem grandes pré-treinados (LLMs) sem ajuste fino ou recursão. Imitando a neuroplasticidade do cérebro, altera sutilmente o "pensamento" do modelo modificando embeddings vetoriais, influenciando suas previsões de tokens gerativos. Através da interação, o modelo aprende e evolui gradualmente. Embora não force saídas de palavras específicas, ele direciona o modelo para conceitos associados com interação repetida. O objetivo é dar aos modelos de IA um comportamento mais proativo, personalidade focada e curiosidade aprimorada, ajudando-os, em última análise, a alcançar uma forma de autoconsciência em nível de neurônio.

Hábitos de Escuta de Música de Fundo Diferem Entre Adultos Neurotípicos e Aqueles com Triagem Positiva para TDAH

2025-04-08

Uma pesquisa online com 910 adultos jovens (17 a 30 anos) comparou os hábitos de audição de música de fundo (BM) e os efeitos subjetivos entre indivíduos neurotípicos e aqueles que tiveram triagem positiva para TDAH em tarefas com demandas cognitivas variadas. O grupo com TDAH apresentou uma preferência significativamente maior por BM em situações específicas, como estudar e fazer exercícios, e uma preferência mais forte por música estimulante. No entanto, não foram encontradas diferenças significativas nos efeitos subjetivos da BM no funcionamento cognitivo e emocional entre os grupos. O estudo destaca a importância de ajustar o uso da BM com base nas necessidades de ativação individual e nos recursos cognitivos disponíveis, oferecendo uma nova perspectiva sobre intervenções musicais para TDAH.

LLMs atingem um limite: a falha do Llama 4 e o ciclo do hype da IA

2025-04-08
LLMs atingem um limite: a falha do Llama 4 e o ciclo do hype da IA

O lançamento do Llama 4 indica que os grandes modelos de linguagem podem ter atingido um teto de desempenho. O investimento maciço do Meta no Llama 4 falhou em produzir avanços esperados, com rumores sugerindo possível manipulação de dados para atingir metas. Isso reflete as dificuldades enfrentadas pela OpenAI, Google e outras empresas na busca por uma IA de nível GPT-5. A decepção da indústria com o desempenho do Llama 4 é generalizada, reforçada pela saída da vice-presidente de IA do Meta, Joelle Pineau. O artigo destaca problemas como vazamento e contaminação de dados na indústria de IA, acusando figuras proeminentes de previsões excessivamente otimistas, ignorando falhas do mundo real.

1 2 4 6 7 8 9 28 29