Category: IA

Limitações da Razão em LLMs: O Hype vs. a Realidade

2025-06-19

Um artigo recente da Apple Research destaca o colapso de precisão e as limitações de escala dos Grandes Modelos de Linguagem (LLMs) ao lidar com problemas complexos de raciocínio. Isso gerou um debate, com alguns argumentando que o artigo superestima as limitações dos LLMs, enquanto outros o veem como confirmando obstáculos significativos no caminho para a Inteligência Artificial Geral (AGI). O autor argumenta que, embora os LLMs tenham desvantagens, sua utilidade atual é mais importante do que seu potencial de AGI. O foco deve estar em suas aplicações práticas hoje, independentemente de sua capacidade de resolver quebra-cabeças complexos como a Torre de Hanói.

IA

TrendFi: Investimentos com IA que facilitam o Crypto

2025-06-19
TrendFi: Investimentos com IA que facilitam o Crypto

Profissionais ocupados e investidores iniciantes adoram o TrendFi! Essa ferramenta de investimento impulsionada por IA fornece sinais confiáveis para prever tendências de mercado, reduzindo o estresse do investimento. Os usuários elogiam sua facilidade de uso e sua capacidade de melhorar o sucesso de suas negociações de criptomoedas, especialmente em altcoins. Ao contrário de outros serviços, o TrendFi constrói confiança ao mostrar as negociações e o desempenho passados da IA.

Estudo do MIT: Chatbots de IA reduzem a atividade cerebral e prejudicam a retenção de fatos

2025-06-19
Estudo do MIT: Chatbots de IA reduzem a atividade cerebral e prejudicam a retenção de fatos

Um novo estudo pré-impresso do MIT revela que o uso de chatbots de IA para concluir tarefas reduz a atividade cerebral e pode levar a uma pior retenção de fatos. Os pesquisadores fizeram três grupos de alunos escreverem ensaios: um sem assistência, um usando um mecanismo de busca e um usando o GPT-4. O grupo LLM mostrou a atividade cerebral mais fraca e a pior retenção de conhecimento, tendo um desempenho ruim em testes subsequentes. O estudo sugere que a dependência precoce da IA ​​pode levar a uma codificação superficial e prejudicar a aprendizagem, recomendando atrasar a integração da IA ​​até que seja realizado um esforço cognitivo automotivado suficiente.

Nem todo sistema de IA precisa ser um agente

2025-06-19
Nem todo sistema de IA precisa ser um agente

Este artigo explora os avanços recentes em Modelos de Linguagem Grandes (LLMs) e compara diferentes arquiteturas de sistemas de IA, incluindo LLMs puros, sistemas baseados em Geração Aumentada por Recuperação (RAG), uso de ferramentas e fluxos de trabalho de IA e agentes de IA. Usando um aplicativo de triagem de currículos como exemplo, ele ilustra as capacidades e complexidades de cada arquitetura. O autor argumenta que nem todos os aplicativos exigem um agente de IA; a arquitetura certa deve ser escolhida com base nas necessidades. A publicação enfatiza a importância da construção de sistemas de IA confiáveis, recomendando começar com padrões simples e compostos e adicionar complexidade incrementalmente, priorizando a confiabilidade em relação à capacidade bruta.

Protocolo MCP de código aberto: Integração perfeita de LLMs com dados externos e ferramentas

2025-06-19

O Model Context Protocol (MCP) é um protocolo aberto que permite a integração perfeita entre aplicativos LLM e fontes de dados externas e ferramentas. Seja construindo um IDE alimentado por IA, aprimorando uma interface de bate-papo ou criando fluxos de trabalho de IA personalizados, o MCP fornece uma maneira padronizada de conectar LLMs com o contexto de que precisam. Com base em um esquema TypeScript e usando mensagens JSON-RPC 2.0, o MCP possui recursos, prompts e ferramentas. De forma crucial, o MCP enfatiza o consentimento e o controle do usuário, a privacidade de dados e a segurança das ferramentas.

IA

Software 3.0: A Ascensão dos LLMs e o Futuro da Programação

2025-06-18

A palestra de Andrej Karpathy no YC descreve a evolução do software: do Software 1.0 (código escrito manualmente) para o Software 2.0 (treinamento de redes neurais) e, finalmente, o Software 3.0 (Modelos de Linguagem Grandes ou LLMs programáveis). Ele compara os LLMs a um novo tipo de computador, com janelas de contexto atuando como memória, programados usando linguagem natural. Embora os LLMs ofereçam um vasto potencial em diversas aplicações, permanecem desafios, incluindo alucinações, déficits cognitivos e riscos de segurança. Karpathy destaca a importância de construir aplicativos parcialmente autônomos, aproveitando efetivamente os superpoderes dos LLMs enquanto mitigam suas fraquezas sob supervisão humana. O futuro prevê os LLMs como um novo sistema operacional, revolucionando o desenvolvimento de software, democratizando a programação e gerando uma onda de inovação impulsionada por LLMs.

IA

A Sociedade da Mente de Minsky: Da teoria à prática na revolução da IA de 2025

2025-06-18
A Sociedade da Mente de Minsky: Da teoria à prática na revolução da IA de 2025

Este artigo explora o ressurgimento da teoria de Marvin Minsky, 'Sociedade da Mente', na paisagem atual da IA. O autor relata sua jornada pessoal, do ceticismo inicial à apreciação atual de sua relevância em grandes modelos de linguagem e sistemas multiagentes. Argumenta-se que, à medida que as limitações dos modelos monolíticos se tornam evidentes, abordagens modulares e multiagentes são essenciais para construir IAs mais robustas, escaláveis e seguras. Por meio de exemplos como modelos Mixture-of-Experts, HuggingGPT e AutoGen, o autor mostra como as arquiteturas multiagentes permitem modularidade, introspecção e alinhamento, apontando, em última análise, para sistemas de IA mais humanóides e confiáveis.

Laboratório de Trading Quantitativo Impulsionado por IA: Conectando Teoria e Prática

2025-06-18
Laboratório de Trading Quantitativo Impulsionado por IA: Conectando Teoria e Prática

Um laboratório de pesquisa está construindo um sistema de trading quantitativo impulsionado por IA, aproveitando o ambiente complexo e rico em dados dos mercados financeiros. Usando princípios primeiros, eles projetam sistemas que aprendem, se adaptam e melhoram por meio de dados, com infraestrutura construída para iteração rápida, feedback em tempo real e um link direto entre teoria e execução. Inicialmente focando em mercados líquidos como ações e opções, seu objetivo transcende uma melhor modelagem; eles buscam uma plataforma para experimentação onde cada resultado refina o ciclo teoria-prática.

Desafiando a IA com Teoria dos Números: Uma Verificação de Realidade

2025-06-18
Desafiando a IA com Teoria dos Números: Uma Verificação de Realidade

Um matemático questiona as verdadeiras capacidades da IA atual em matemática, argumentando que os modelos de IA existentes estão simplesmente repetindo, e não entendendo verdadeiramente a matemática. Para testar essa hipótese, ele está iniciando um experimento: criar um banco de dados de problemas avançados de teoria dos números e convidar empresas de IA a resolvê-los usando seus modelos. As respostas são restritas a inteiros não negativos, projetados para avaliar se a IA possui raciocínio matemático genuíno ou simplesmente se baseia em correspondência de padrões e dados da internet. Este experimento visa diferenciar entre 'compreensão' e 'imitação' da IA, impulsionando uma avaliação mais profunda das habilidades matemáticas da IA.

IA

Capacidades de IA dobram a cada 7 meses: Um avanço impressionante

2025-06-18
Capacidades de IA dobram a cada 7 meses: Um avanço impressionante

Um estudo inovador revela o ritmo espantoso de melhoria em modelos de linguagem grandes (LLMs). Ao medir as taxas de sucesso do modelo em tarefas de diferentes comprimentos, os pesquisadores descobriram que o comprimento da tarefa em que os modelos alcançam uma taxa de sucesso de 50% dobra a cada 7 meses. Esse crescimento exponencial na capacidade da IA ​​de lidar com tarefas complexas sugere um futuro em que a IA enfrenta desafios antes inimagináveis. Embora o estudo tenha limitações, como a representatividade do conjunto de tarefas, ele oferece uma nova perspectiva para entender o progresso da IA ​​e prever tendências futuras.

Desvendando o Teorema do Bom Regulador de Conant e Ashby

2025-06-18
Desvendando o Teorema do Bom Regulador de Conant e Ashby

Esta publicação oferece uma explicação clara e acessível do Teorema do Bom Regulador de Conant e Ashby de 1970, que afirma que todo bom regulador de um sistema deve ser um modelo desse sistema. O autor aborda o contexto e as controvérsias do teorema, e então usa redes bayesianas e linguagem intuitiva para explicar a prova matemática. Exemplos do mundo real ilustram os conceitos, esclarecendo equívocos em torno do termo 'modelo'.

O Custo Cognitivo dos LLMs: Um Estudo sobre Redação de Ensaios

2025-06-18

Um estudo investigando o custo cognitivo do uso de Modelos de Linguagem Ampla (LLMs) na redação de ensaios revela potenciais impactos negativos na aprendizagem. Os participantes foram divididos em três grupos: LLM, mecanismo de busca e apenas cérebro. Dados de EEG mostraram que o grupo LLM exibiu conectividade neural mais fraca, menor engajamento e desempenho inferior em termos de posse de ensaio e recuperação, obtendo pontuações inferiores ao grupo apenas cérebro. As descobertas destacam os potenciais aspectos negativos do uso de LLM na educação e pedem mais pesquisas para entender as implicações mais amplas da IA ​​em ambientes de aprendizagem.

IA

MiniMax-M1: Modelo de raciocínio de atenção híbrida em larga escala com 456 bilhões de parâmetros

2025-06-18
MiniMax-M1: Modelo de raciocínio de atenção híbrida em larga escala com 456 bilhões de parâmetros

O MiniMax-M1 é um modelo de raciocínio de atenção híbrida em larga escala e peso aberto, com 456 bilhões de parâmetros. Ele é alimentado por uma arquitetura híbrida de Mixture-of-Experts (MoE) combinada com um mecanismo de atenção rápida. O modelo foi treinado usando aprendizado por reforço em larga escala e supera outros modelos líderes, como DeepSeek R1 e Qwen3-235B, em tarefas complexas, especialmente em engenharia de software e compreensão de contexto longo. Sua computação eficiente em tempo de teste o torna uma base sólida para agentes de modelos de linguagem de próxima geração.

ChatGPT na Educação: Uma Espada de Dois Gumes

2025-06-18
ChatGPT na Educação: Uma Espada de Dois Gumes

Estudos recentes exploram o uso do ChatGPT e outros modelos de linguagem extensos na educação. Embora algumas pesquisas sugiram que o ChatGPT pode auxiliar eficazmente os alunos na aprendizagem de programação e outras habilidades, aumentando a eficiência da aprendizagem, outros estudos destacam o risco de superdependência, levando à dependência, à redução da aprendizagem independente e até mesmo ao comprometimento do pensamento crítico. Preocupações éticas, como possíveis fraudes e violação de direitos autorais, também são importantes. O equilíbrio entre os benefícios e os riscos do ChatGPT é um desafio crucial para os educadores.

IA

Foundry: Permitindo que agentes de IA dominem navegadores web

2025-06-17
Foundry: Permitindo que agentes de IA dominem navegadores web

A Foundry, uma startup sediada em São Francisco, está construindo uma infraestrutura que permite que agentes de IA usem navegadores web como humanos. Eles estão enfrentando as limitações atuais de agentes de IA interagindo com aplicativos empresariais (como Salesforce e SAP), como travamentos frequentes e depuração manual extensa. A Foundry emprega uma estratégia semelhante à da Waymo e Scale AI, construindo uma infraestrutura robusta para melhorias rápidas de desempenho em agentes de IA, com o objetivo de tornar a automação baseada em IA mais confiável e prática. Eles estão ativamente recrutando engenheiros de elite apaixonados por entregar tecnologia fundamental rapidamente.

IA

Fragmentação em Tempo Real para Modelos de Ação-Linguagem-Visão

2025-06-17

Este artigo apresenta o Real-Time Chunking (RTC), um algoritmo que aborda o desafio da execução em tempo real de modelos de Ação-Linguagem-Visão (VLA) em robótica. VLAs tradicionais são lentos e propensos a descontinuidades ao mudar entre blocos de ação, levando a um comportamento instável do robô. O RTC resolve isso dividindo as ações em blocos e gerando o próximo bloco enquanto executa o anterior, alcançando desempenho em tempo real e eliminando descontinuidades. Experimentos demonstram que o RTC melhora significativamente a velocidade e a precisão de execução, mantendo um desempenho robusto mesmo sob alta latência. Esta pesquisa prepara o caminho para a construção de robôs capazes de lidar com tarefas complexas em tempo real.

Construindo Agentes LLM eficazes: Comece Simples

2025-06-17
Construindo Agentes LLM eficazes: Comece Simples

A Anthropic compartilha seus aprendizados sobre a construção de agentes de modelos de linguagem grandes (LLM) em várias indústrias. Eles enfatizam a importância de padrões simples e compostáveis ​​em vez de frameworks complexos. A postagem define agentes, diferenciando entre fluxos de trabalho predefinidos e agentes controlados dinamicamente. Ela detalha vários padrões de construção, incluindo encadeamento de prompts, roteamento, paralelização, coordenador-trabalhadores e avaliador-otimizador. Ela defende começar com o uso direto da API LLM, aumentando gradualmente a complexidade e destaca a importância da engenharia de ferramentas e a manutenção da simplicidade e transparência na produção.

IA

Previsão de Séries Temporais com Redes Neurais de Grafos: Além dos Métodos Tradicionais

2025-06-17
Previsão de Séries Temporais com Redes Neurais de Grafos: Além dos Métodos Tradicionais

Esta postagem de blog apresenta uma nova abordagem para previsão de séries temporais usando redes neurais de grafos. Ao contrário dos métodos tradicionais que se concentram apenas em séries temporais individuais, esta abordagem utiliza a interconexão dos dados em uma estrutura de grafo (por exemplo, de um banco de dados relacional). Ao representar séries temporais como nós em um grafo e empregando técnicas como transformadores de grafos, o modelo captura relacionamentos entre diferentes séries, levando a previsões mais precisas. A postagem também compara métodos de previsão baseados em regressão e métodos generativos, demonstrando a capacidade superior da abordagem generativa de capturar detalhes de alta frequência e lidar com eventos raros.

Google Gemini 2.5: Mais rápido, mais barato e mais poderoso

2025-06-17
Google Gemini 2.5: Mais rápido, mais barato e mais poderoso

O Google anuncia a disponibilidade geral de seus modelos Gemini 2.5 Pro e Flash, juntamente com uma versão de pré-visualização do Gemini 2.5 Flash-Lite, ainda mais econômico e rápido. Esses modelos alcançam um equilíbrio ideal de custo e velocidade, superando seus predecessores em vários benchmarks, incluindo codificação, matemática, ciência, raciocínio e tarefas multimodais. O Flash-Lite se destaca especialmente em aplicações de alto volume e baixa latência, como tradução e classificação. A família Gemini 2.5 possui recursos como orçamentos de raciocínio ajustáveis, integração com ferramentas como Pesquisa Google e execução de código, entrada multimodal e uma janela de contexto massiva de 1 milhão de tokens.

IA

o3-pro da OpenAI: ChatGPT Pro mais poderoso, mas muito mais lento

2025-06-17
o3-pro da OpenAI: ChatGPT Pro mais poderoso, mas muito mais lento

A OpenAI lançou o o3-pro, uma versão mais poderosa do ChatGPT Pro, mostrando melhorias em várias áreas, incluindo ciência, educação e programação. No entanto, esse desempenho aprimorado tem o custo de tempos de resposta significativamente mais lentos. Muitos usuários relatam uma melhor qualidade de resposta em comparação ao o3, mas os longos tempos de espera (mais de 15 minutos) interrompem os fluxos de trabalho. Testes mostram redução de alucinações em alguns casos, mas não um desempenho superior consistente ao o3 em todos os benchmarks. Embora o o3-pro se destaque na resolução de problemas complexos, seu alto custo e velocidade lenta o tornam uma oferta de nicho, em vez de um modelo para uso diário. Muitos usuários sugerem reservar o o3-pro para cenários em que o o3 ou outros modelos, como Opus e Gemini, falham, tornando-o uma ferramenta de 'escala' valiosa para consultas particularmente desafiadoras.

IA

Claude Code: A iteração como mágica, uma nova era para IA?

2025-06-17

O Claude Code não aprimora a inteligência do modelo LLM subjacente, mas sim melhora a experiência do usuário por meio de tentativas iterativas. É como a descrição de Steve Jobs de instruções simples executadas em velocidade incrível, resultando em resultados aparentemente mágicos. O autor ilustra isso atualizando dependências de projetos, uma tarefa que o Claude Code automatizou em 30-40 minutos por meio de dezenas de iterações. O autor especula que, com computação paralela em massa, isso poderia ser reduzido a um minuto, potencialmente revolucionando a interação com LLM e abrindo novas possibilidades para tarefas automatizadas.

IA

ChatGPT e Redação de Ensaios: Acúmulo de Dívida Cognitiva

2025-06-17
ChatGPT e Redação de Ensaios: Acúmulo de Dívida Cognitiva

Este estudo investigou o custo cognitivo do uso de LLMs como o ChatGPT para redação de ensaios. Os participantes foram divididos em três grupos: LLM, mecanismo de busca e apenas cérebro. Os resultados mostraram que a dependência excessiva de LLMs enfraquece a conectividade cerebral, reduz as habilidades cognitivas e prejudica a memória e o sentimento de propriedade. A longo prazo, o grupo LLM teve desempenho inferior ao grupo apenas cérebro em atividade neural, capacidade linguística e pontuações, sugerindo que a dependência excessiva de ferramentas de IA pode prejudicar a aprendizagem.

Conectores Multimodais de IA: Um Déjà Vu da Web 2.0?

2025-06-17
Conectores Multimodais de IA: Um Déjà Vu da Web 2.0?

A expectativa em torno dos Conectores Multimodais (MCPs) lembra a história da Web 2.0. A visão inicial – LLMs acessando perfeitamente todos os dados e aplicativos – reflete a promessa inicial de serviços interconectados. No entanto, as APIs abertas da Web 2.0 acabaram evoluindo para sistemas controlados, dominados por poucos vencedores. Da mesma forma, embora os MCPs prometam acesso aberto, grandes plataformas podem restringir o acesso para evitar a concorrência. Isso sugere que os MCPs podem se tornar ferramentas controladas, não um ecossistema verdadeiramente aberto.

Autismo e Personificação de Objetos: Uma Correlação Intrigante

2025-06-16
Autismo e Personificação de Objetos: Uma Correlação Intrigante

Uma pesquisa online com 87 adultos autistas e 263 adultos não autistas revela uma tendência prevalente à personificação de objetos entre indivíduos autistas. Isso contrasta com a dificuldade comum que pessoas autistas enfrentam em identificar suas próprias emoções, levantando questões sobre os mecanismos subjacentes. O estudo sugere que a personificação de objetos pode ser mais frequente e ocorrer mais tarde na vida entre indivíduos autistas. Dado que muitos relatam essas experiências como angustiantes, mais pesquisas sobre as causas e o desenvolvimento de estruturas de suporte são cruciais.

Agentes de IA baseados em LLM falham em testes de CRM

2025-06-16
Agentes de IA baseados em LLM falham em testes de CRM

Um novo benchmark revela que agentes de IA baseados em modelos de linguagem grandes (LLMs) têm um desempenho abaixo do esperado em testes de CRM padrão, especialmente no que diz respeito à confidencialidade. Uma pesquisa da Salesforce mostra uma taxa de sucesso de 58% para tarefas de uma única etapa, caindo para 35% para tarefas de várias etapas. Criticamente, esses agentes demonstram pouca conscientização sobre informações confidenciais, afetando negativamente o desempenho. O estudo destaca as limitações nos benchmarks existentes e revela uma lacuna significativa entre as capacidades atuais de LLM e as necessidades de empresas do mundo real, gerando preocupações para desenvolvedores e empresas que dependem de agentes de IA para ganhos de eficiência.

IA

Apple Revela os Limites do Raciocínio de Modelos de Linguagem Grandes

2025-06-16
Apple Revela os Limites do Raciocínio de Modelos de Linguagem Grandes

O novo artigo da Apple, "A Ilusão do Pensamento", questiona as suposições sobre Modelos de Linguagem Grandes (LLMs). Através de experimentos controlados, ele revela um limite crítico em que até mesmo os LLMs de ponta falham completamente em problemas complexos. O desempenho não diminui gradualmente; ele entra em colapso. Os modelos param de tentar, mesmo com recursos suficientes, exibindo uma falha de comportamento em vez de falta de capacidade. Preocupantemente, mesmo quando completamente errados, os resultados dos modelos parecem razoáveis, tornando a detecção de erros difícil. A pesquisa destaca a necessidade de sistemas verdadeiramente racionais e uma compreensão mais clara das limitações dos modelos atuais.

IA

Documento da Apple lança dúvidas sobre LLMs: Modelos de raciocínio amplos são fundamentalmente limitados?

2025-06-16

Um artigo recente da Apple afirma que os Modelos de Raciocínio Amplos (LRMs) têm limitações em cálculos exatos, falhando em utilizar algoritmos explícitos e raciocinando de forma inconsistente em quebra-cabeças. Isso é considerado um golpe significativo na busca atual pelo uso de LLMs e LRMs como base para AGI. Um artigo de refutação no arXiv tenta contrariar as descobertas da Apple, mas é falho. Contém erros matemáticos, confunde execução mecânica com complexidade de raciocínio e seus próprios dados contradizem suas conclusões. Criticamente, a refutação ignora a descoberta chave da Apple de que os modelos reduzem sistematicamente o esforço computacional em problemas mais difíceis, sugerindo limitações de dimensionamento fundamentais nas arquiteturas atuais de LRM.

Nanonets-OCR-s: Além da OCR Tradicional com Processamento Inteligente de Documentos

2025-06-16
Nanonets-OCR-s: Além da OCR Tradicional com Processamento Inteligente de Documentos

Nanonets-OCR-s é um modelo OCR de ponta, de imagem para Markdown, que supera a extração de texto tradicional. Ele transforma documentos em Markdown estruturado com reconhecimento inteligente de conteúdo e marcação semântica, ideal para processamento posterior por Modelos de Linguagem Grandes (LLMs). Recursos-chave incluem reconhecimento de equações LaTeX, descrição inteligente de imagens, detecção de assinatura, extração de marca d'água, tratamento inteligente de caixas de seleção e extração de tabelas complexas. O modelo pode ser usado por meio de transformers, vLLM ou docext.

IA

Alucinações de IA: Tecnologia ou Mente?

2025-06-16
Alucinações de IA: Tecnologia ou Mente?

A etnografa da internet Katherine Dee investiga como a IA, especificamente o ChatGPT, parece amplificar o pensamento delirante. O artigo argumenta que tais incidentes não são exclusivos da IA, mas sim uma resposta cultural recorrente a novas tecnologias de comunicação. Do código Morse à televisão, à internet e ao TikTok, os humanos consistentemente ligam novas tecnologias ao paranormal, buscando significado em realidades individualizadas habilitadas tecnologicamente. A autora postula que o ChatGPT não é o principal culpado, mas sim atende a uma crença secular – que a consciência pode remodelar a realidade através da vontade e da palavra – uma crença intensificada pela internet e tornada mais tangível pela IA.

IA

ChemBench: Um Benchmark para LLMs em Química

2025-06-16
ChemBench: Um Benchmark para LLMs em Química

ChemBench é um novo conjunto de dados de benchmark projetado para avaliar o desempenho de modelos de linguagem grandes (LLMs) em química. Ele apresenta uma variedade de perguntas de química abrangendo vários subcampos, categorizados por dificuldade. Os resultados mostram que os principais LLMs superam os especialistas humanos em geral, mas as limitações permanecem em questões intensivas em conhecimento e raciocínio químico. O ChemBench visa avançar os LLMs químicos e fornecer ferramentas para uma avaliação de modelos mais robusta.

1 2 7 8 9 11 13 14 15 49 50