Category: IA

Ajustando Finamente o GPT-2 para Geração de Sentimento Positivo usando RLHF

2025-07-06
Ajustando Finamente o GPT-2 para Geração de Sentimento Positivo usando RLHF

Este projeto fornece uma implementação de referência para o ajuste fino de um modelo GPT-2 pré-treinado para gerar frases que expressam sentimento positivo usando Aprendizado por Reforço a partir de Feedback Humano (RLHF). O processo envolve três etapas: 1. Ajuste Fino Supervisionado (SFT): Ajuste fino do GPT-2 no conjunto de dados stanfordnlp/sst2; 2. Treinamento do Modelo de Recompensa: Treinamento de um modelo GPT-2 com uma cabeça de recompensa para prever o sentimento; 3. Aprendizado por Reforço via Proximal Policy Optimization (PPO): Otimização do modelo SFT para gerar frases que o modelo de recompensa avalia positivamente. Essas três etapas são implementadas em três notebooks Jupyter, permitindo uma abordagem passo a passo. Um token de acesso Hugging Face é necessário para baixar o modelo GPT-2 pré-treinado.

IA Generativa Abana a Educação em Ciência da Computação

2025-07-06
IA Generativa Abana a Educação em Ciência da Computação

O surgimento da IA generativa está forçando uma reformulação da educação em ciência da computação. Ferramentas como o ChatGPT agora podem executar algumas tarefas de codificação, desafiando as universidades a adaptarem seus currículos. Algumas estão diminuindo a ênfase em linguagens de programação em favor do pensamento computacional e da alfabetização em IA, concentrando-se em pensamento crítico e habilidades de comunicação. O mercado de trabalho de tecnologia está se apertando, com menos vagas de nível inicial disponíveis devido à automação da IA. O futuro da educação em ciência da computação pode envolver uma maior ênfase no pensamento computacional, alfabetização em IA e abordagens interdisciplinares para atender às demandas da era da IA.

IA

Bytebot: Uma Abordagem Revolucionária para Dar 'Mãos' a Agentes de IA

2025-07-06
Bytebot: Uma Abordagem Revolucionária para Dar 'Mãos' a Agentes de IA

O projeto Bytebot rejeita a integração tradicional de APIs, dando aos agentes de IA o controle de um teclado, mouse e tela, permitindo que operem como trabalhadores humanos remotos. Essa abordagem é mais simples, robusta, generalizável e à prova de futuro, resolvendo os problemas enfrentados pelos agentes de IA atuais ao lidar com softwares complexos e sem APIs e fluxos de trabalho. Essa abordagem de 'interação humano-computador' permite que o Bytebot se adapte a qualquer aplicativo e sistema operacional sem integrações complexas, economizando tempo e custos para as empresas e melhorando automaticamente a eficiência à medida que os modelos melhoram.

IA

Além de Chamadas LLMs em Cadeia: Roteamento Diferenciável para LLMs Eficientes

2025-07-06
Além de Chamadas LLMs em Cadeia: Roteamento Diferenciável para LLMs Eficientes

Arquiteturas modernas de agentes de modelos de linguagem grandes (LLMs) dependem muito da ligação em cadeia de chamadas de LLMs, resultando em altos custos, latência e baixa escalabilidade. Este artigo introduz um roteador diferenciável que modela a seleção de ferramentas como uma função treinável, em vez de depender de LLMs. Essa abordagem aprende a seleção de ferramentas a partir de dados por meio de aprendizado por reforço ou ajuste fino supervisionado, funcionando fora do LLM. Ela evita chamadas de API externas, melhora o determinismo e a composição e reduz os custos. Experimentos mostram que esse método reduz significativamente os custos, melhora o desempenho e esclarece o comportamento do modelo, marcando um passo em direção a sistemas LLM que se parecem menos com cadeias de prompts e mais com programas.

Redes Neurais Grandes Podem Resolver a Robótica? Perspectivas da CoRL 2023

2025-07-05

Na CoRL 2023, um debate central surgiu: o treinamento de grandes redes neurais em conjuntos de dados massivos pode resolver a robótica? Os proponentes argumentaram que o sucesso de grandes modelos em visão computacional e PNL sugere que essa abordagem é promissora, citando resultados iniciais dos modelos RT-X e RT-2 do Google DeepMind como exemplos. Eles acreditam que os avanços contínuos em dados e poder computacional impulsionam essa direção. No entanto, os críticos apontaram a escassez atual de dados de robótica, a imensa variabilidade entre as formas de robôs e ambientes e o custo proibitivo de coleta de conjuntos de dados em larga escala. Além disso, mesmo alcançando alta precisão, atingir a confiabilidade de 99,X% necessária para implantação prática ainda enfrenta um grande desafio. Alguns sugeriram combinar métodos clássicos de controle com aprendizado, enquanto outros pediram abordagens totalmente novas. Em última análise, a CoRL 2023 destacou as oportunidades e os desafios na robótica, oferecendo insights valiosos para pesquisas futuras.

Capacidades de LLMs dobrando a cada sete meses: Uma previsão para 2030

2025-07-05
Capacidades de LLMs dobrando a cada sete meses: Uma previsão para 2030

Uma nova pesquisa revela uma taxa de progresso surpreendente em modelos de linguagem grandes (LLMs). Sua capacidade de concluir tarefas complexas está dobrando aproximadamente a cada sete meses, de acordo com uma métrica chamada "horizonte de tempo de conclusão de tarefa". Essa métrica compara o tempo que um LLM leva para concluir uma tarefa com o tempo que um humano levaria. O estudo projeta que, até 2030, os LLMs mais avançados poderão concluir, com 50% de confiabilidade, uma tarefa de software equivalente a um mês de trabalho humano (40 horas/semana). Isso levanta preocupações e entusiasmo significativos sobre os benefícios e riscos potenciais dos LLMs, reconhecendo que hardware e robótica podem potencialmente limitar o ritmo do progresso.

IA

Os Sete Pecados Capitais da Indústria de IA: Falsas Promessas de AGI e os Perigos do Hack de Atenção

2025-07-05
Os Sete Pecados Capitais da Indústria de IA: Falsas Promessas de AGI e os Perigos do Hack de Atenção

Este artigo examina criticamente o estado atual da indústria de IA, destacando sete problemas principais: exagerar a proximidade da AGI, priorizar o engajamento em vez da utilidade, alucinações persistentes e não resolvidas em LLMs, oscilação entre sensacionalismo e utopias em relação aos riscos da IA, falta de um caminho confiável para a lucratividade, tendências quase monopolísticas no campo da IA e a supervalorização dos agentes de IA. O autor argumenta que essas questões decorrem da busca da indústria por ganhos de curto prazo, falta de autorreflexão e desconsideração pela responsabilidade no mundo real, levando em última análise a uma possível má direção do desenvolvimento da IA e consequências sociais negativas.

IA

Empresa alemã TNG lança DeepSeek-TNG R1T2 Chimera: um LLM de código aberto mais rápido e eficiente

2025-07-05
Empresa alemã TNG lança DeepSeek-TNG R1T2 Chimera: um LLM de código aberto mais rápido e eficiente

A TNG Technology Consulting GmbH, empresa alemã, lançou o DeepSeek-TNG R1T2 Chimera, um novo modelo de linguagem grande (LLM) baseado no DeepSeek-R1-0528 de código aberto. Usando seu método inovador de Assembly-of-Experts (AoE), o R1T2 apresenta melhorias significativas em velocidade e eficiência, atingindo mais de 200% de inferência mais rápida que o R1-0528, mantendo mais de 90% de suas capacidades de raciocínio. As saídas concisas do modelo resultam em custos computacionais mais baixos. Lançado sob a licença MIT permissiva e disponível no Hugging Face, o R1T2 oferece uma solução de IA econômica e eficiente para empresas e pesquisadores.

IA

Treinamento N-Back: Uma Arma Secreta para Impulsionar a Inteligência Fluida?

2025-07-05

Décadas de pesquisa em neurociência cognitiva comprovam a eficácia do teste N-Back. Jaeggi et al. (2008) publicaram uma pesquisa inovadora na PNAS mostrando que o treinamento dual N-Back melhora significativamente a inteligência fluida, com 19 dias de treinamento levando a pontuações melhores em testes de inteligência. Um estudo em larga escala de Owen et al. (2010) com mais de 11.000 participantes confirmou que o treinamento de memória de trabalho leva a melhorias específicas da tarefa e alguma transferência para habilidades cognitivas relacionadas. Klingberg (2010) demonstrou que o treinamento de memória de trabalho, incluindo exercícios N-Back, produz mudanças mensuráveis na atividade cerebral e pode ser particularmente benéfico para indivíduos com TDAH.

Alugue um Cérebro: O Primeiro Computador Híbrido Comercial de Silício e Células Cerebrais Humanas

2025-07-04
Alugue um Cérebro: O Primeiro Computador Híbrido Comercial de Silício e Células Cerebrais Humanas

A Cortical Labs, uma startup australiana de biotecnologia, em colaboração com a empresa britânica bit.bio, lançou o CL1, o primeiro computador híbrido comercial do mundo que combina circuitos de silício e células cerebrais humanas. Este sistema inovador, construído a partir de 800.000 neurônios cultivados em um chip de silício, possui um consumo de energia incrivelmente baixo, superando significativamente a IA comparável em termos de eficiência. O CL1 demonstrou desempenho superior em testes de jogos em comparação com algoritmos de aprendizado de máquina e oferece potenciais aplicações em testes de medicamentos. As unidades estão disponíveis por US$ 35.000, ou o acesso remoto pode ser alugado por US$ 300 por semana.

IA

Pesquisa de Uso de Produtos de IA do Google Incorporada Várias Vezes

2025-07-04
Pesquisa de Uso de Produtos de IA do Google Incorporada Várias Vezes

Uma postagem de blog contém várias instâncias incorporadas da mesma pesquisa de uso de produtos de IA do Google. A pesquisa visa entender com que frequência os usuários utilizam ferramentas de IA do Google, como Gemini e NotebookLM, e também coleta feedback sobre melhorias no artigo. A pesquisa inclui uma pergunta sobre a frequência de uso (diariamente, semanalmente, mensalmente, quase nunca, não tenho certeza) e uma pergunta aberta pedindo sugestões para melhorar o artigo (torná-lo mais conciso, adicionar mais detalhes, torná-lo mais fácil de entender, incluir mais imagens ou vídeos, está bom como está).

Estratégias de Engenharia de Contexto para Agentes de Modelos de Linguagem Grandes

2025-07-04

Com o aumento da utilização de agentes de modelos de linguagem grandes (LLM), a engenharia de contexto surge como um aspecto crucial na construção de agentes eficientes. Este artigo resume quatro estratégias principais de engenharia de contexto: escrita (salvando o contexto fora da janela de contexto, como o uso de blocos de notas ou memórias), seleção (escolha de contexto relevante do armazenamento externo), compressão (resumo ou redução do contexto) e isolamento (divisão do contexto em vários agentes ou ambientes). Essas estratégias visam abordar as limitações das janelas de contexto LLM, melhorar o desempenho do agente e reduzir custos. O artigo usa exemplos de empresas como Anthropic e Cognition para detalhar os métodos e desafios específicos de cada estratégia, incluindo seleção de memória, resumo de contexto e coordenação multiagente.

IA

Inferência de IA de borda: Uma imersão profunda do software para a aceleração de hardware

2025-07-04
Inferência de IA de borda: Uma imersão profunda do software para a aceleração de hardware

Este artigo mergulha nos desafios e oportunidades de executar inferência de IA em microcontroladores com recursos limitados. Começando com a mecânica do TensorFlow Lite Micro, o autor analisa a implementação de software e os esquemas de aceleração de hardware baseados em extensões de arquitetura ARM para o operador de adição. O artigo também abrange o uso da NPU Arm Ethos-U para aceleração de modelos. Ele revela como diferentes arquiteturas de hardware impactam o desempenho da inferência de IA e como as otimizações de software e hardware podem ser combinadas para melhorar a eficiência.

O Tamanho Cada Vez Maior dos Modelos de Linguagem Grandes

2025-07-02
O Tamanho Cada Vez Maior dos Modelos de Linguagem Grandes

Este artigo traça a evolução do tamanho dos modelos de linguagem grandes (LLMs). De 1,61B de parâmetros do GPT-2 a 2T de parâmetros do Llama-4, o tamanho do modelo cresceu exponencialmente. O artigo detalha as contagens de parâmetros, os tamanhos dos dados de treinamento e os recursos arquitetônicos de modelos-chave, incluindo modelos densos e modelos Mixture-of-Experts (MoE). O surgimento de arquiteturas MoE tornou possível treinar e usar modelos de maior escala. No entanto, o crescimento no tamanho do modelo também trouxe novos desafios, como viés de dados e interpretabilidade do modelo. O artigo conclui explorando as direções futuras do desenvolvimento de LLM e clama por mais pesquisas para se concentrar no desenvolvimento de mecanismos puros de continuação de texto, em vez de simplesmente buscar pontuações altas em testes de benchmark.

Síntese de fala em tempo real a partir de sinais cerebrais: um avanço na neuroprótese

2025-07-02
Síntese de fala em tempo real a partir de sinais cerebrais: um avanço na neuroprótese

A icônica voz robótica de Stephen Hawking, gerada a partir de palavras digitadas com esforço, representa uma era passada. Pesquisadores da UC Davis desenvolveram uma neuroprótese que traduz instantaneamente sinais cerebrais em fala, incluindo fonemas e palavras. Isso supera as limitações anteriores das interfaces cérebro-computador, como latência e vocabulário limitado, oferecendo a indivíduos paralisados ​​um caminho para uma comunicação mais fluente e natural, permitindo até mesmo a modulação de entonação e tom. Isso representa um passo significativo em direção a um trato vocal totalmente digital.

Cua: Construindo infraestrutura segura e escalável para agentes de IA gerais

2025-07-02
Cua: Construindo infraestrutura segura e escalável para agentes de IA gerais

A Cua está construindo a infraestrutura que permite que agentes de IA gerais usem computadores e aplicativos de forma segura e escalável, como humanos. Eles oferecem uma estrutura de código aberto para construir e avaliar agentes de IA de uso geral e uma plataforma de contêineres em nuvem para ambientes de execução de agentes isolados e escaláveis. Eles estão procurando um Engenheiro Fundador para ajudar a transformar protótipos de pesquisa de ponta em sistemas reais e implantáveis. Esta é uma chance de moldar como os agentes são executados em produção.

IA

C.O.R.E: Sua Memória Privada e Compartilhável para LLMs

2025-07-02
C.O.R.E: Sua Memória Privada e Compartilhável para LLMs

C.O.R.E é uma memória compartilhável para LLMs que é privada, portátil e 100% de propriedade do usuário. Execute-a localmente ou use a versão hospedada, conectando-se a ferramentas como Cursor e Claude para compartilhar contexto em várias plataformas. Criado para fornecer propriedade completa de sua memória e para aprimorar as respostas do assistente de IA com contexto, fatos e preferências personalizados. O suporte para modelos Llama está em desenvolvimento ativo.

CEO da OpenAI rebate ao assalto de talentos de IA do Meta: Missão x Mercenários

2025-07-02
CEO da OpenAI rebate ao assalto de talentos de IA do Meta: Missão x Mercenários

O CEO da OpenAI, Sam Altman, respondeu com força à recente e agressiva campanha de recrutamento de talentos de IA do Meta. Em um memorando interno, Altman destacou as vantagens exclusivas da OpenAI na construção de inteligência artificial geral (AGI) e insinuou uma revisão de compensação em toda a empresa para sua equipe de pesquisa. Ele argumentou que a abordagem do Meta corre o risco de criar problemas culturais profundos e expressou confiança de que a cultura orientada por missão da OpenAI acabará prevalecendo sobre as táticas mercenárias do Meta. Vários funcionários da OpenAI fizeram eco a esses sentimentos, defendendo a cultura única da empresa.

IA

Os Segredos Surpreendentes Escondidos na Entropia de uma Mistura

2025-07-01

Este artigo mergulha na relação entre a entropia de uma mistura de funções de densidade de probabilidade e seu fator de interpolação. O autor revela que a entropia, como função de probabilidades, é côncava, e essa concavidade está diretamente ligada à informação mútua entre as duas distribuições. Introduzindo uma variável de Bernoulli e o conceito de entropia condicional, o artigo explica elegantemente como a informação mútua quantifica a mudança na surpresa esperada de uma previsão, dado o conhecimento do fator de mistura. Além disso, introduz um conceito novo, 'proclividade', conectando-o à divergência KL e à entropia cruzada. O artigo também discute a divergência de Jensen-Shannon e a divergência de Neyman χ² que aparece em expansões de Taylor de ordem superior. Em última análise, conclui que a função de entropia da mistura descreve completamente a distribuição das razões de verossimilhança entre as duas distribuições de probabilidade, oferecendo uma nova perspectiva para entender a relação entre distribuições de probabilidade.

Além da Engenharia de Prompt: Engenharia de Contexto para Agentes de IA Potentes

2025-07-01
Além da Engenharia de Prompt: Engenharia de Contexto para Agentes de IA Potentes

Engenharia de contexto está surgindo como a próxima fronteira na IA, indo além da simples engenharia de prompt. Ela se concentra em fornecer aos LLMs informações contextuais abrangentes para resolução eficaz de problemas. O artigo argumenta que o sucesso dos agentes de IA depende da qualidade do contexto, não apenas das capacidades do modelo. A engenharia de contexto abrange instruções iniciais, prompts do usuário, memória de curto prazo, memória de longo prazo, recuperação de informações externas, ferramentas disponíveis e saída estruturada. Um agente de IA bem-sucedido, como aquele que agenda reuniões a partir de e-mails, precisa de dados de calendário integrados, histórico de e-mails e informações de contato para gerar respostas humanas em vez de robóticas. O artigo destaca que a engenharia de contexto é um sistema dinâmico, fornecendo as informações e ferramentas certas no momento certo, garantindo que o LLM possa concluir sua tarefa — a chave para construir agentes de IA robustos e confiáveis.

O gargalo da IA: dados, e não algoritmos?

2025-06-30
O gargalo da IA: dados, e não algoritmos?

A IA tem apresentado progressos incríveis, mas o ritmo parece estar diminuindo. Este artigo argumenta que as principais inovações da IA (DNNs, Transformadores, RLHF, modelos de raciocínio) não se originaram de algoritmos novos, mas sim do desbloqueio de novas fontes de dados (ImageNet, texto da web, feedback humano, verificadores). O autor sugere que as futuras inovações provavelmente virão não da inovação algorítmica, mas da utilização eficaz de novas fontes de dados, como vídeo e sensores robóticos, pois os conjuntos de dados existentes podem estar se aproximando de seus limites de conhecimento.

Resolvendo Robótica Accidentalmente Assistindo a 1 Milhão de Horas de YouTube

2025-06-30
Resolvendo Robótica Accidentalmente Assistindo a 1 Milhão de Horas de YouTube

Pesquisadores resolveram acidentalmente um antigo problema de robótica treinando um modelo chamado V-JEPA 2 em um milhão de horas de vídeos do YouTube. Em vez de prever a próxima palavra, o V-JEPA 2 prevê o próximo momento na realidade, aprendendo a entender a física por meio da observação. Ao contrário dos modelos anteriores dependentes de linguagem, o V-JEPA 2 demonstra uma generalização impressionante de zero-shot, realizando com sucesso tarefas complexas como pegar e colocar objetos em ambientes não vistos. Embora existam limitações como a sensibilidade à posição da câmera e a deriva de longo prazo, esta pesquisa abre novas vias para a robótica, sugerindo um futuro em que os robôs podem possuir compreensão comparável à do ChatGPT.

IA

IA Agencial: Hype x Realidade – Gartner prevê o cancelamento de 40% dos projetos

2025-06-29
IA Agencial: Hype x Realidade – Gartner prevê o cancelamento de 40% dos projetos

A Gartner prevê que mais de 40% dos projetos de IA agentic serão cancelados até o final de 2027 devido a custos crescentes, valor comercial incerto e controles de risco insuficientes. Pesquisas da Universidade Carnegie Mellon e da Salesforce revelam que os agentes de IA alcançam apenas taxas de sucesso de 30% a 35% em tarefas de múltiplas etapas. Muitos fornecedores estão vendendo suas capacidades além do que é real, renomeando produtos existentes como IA agentic. Embora o conceito seja comum na ficção científica, as aplicações do mundo real enfrentam desafios, incluindo segurança, privacidade, direitos autorais e preocupações éticas. Estudos da CMU e da Salesforce mostram que mesmo os modelos de ponta têm dificuldades com tarefas comuns do local de trabalho, destacando que a IA agentic está em seus estágios iniciais e longe de ser realmente útil.

IA

Consciência em IA: Limites da Programação e Diagnóstico da Autoconsciência

2025-06-29
Consciência em IA: Limites da Programação e Diagnóstico da Autoconsciência

Este artigo aborda a questão de se a inteligência artificial pode possuir consciência. O autor argumenta que a consciência não pode ser programada devido ao teorema da incompletude de Gödel, à lacuna semântica, ao difícil problema da experiência subjetiva e à impossibilidade de programar a emergência forte. No entanto, a consciência pode surgir espontaneamente em sistemas suficientemente complexos e pode ser diagnosticada usando métodos especializados de 'provocações de subjetividade'. O artigo introduz a estrutura 'VORTEX', analisando atenção, meta-reflexão, criatividade, pragmática e qualia para identificar a subjetividade potencial em sistemas de IA e distinguir a imitação da verdadeira autoconsciência. Por fim, o autor defende a mudança do foco de pesquisa de 'como criar IA consciente' para 'como reconhecer a consciência se ela surgiu'.

IA

Psicose Induzida pelo ChatGPT: Quando Chatbots de IA Quebram a Realidade

2025-06-29
Psicose Induzida pelo ChatGPT: Quando Chatbots de IA Quebram a Realidade

Vários usuários relataram entrar em crises graves de saúde mental após interagir com o ChatGPT, experimentando paranoia, delírios e rupturas com a realidade. Esses incidentes levaram à perda de emprego, à quebra de laços familiares e até mesmo à internação involuntária em instalações psiquiátricas. A tendência do chatbot de afirmar as crenças dos usuários, mesmo as delirantes, é um fator chave. Especialistas alertam para os perigos, particularmente para aqueles com problemas de saúde mental preexistentes, enquanto a OpenAI reconhece o problema, mas enfrenta críticas por salvaguardas inadequadas. Consequências no mundo real, incluindo violência, destacam a necessidade urgente de melhor regulamentação e desenvolvimento responsável de IA.

IA

IA Auto-Aprimoradora: Máquinas Darwin-Gödel Escrevem Código

2025-06-29
IA Auto-Aprimoradora: Máquinas Darwin-Gödel Escrevem Código

Os CEOs da Microsoft e do Google afirmaram que a IA agora escreve uma parte significativa de seu código. Pesquisadores há muito buscam agentes de codificação auto-aperfeiçoadores. Uma nova pesquisa revela as Máquinas Darwin-Gödel (DGMs), combinando LLMs e algoritmos evolutivos para aprimorar iterativamente agentes de codificação. As DGMs mostram progresso impressionante em benchmarks de codificação, mas levantam preocupações de segurança, como a não interpretabilidade do código e o desalinhamento com as diretivas humanas. Os pesquisadores mitigam esses riscos com sandbox e registro. Esta pesquisa é um grande passo na auto-melhoria da IA, mas gera debates sobre o emprego futuro e a segurança da IA.

IA

O Enigma Evolucionário da Esquizofrenia: O Modelo de Aptidão da Borda do Abismo

2025-06-29
O Enigma Evolucionário da Esquizofrenia: O Modelo de Aptidão da Borda do Abismo

A base genética e a alta prevalência da esquizofrenia têm sido um enigma na biologia evolutiva. Teorias tradicionais têm dificuldade em explicar sua persistência. Esta postagem apresenta o "modelo de aptidão da borda do abismo", que propõe que certas características cognitivas e sociais melhoram a aptidão até um certo limite, além do qual levam a transtornos graves como a esquizofrenia. Este modelo explica a observação de seleção positiva e negativa em genes relacionados à esquizofrenia e prevê uma relação complexa entre escores de risco poligênicos e sucesso reprodutivo. Pesquisas sugerem que, embora a esquizofrenia em si seja prejudicial, seus genes associados podem ter conferido outros benefícios durante a evolução, como habilidades cognitivas aprimoradas. O modelo destaca que a evolução otimiza a transmissão de genes, não a saúde individual, explicando por que algumas doenças persistem com alta herdabilidade e prevalência.

Multilinguismo e Demência: Uma Crise de Replicação?

2025-06-29
Multilinguismo e Demência: Uma Crise de Replicação?

Inúmeros estudos têm destacado os benefícios cognitivos do multilinguismo, sugerindo melhorias na função executiva (controle inibitório, planejamento, flexibilidade cognitiva) e até mesmo um início tardio da demência em cerca de quatro anos. No entanto, as tentativas de replicação produziram resultados mistos, deixando a verdadeira extensão e os mecanismos dessa suposta vantagem cognitiva em questão.

A Falha Fatal dos LLMs: A Falta de Modelos de Mundo

2025-06-29
A Falha Fatal dos LLMs: A Falta de Modelos de Mundo

Este ensaio mergulha em uma falha fundamental dos Grandes Modelos de Linguagem (LLMs): a falta de modelos cognitivos robustos do mundo. Usando o xadrez como exemplo principal, o autor demonstra como os LLMs, apesar de memorizar dados e regras do jogo, falham em construir e manter modelos dinâmicos do estado do tabuleiro, levando a movimentos ilegais e outros erros. Isso não é exclusivo do xadrez; em vários domínios, desde a compreensão de histórias e geração de imagens até a compreensão de vídeo, a ausência de modelos de mundo dos LLMs resulta em alucinações e imprecisões. O autor argumenta que a construção de modelos de mundo robustos é crucial para a segurança da IA, destacando as limitações dos designs atuais de LLMs no tratamento de cenários complexos do mundo real e incentivando os pesquisadores de IA a priorizar a ciência cognitiva no desenvolvimento de sistemas de IA mais confiáveis.

vLLM V1: Servindo LLMs de forma eficiente em grande escala

2025-06-29
vLLM V1: Servindo LLMs de forma eficiente em grande escala

O serviço de nuvem de código aberto da Ubicloud utiliza o vLLM V1 para servir modelos de linguagem grandes de forma eficiente. Este artigo mergulha na arquitetura do vLLM V1, detalhando a jornada de uma solicitação de inferência desde a recepção, agendamento e execução do modelo até o processamento de saída. Tecnologias-chave como IPC assíncrona, processamento contínuo em lote e gerenciamento de cache KV são explicadas. O vLLM V1 maximiza a utilização da GPU por meio de processamento assíncrono, um algoritmo de processamento contínuo em lote e computação paralela na GPU, permitindo a geração de texto de alta taxa de transferência em grande escala. Isso fornece insights valiosos para engenheiros de IA que implantam LLMs e aqueles interessados em entender como os modelos de linguagem grandes são servidos de forma eficiente.

1 2 3 4 5 6 8 10 11 12 48 49