Category: IA

LLMs entendem nulos? Investigando as representações internas de modelos de geração de código

2025-04-07

Modelos de linguagem grandes (LLMs) demonstraram um progresso notável na geração de código, mas sua verdadeira compreensão de código permanece uma questão. Este trabalho investiga a compreensão de LLMs sobre nulidade em código, empregando avaliação externa (completação de código) e sondagem interna (análise de ativação do modelo). Os resultados revelam que LLMs aprendem e aplicam regras sobre valores nulos, com o desempenho variando com base na complexidade da regra e no tamanho do modelo. O estudo também esclarece como os LLMs representam internamente a nulidade e como esse entendimento evolui durante o treinamento.

Jogo de Eliminação de LLMs: Raciocínio Social, Estratégia e Engano

2025-04-07
Jogo de Eliminação de LLMs: Raciocínio Social, Estratégia e Engano

Pesquisadores criaram um benchmark de "jogo de eliminação" multijogador para avaliar modelos de linguagem grandes (LLMs) em raciocínio social, estratégia e engano. Oito LLMs competem, participando de conversas públicas e privadas, formando alianças e votando para eliminar oponentes até que apenas dois permaneçam. Um júri de jogadores eliminados decide então o vencedor. Analisando logs de conversas, padrões de votação e classificações, revela-se como os LLMs equilibram o conhecimento compartilhado com intenções ocultas, forjando alianças ou traindo-as estrategicamente. O benchmark vai além de diálogos simples, forçando os modelos a navegar em dinâmicas públicas versus privadas, votação estratégica e persuasão do júri. GPT-4.5 Preview surgiu como o melhor desempenho.

IA resolve o desafio do diamante no Minecraft sem orientação humana

2025-04-07
IA resolve o desafio do diamante no Minecraft sem orientação humana

Pesquisadores do Google DeepMind desenvolveram o Dreamer, um sistema de IA que aprendeu a coletar diamantes autonomamente no Minecraft sem nenhuma instrução humana prévia. Isso representa um avanço significativo na capacidade da IA de generalizar conhecimento. O Dreamer usa aprendizado por reforço e um modelo de mundo para prever cenários futuros, permitindo que ele planeje e execute efetivamente a complexa tarefa de coleta de diamantes sem regras pré-programadas ou demonstrações. A pesquisa prepara o caminho para a criação de robôs capazes de aprender e se adaptar no mundo real.

IA

O Hype da IA: Benchmarks vs. Realidade

2025-04-06
O Hype da IA: Benchmarks vs. Realidade

Uma startup que usa modelos de IA para escaneamento de segurança de código descobriu melhorias práticas limitadas, apesar do aumento das pontuações de referência desde junho de 2024. O autor argumenta que os avanços em grandes modelos de linguagem não se traduziram em utilidade econômica ou generalização, contradizendo afirmações públicas. Isso levanta preocupações sobre os métodos de avaliação de modelos de IA e a possível exaltação das capacidades pelos laboratórios de IA. O autor defende o foco no desempenho de aplicativos do mundo real em vez de pontuações de referência e destaca a necessidade de uma avaliação robusta antes de implantar IA em contextos sociais.

Foundry: Enfrentando a Crise de Confiabilidade em Agentes de Navegador

2025-04-06
Foundry: Enfrentando a Crise de Confiabilidade em Agentes de Navegador

Os agentes de navegador atuais de laboratórios líderes de IA falham em mais de 80% das tarefas do mundo real. A Foundry está construindo o primeiro simulador robusto, ambiente de treinamento de RL e plataforma de avaliação projetados especificamente para agentes de navegador. Ao criar réplicas perfeitas de sites como o DoorDash, a Foundry permite milhões de testes sem complexidades do mundo real, identificando pontos de falha e acelerando as melhorias. Sua missão é transformar projetos de pesquisa instáveis em soluções empresariais confiáveis. Eles estão procurando engenheiros full-stack excepcionais para se juntar à sua equipe de especialistas em ML da Scale AI, para enfrentar essa enorme oportunidade de mercado de automação de mais de US$ 20 bilhões.

IA

QVQ-Max: Um Modelo de IA com Visão e Inteligência

2025-04-06
QVQ-Max: Um Modelo de IA com Visão e Inteligência

QVQ-Max é um novo modelo de raciocínio visual que não apenas 'entende' imagens e vídeos, mas também analisa e raciocina com essas informações para resolver vários problemas. De problemas de matemática a questões do dia a dia, de código de programação a criação artística, o QVQ-Max demonstra capacidades impressionantes. Ele se destaca na observação detalhada, raciocínio profundo e aplicação flexível em vários cenários, como auxiliar no trabalho, aprendizado e vida diária. O desenvolvimento futuro se concentrará em melhorar a precisão do reconhecimento, aprimorar o manuseio de tarefas de várias etapas e expandir os métodos de interação para se tornar um agente visual verdadeiramente prático.

Protocolo de Contexto de Modelo (MCP): O próximo grande passo para a integração de LLMs — mas com um porém

2025-04-06
Protocolo de Contexto de Modelo (MCP): O próximo grande passo para a integração de LLMs — mas com um porém

O Protocolo de Contexto de Modelo (MCP) está se tornando o padrão para a integração de Modelos de Linguagem Grandes (LLMs) com ferramentas e dados, apelidado de "USB-C para agentes de IA". Ele permite que agentes se conectem a ferramentas por meio de APIs padronizadas, mantenham sessões persistentes, executem comandos e compartilhem contexto entre fluxos de trabalho. No entanto, o MCP não é seguro por padrão. Conectar agentes a servidores arbitrários sem consideração cuidadosa pode criar vulnerabilidades de segurança, potencialmente expondo acesso ao shell, segredos ou infraestrutura por meio de ataques de canal lateral.

SeedLM: Um Novo Método de Compressão de Pesos LLM Usando Geradores de Números Pseudo-Aleatórios

2025-04-06
SeedLM: Um Novo Método de Compressão de Pesos LLM Usando Geradores de Números Pseudo-Aleatórios

Os grandes modelos de linguagem (LLMs) são prejudicados por altos custos de tempo de execução, limitando sua implantação generalizada. Pesquisadores do Meta introduzem o SeedLM, um novo método de compressão pós-treinamento que usa sementes de um gerador de números pseudo-aleatórios para codificar e comprimir pesos de modelos. Durante a inferência, o SeedLM usa um Registro de Deslocamento de Realimentação Linear (LFSR) para gerar eficientemente uma matriz aleatória, combinada linearmente com coeficientes comprimidos para reconstruir blocos de pesos. Isso reduz o acesso à memória e aproveita ciclos de computação ociosos, acelerando tarefas limitadas por memória trocando computação por menos acessos à memória. Ao contrário dos métodos de última geração que exigem dados de calibração, o SeedLM não precisa de dados e generaliza bem em diversas tarefas. Experimentos no desafiador Llama 3 70B mostram precisão de zero-shot em compressão de 4 e 3 bits igualando ou excedendo os métodos de última geração, mantendo desempenho comparável aos benchmarks FP16. Testes em FPGA demonstram que o SeedLM de 4 bits se aproxima de uma aceleração de 4x em relação a um benchmark FP16 Llama 2/3 à medida que o tamanho do modelo aumenta.

IA

TripoSG: Síntese de Formas 3D de Alta Fidelidade usando Modelos de Fluxo Retificados em Grande Escala

2025-04-06
TripoSG: Síntese de Formas 3D de Alta Fidelidade usando Modelos de Fluxo Retificados em Grande Escala

TripoSG é um modelo de base de ponta para geração de imagem para 3D de alta fidelidade. Utilizando transformadores de fluxo retificados em grande escala, treinamento supervisionado híbrido e um conjunto de dados de alta qualidade, ele alcança resultados de ponta. O TripoSG gera malhas com recursos nítidos, detalhes finos e estruturas complexas, refletindo com precisão a semântica da imagem de entrada. Ele possui fortes capacidades de generalização, manipulando diversos estilos de entrada. Um modelo de 1,5B de parâmetros, juntamente com o código de inferência e uma demonstração interativa, agora está disponível.

Assinatura de Modelo: Asegura a integridade dos modelos de ML

2025-04-05
Assinatura de Modelo: Asegura a integridade dos modelos de ML

Com o crescimento explosivo de aplicações de aprendizado de máquina, a segurança do modelo tornou-se uma preocupação crítica. Este projeto visa proteger a integridade e a origem dos modelos de aprendizado de máquina por meio da assinatura de modelos. Ele utiliza ferramentas como Sigstore para gerar assinaturas de modelos e fornece interfaces de CLI e API, suportando vários métodos de assinatura (incluindo Sigstore, chaves públicas e certificados). Os usuários podem verificar independentemente a integridade de seus modelos, evitando adulterações após o treinamento. O projeto também se integra ao SLSA (Supply chain Levels for Software Artifacts) para melhorar ainda mais a segurança da cadeia de suprimentos de modelos de aprendizado de máquina.

Meta lança modelos de IA multimodais Llama 4: Potentes e acessíveis

2025-04-05
Meta lança modelos de IA multimodais Llama 4: Potentes e acessíveis

A Meta revelou sua família de modelos de IA Llama 4, incluindo o Llama 4 Scout e o Llama 4 Maverick, para atender às diversas necessidades dos desenvolvedores. O Llama 4 Scout, um modelo multimodal líder, possui 17 bilhões de parâmetros ativos e 109 bilhões de parâmetros totais, oferecendo desempenho de ponta. O Llama 4 Maverick, com 17 bilhões de parâmetros ativos e 400 bilhões de parâmetros totais, supera o Llama 3.3 70B a um custo menor, com excelência em compreensão de imagem e texto em 12 idiomas. Ideal para assistentes gerais e aplicativos de bate-papo, ele é otimizado para respostas de alta qualidade e tom sutil.

Google lança biblioteca estável de assinatura de modelos para proteger a cadeia de suprimentos de IA

2025-04-05
Google lança biblioteca estável de assinatura de modelos para proteger a cadeia de suprimentos de IA

O surgimento de grandes modelos de linguagem (LLMs) aumentou o foco na segurança da cadeia de suprimentos de IA. A manipulação de modelos, o envenenamento de dados e outras ameaças são preocupações crescentes. Para abordar isso, o Google, em parceria com a NVIDIA e a HiddenLayer, e com o apoio da Open Source Security Foundation, lançou a primeira versão estável de sua biblioteca de assinatura de modelos. Essa biblioteca usa assinaturas digitais, como as do Sigstore, para permitir que os usuários verifiquem se o modelo usado por um aplicativo é idêntico ao criado pelos desenvolvedores. Isso garante a integridade e a proveniência do modelo, protegendo contra manipulação maliciosa em todo o ciclo de vida do modelo, do treinamento à implantação. Os planos futuros incluem a extensão dessa tecnologia a conjuntos de dados e outros artefatos de ML, construindo um ecossistema de confiança de IA mais robusto.

IA na Saúde: O Gargalo Computacional

2025-04-05
IA na Saúde: O Gargalo Computacional

Um pesquisador destaca a imprecisão das ferramentas clínicas atuais usadas para previsão de risco de câncer. A IA tem o potencial de alavancar dados massivos de pacientes para cuidados personalizados, permitindo a detecção precoce do câncer, diagnósticos aprimorados e protocolos de tratamento otimizados. No entanto, o enorme volume de dados de saúde sobrecarrega os chips de computador tradicionais, tornando o poder computacional um gargalo para a realização do potencial total da IA na área da saúde. Enquanto os pesquisadores otimizam algoritmos, a tecnologia de chips baseada em silício está se aproximando de seus limites de desempenho, exigindo uma nova abordagem para a tecnologia de chips para que a IA atinja seu potencial total.

LeCun: Modelos de linguagem grandes serão obsoletos em cinco anos

2025-04-05
LeCun: Modelos de linguagem grandes serão obsoletos em cinco anos

Yann LeCun, cientista-chefe de IA da Meta, prevê que os grandes modelos de linguagem (LLMs) serão amplamente obsoletos em cinco anos. Ele argumenta que os LLMs atuais carecem de compreensão do mundo físico, funcionando como ferramentas especializadas em um espaço discreto e simples (linguagem). LeCun e sua equipe estão desenvolvendo uma abordagem alternativa chamada JEPA, que visa criar representações do mundo físico a partir de entrada visual, permitindo verdadeiras capacidades de raciocínio e planejamento que superam os LLMs. Ele prevê que a IA transformará a sociedade ao aumentar a inteligência humana, não ao substituí-la, e refuta as alegações de que a IA representa um risco existencial.

IA

Sistema OCR revolucionário: impulsionando conjuntos de dados de IA para educação

2025-04-05
Sistema OCR revolucionário: impulsionando conjuntos de dados de IA para educação

Um sistema OCR inovador, otimizado para aprendizado de máquina, extrai dados estruturados de materiais educacionais complexos, como provas de exame. Com suporte para texto multilíngue, fórmulas matemáticas, tabelas, diagramas e gráficos, é ideal para a criação de conjuntos de dados de treinamento de alta qualidade. O sistema anota semanticamente os elementos extraídos e gera automaticamente descrições em linguagem natural, como texto descritivo para diagramas. Com suporte para japonês, coreano e inglês, e fácil personalização para outros idiomas, ele fornece saída em JSON ou Markdown pronta para IA, incluindo descrições legíveis por humanos de expressões matemáticas, resumos de tabelas e legendas de figuras. Alcançando mais de 90-95% de precisão em conjuntos de dados acadêmicos do mundo real, ele lida com layouts complexos com conteúdo científico denso e elementos visuais ricos.

IA

Modelo o3 da OpenAI atinge avanço no teste ARC-AGI, mas definição de IAG permanece contestada

2025-04-04
Modelo o3 da OpenAI atinge avanço no teste ARC-AGI, mas definição de IAG permanece contestada

O mais recente modelo da OpenAI, o o3, atingiu uma impressionante pontuação de 87% no teste ARC-AGI de François Chollet, atingindo pela primeira vez o desempenho humano e provocando um acalorado debate sobre se a IAG (Inteligência Artificial Geral) foi alcançada. No entanto, Chollet rapidamente lançou o teste ARC-AGI-2, mais difícil, onde a pontuação do o3 caiu drasticamente, desafiando mais uma vez a definição e as métricas da indústria para IAG. Este artigo explora os diferentes pontos de vista e a complexa relação entre a definição de IAG e os interesses comerciais, levando a uma profunda reflexão sobre a natureza da inteligência artificial geral.

IA

LLMs Decifram uma Cifra de Notação Musical Bizantina

2025-04-04

Pesquisadores descobriram que grandes modelos de linguagem como Claude e GPT-4 conseguem decifrar uma cifra peculiar baseada no bloco Unicode de notação musical bizantina. Essa cifra se assemelha a uma cifra de César, mas com um deslocamento de 118784. Os modelos conseguem decifrar essa cifra diretamente, sem raciocínio em cadeia, alcançando taxas de sucesso ainda maiores do que com cifras de César regulares. Os pesquisadores levantam a hipótese de que isso se deve a uma relação linear entre a adição em um intervalo específico de Unicode e a adição no espaço de tokens, permitindo que os modelos aprendam uma cifra de deslocamento baseada nessa relação. Esse fenômeno sugere a existência de mecanismos ainda não compreendidos dentro dos LLMs.

IA

Google lança Sec-Gemini v1: Uma nova era na cibersegurança impulsionada por IA

2025-04-04
Google lança Sec-Gemini v1: Uma nova era na cibersegurança impulsionada por IA

O Google anunciou o Sec-Gemini v1, um modelo de IA experimental projetado para impulsionar os limites da IA ​​de cibersegurança. Combinando os recursos avançados do Gemini com conhecimento e ferramentas de cibersegurança em tempo quase real, o Sec-Gemini v1 se destaca em fluxos de trabalho essenciais, como análise da causa raiz de incidentes, análise de ameaças e compreensão do impacto de vulnerabilidades. Ele supera outros modelos em benchmarks importantes, mostrando uma melhoria de pelo menos 11% no CTI-MCQ e pelo menos 10,5% no CTI-Root Cause Mapping. O Google está disponibilizando gratuitamente o Sec-Gemini v1 para organizações, instituições, profissionais e ONGs selecionadas para fins de pesquisa, a fim de promover a colaboração e o avanço da IA ​​na cibersegurança.

IA

DeepMind: Projeto para Desenvolvimento Seguro de IAG – Navegando os Riscos de 2030

2025-04-04
DeepMind: Projeto para Desenvolvimento Seguro de IAG – Navegando os Riscos de 2030

Com o entusiasmo pela IA em alta, o foco muda para a Inteligência Artificial Geral (IAG). Um novo artigo de 108 páginas da DeepMind aborda a questão crucial do desenvolvimento seguro da IAG, projetando uma possível chegada em 2030. O artigo descreve quatro categorias principais de risco: uso indevido, desalinhamento, erros e riscos estruturais. Para mitigá-los, a DeepMind propõe testes rigorosos, protocolos de segurança robustos após o treinamento e até mesmo a possibilidade de 'desaprender' capacidades perigosas — um desafio significativo. Essa abordagem proativa visa prevenir os danos graves que uma IA de nível humano poderia causar.

IA

Linguagem Complexa de Bonobos: Além da Soma de suas Partes

2025-04-03
Linguagem Complexa de Bonobos: Além da Soma de suas Partes

Cientistas suíços descobriram que bonobos podem combinar vocalizações simples em estruturas semânticas complexas, significando que sua comunicação é mais do que apenas uma soma de chamadas individuais; ela apresenta composição não trivial — um traço que antes se acreditava ser exclusivamente humano. Os pesquisadores construíram um banco de dados maciço de chamadas de bonobos e usaram a semântica distribucional para decifrar seu significado, oferecendo uma visão valiosa sobre a comunicação de bonobos na natureza. Essa pesquisa foi trabalhosa, exigindo que os pesquisadores acordassem cedo, caminhassem até os ninhos de bonobos e gravassem chamadas e informações contextuais ao longo do dia.

IA

Geração de Imagens por IA: Imitação ao Estilo Ghibli Gera Discussões sobre Direitos Autorais

2025-04-03
Geração de Imagens por IA: Imitação ao Estilo Ghibli Gera Discussões sobre Direitos Autorais

Uma atualização recente na geração de imagens por GPT permite que os usuários transformem qualquer imagem em um estilo semelhante ao Studio Ghibli. Isso demonstra a impressionante capacidade da IA de imitar estilos, mas também levanta preocupações significativas sobre direitos autorais. O autor realiza um experimento, mostrando a facilidade com que o GPT gera imagens surpreendentemente semelhantes a personagens de IPs conhecidos, mesmo sem mencionar explicitamente o IP. Isso é ao mesmo tempo impressionante e alarmante, destacando o potencial da IA para facilitar o roubo de propriedade intelectual. Embora as leis permitam imitar estilos visuais, a precisão da imitação ultrapassa os limites da lei de direitos autorais, levando à reflexão sobre a relação entre o desenvolvimento da IA e a proteção de direitos autorais.

IA

IA 2027: Uma Corrida para a Superinteligência e os Riscos Envolvidos

2025-04-03
IA 2027: Uma Corrida para a Superinteligência e os Riscos Envolvidos

Este relatório prevê que o impacto da IA ​​sobre-humana na próxima década será enorme, superando o da Revolução Industrial. A OpenAI e outras instituições modelaram dois futuros possíveis: um cenário de desaceleração e uma corrida. O relatório detalha o rápido avanço dos sistemas de IA, de agentes desajeitados no início de 2025 a superinteligências em 2027 capazes de superar os humanos em codificação e pesquisa. No entanto, esse rápido desenvolvimento também apresenta riscos imensos, incluindo a segurança do modelo e uma corrida armamentista de IA com a China. O relatório destaca o impacto profundo da IA ​​no mercado de trabalho e na geopolítica e explora estratégias potenciais de mitigação.

Onyx: Plataforma GenAI de código aberto arrecada US$ 10 milhões em rodada Seed

2025-04-03
Onyx: Plataforma GenAI de código aberto arrecada US$ 10 milhões em rodada Seed

Onyx é uma plataforma de IA generativa de código aberto que conecta os documentos, aplicativos e pessoas da sua empresa. Ela coleta e sincroniza informações de várias fontes (Google Drive, Slack, GitHub, Confluence, Salesforce etc.) para criar um hub central para fazer perguntas. Imagine seus colegas mais experientes, todos em um só lugar, 24 horas por dia, 7 dias por semana! A Onyx acredita que todas as equipes modernas adotarão a IA generativa aprimorada com conhecimento nos próximos 5 anos e seu objetivo é levar essa tecnologia a equipes em todo o mundo. Eles acabaram de fechar uma rodada Seed de US$ 10 milhões liderada pela Khosla Ventures e First Round Capital, com clientes como Netflix, Ramp e Applied Intuition, além de usuários de código aberto como Roku, Zendesk e L3Harris.

Professora do MIT desvenda os mecanismos de processamento de linguagem do cérebro

2025-04-03
Professora do MIT desvenda os mecanismos de processamento de linguagem do cérebro

De aprender vários idiomas na antiga União Soviética a se tornar professora associada de ciências cerebrais e cognitivas no MIT, a Dra. Evelina Fedorenko dedica sua pesquisa à compreensão das regiões de processamento de linguagem do cérebro. Seu trabalho utiliza fMRI para localizar precisamente essas áreas, revelando sua alta seletividade para a linguagem e a falta de sobreposição com outras funções cognitivas, como processamento de música ou leitura de código. Além disso, ela explora as diferenças temporais no processamento entre diferentes regiões do cérebro, o desenvolvimento de áreas de processamento de linguagem em crianças pequenas e usa modelos de linguagem amplos para investigar a plasticidade e a redundância das capacidades de linguagem do cérebro.

O Ponto Cego da IA: Espelhos na Geração de Imagens e Vídeos

2025-04-03
O Ponto Cego da IA: Espelhos na Geração de Imagens e Vídeos

Avanços recentes na geração de imagens e vídeos por IA produziram resultados impressionantes e fotorrealistas, mas um obstáculo significativo permanece: renderizar com precisão os reflexos em espelhos. Os pesquisadores testaram vários modelos líderes, encontrando dificuldades consistentes na geração de reflexos corretos. Os modelos frequentemente produziram imagens distorcidas, inconsistentes ou completamente imprecisas. Por exemplo, o Gemini falhou com reflexos de gatos e cadeiras, enquanto o Ideogram lutou com reflexos humanos em fotos de grupo. Isso destaca uma limitação importante: embora a geração de imagens de IA esteja avançando rapidamente, alcançar precisão física — como reflexos de espelhos realistas — continua sendo um desafio significativo.

IA

Anthropic lança Claude para Educação, desafiando o ChatGPT

2025-04-03
Anthropic lança Claude para Educação, desafiando o ChatGPT

A Anthropic lançou o Claude para Educação, um novo serviço de chatbot de IA voltado para o ensino superior, competindo diretamente com o ChatGPT Edu da OpenAI. Este nível oferece aos alunos e professores acesso ao Claude, com um novo 'Modo de Aprendizagem' para promover o pensamento crítico. Inclui segurança e privacidade de nível empresarial e já possui acordos com universidades como Northeastern e London School of Economics. A Anthropic pretende aumentar a receita e aumentar a adoção do usuário entre os alunos por meio desta oferta.

Apple Lança Conjunto de Dados CA-1M e Modelo Cubify Transformer para Detecção de Objetos 3D Internos

2025-04-02
Apple Lança Conjunto de Dados CA-1M e Modelo Cubify Transformer para Detecção de Objetos 3D Internos

A Apple lançou o CA-1M, um conjunto de dados em larga escala para detecção de objetos 3D internos, juntamente com o modelo Cubify Transformer (CuTR). O CA-1M apresenta caixas delimitadoras 3D e poses exaustivamente anotadas. Duas variantes do modelo CuTR são fornecidas: uma usando imagens RGB-D e outra usando apenas imagens RGB. O conjunto de dados suporta detecção em tempo real usando o aplicativo NeRF Capture e inclui instruções e exemplos de código abrangentes. Os pesquisadores podem utilizar este conjunto de dados e modelo para avançar na pesquisa em detecção de objetos 3D internos.

Agentes de IA: A identidade como fator definidor

2025-04-02
Agentes de IA: A identidade como fator definidor

Este artigo aborda a definição muitas vezes confusa de agentes de IA. O autor argumenta que o principal diferencial entre agentes de IA e assistentes de IA reside na 'identidade'. Os verdadeiros agentes de IA executam ações sob sua própria identidade, refletida nos logs de auditoria; os assistentes de IA operam sob a identidade de um usuário humano. Essa definição baseada em identidade implica autonomia, capacidade e raciocínio. O autor traça um paralelo com a agência legal e usa o produto de sua própria empresa como exemplo para ilustrar a aplicação prática dessa definição.

IA

Compressão Introspectiva em Tempo Real: Dando Consciência aos Transformers

2025-04-02
Compressão Introspectiva em Tempo Real: Dando Consciência aos Transformers

Grandes modelos de linguagem (LLMs) sofrem de duas limitações principais: falta de introspecção e cognição efêmera. Este artigo propõe um novo método de compressão introspectiva em tempo real que aborda ambas. Um modelo "parasita" leve é treinado para comprimir os estados internos de um transformer, permitindo acesso e reprodução eficientes do funcionamento interno do modelo. O método comprime os estados do transformer em um espaço latente de baixa dimensionalidade, semelhante ao salvamento de um estado de jogo, superando assim o obstáculo computacional de armazenar o estado completo. Isso permite novas capacidades, como rastreamento de raciocínio, aprendizado por reforço em trajetórias de pensamento e salvamento de checkpoints com eficiência de memória, levando, em última análise, a sistemas de IA mais poderosos e interpretáveis.

Ace: Piloto automático de computador com velocidade sobre-humana

2025-04-02
Ace: Piloto automático de computador com velocidade sobre-humana

Ace é um piloto automático de computador que usa o mouse e o teclado para executar tarefas na sua área de trabalho. Ele supera outros modelos em uma série de tarefas de uso do computador e possui velocidade sobre-humana. Treinado em mais de um milhão de tarefas por especialistas em software e especialistas de domínio, o Ace executa cliques do mouse e pressionamentos de teclas com base na tela e nos prompts. Embora ainda esteja em desenvolvimento e propenso a erros ocasionais, sua precisão melhora significativamente com o aumento dos recursos de treinamento. Um primeiro preview de pesquisa já está disponível.

IA
1 2 3 5 7 8 9 28 29