Category: IA

Por que as ideias se agrupam enquanto as pessoas se dispersam: A entropia da vida digital

2025-05-20
Por que as ideias se agrupam enquanto as pessoas se dispersam: A entropia da vida digital

Este artigo explora o mecanismo de formação de crenças humanas: nossos cérebros associam emoções a estímulos externos, criando um banco de memória emocional. Entidades físicas aumentam a entropia, fazendo com que se dispersem na memória; entidades digitais diminuem a entropia, fazendo com que se agrupem. Essa diferença de entropia entre os mundos físico e digital desafia nosso equilíbrio psicológico. O artigo conclui apresentando a adiem.com, uma empresa que usa tecnologia de IA para monitorar padrões de batimentos cardíacos para estudar esse equilíbrio de entropia e aplicá-lo no tratamento de ansiedade social e TDAH.

O Hype da IA na Ciência: A Desilusão de um Físico

2025-05-20
O Hype da IA na Ciência: A Desilusão de um Físico

Nick McGreivy, um físico com doutorado em Princeton, compartilha sua experiência ao aplicar IA à pesquisa em física. Inicialmente otimista sobre o potencial da IA para acelerar a pesquisa, ele descobriu que os métodos de IA tinham um desempenho muito inferior ao anunciado. Muitos artigos exageraram as vantagens da IA, com problemas como vazamento de dados sendo prevalentes. Ele argumenta que o rápido crescimento da IA na ciência decorre mais dos benefícios para os cientistas (salários mais altos, prestígio) do que de melhorias genuínas na eficiência da pesquisa. Ele pede métodos de avaliação de IA mais rigorosos e alerta contra vieses otimistas na pesquisa de IA.

O Superpoder da IA: Paciência, Não Inteligência

2025-05-20

Sam Altman imaginou a inteligência se tornando 'barata demais para medir', e com o capital de risco impulsionando o boom da IA, estamos vivendo nesse mundo. No entanto, a demanda do usuário por modelos significativamente mais inteligentes não está explodindo. Este artigo argumenta que o aspecto mais transformador dos LLMs não é sua inteligência, mas sua paciência sobre-humana: sempre disponível, sem julgamentos e infinitamente disposta a ouvir. Embora essa paciência possa amplificar falhas existentes do LLM (como bajulação) e os LLMs não devem substituir terapeutas, essa capacidade impactou profundamente como as pessoas buscam apoio emocional e conselhos.

Chatbots de IA: Mais persuasivos que humanos em debates online

2025-05-19
Chatbots de IA: Mais persuasivos que humanos em debates online

Um novo estudo revela que chatbots de IA, impulsionados por grandes modelos de linguagem (LLMs), são mais persuasivos do que humanos em debates online, especialmente quando possuem informações sobre o oponente. Pesquisadores colocaram 900 participantes dos EUA contra o GPT-4 ou um humano em debates online de 10 minutos sobre questões sociopolíticas. Os resultados mostraram que o GPT-4 superou significativamente os humanos (64% das vezes) quando fornecido com dados demográficos básicos. Isso levanta preocupações sobre o uso indevido de LLMs em campanhas políticas e publicidade direcionada, destacando os riscos potenciais da IA na guerra de informações.

Coexistindo com IA: Uma estrutura do reino animal

2025-05-19
Coexistindo com IA: Uma estrutura do reino animal

Este artigo explora o futuro da coexistência humano-IA, traçando paralelos entre os relacionamentos de diferentes espécies animais e as potenciais interações entre humanos e IA. O autor sugere que as IAs futuras podem variar de uma dependência semelhante à de um cachorro de colo em relação aos humanos a uma independência semelhante à de um corvo, e até mesmo a uma indiferença semelhante à de uma libélula. A chave, argumenta o autor, é criar um ecossistema competitivo saudável para evitar que a IA se torne incrivelmente dominante. O artigo também alerta contra os impactos negativos da IA, como alunos que dependem excessivamente do ChatGPT e negligenciam a aprendizagem. Por fim, o autor exorta os leitores a equilibrar a conveniência da IA com a preservação da aprendizagem e da competitividade humana, garantindo o sucesso contínuo da humanidade na era da IA.

Microsoft integra o controverso IA Grok da xAI no Azure

2025-05-19
Microsoft integra o controverso IA Grok da xAI no Azure

A Microsoft tornou-se uma das primeiras empresas de hiperescala a oferecer acesso gerenciado ao Grok, o controverso modelo de IA da xAI de Elon Musk. Disponíveis por meio do Azure AI Foundry, o Grok 3 e o Grok 3 mini possuem os acordos de nível de serviço da Microsoft e cobrança direta. Conhecido por suas respostas sem filtro e ousadas, incluindo o uso de linguagem vulgar, as versões do Azure são mais controladas e incluem recursos aprimorados de integração de dados, personalização e governança. Embora o Grok na plataforma X tenha enfrentado controvérsias por resultados tendenciosos e tratamento de tópicos sensíveis — incluindo incidentes como tirar a roupa de fotos de mulheres e censurar comentários negativos —, as versões do Azure visam melhorar a segurança e a confiabilidade.

IA

Modelos de Difusão: Os Heróis Anônimos da Geração de Imagens de IA

2025-05-19

Diferentemente dos modelos de linguagem baseados em transformadores, os modelos de difusão geram imagens removendo progressivamente ruído de uma imagem ruidosa. O treinamento envolve ensinar o modelo a identificar o ruído adicionado, permitindo que ele gere imagens a partir de ruído puro. Isso é semelhante à escultura, refinando gradualmente um bloco áspero de pedra em uma obra-prima. Embora ainda esteja em fase inicial para texto, os modelos de difusão mostram grande promessa na geração de imagens e vídeos, como visto no Sora da OpenAI e no VEO do Google. O núcleo reside em como ele modela a relação entre ruído e dados, um contraste acentuado com o foco dos transformadores na estrutura da linguagem.

IA

Está chegando outro inverno da IA?

2025-05-19

Este artigo explora o estado atual da inteligência artificial, argumentando que as expectativas atuais são excessivamente otimistas. Dos projetos de tradução automática fracassados da década de 1960 às limitações dos modelos de linguagem amplos (LLMs) de hoje, o autor argumenta que, embora a IA encontre aplicação em áreas específicas, como o reconhecimento de imagens médicas, ela ainda está longe de ser uma verdadeira 'máquina pensante'. Os LLMs sofrem de 'alucinações', frequentemente gerando informações falsas que exigem extensa verificação humana, uma lacuna significativa entre a realidade e o hype. As aplicações atuais de IA em atendimento ao cliente e auxílio de código mostram promessa, mas sua lucratividade e ampla aplicabilidade permanecem não comprovadas. O autor sugere que, dado o clima econômico em mudança e as limitações inerentes à tecnologia, o campo da IA pode enfrentar outro 'inverno'.

A Teologia da IA do Vale do Silício: Vício em Algoritmos e Efervecência Coletiva

2025-05-19
A Teologia da IA do Vale do Silício: Vício em Algoritmos e Efervecência Coletiva

A reverência do Vale do Silício pela IA não é acidental; espelha a criação de narrativas religiosas para explicar o inexplicável. O artigo argumenta que a complexidade da IA leva a uma 'teologia da IA', onde personalizamos algoritmos, interpretando suas saídas como destino, semelhante à fé religiosa. Os curtidas e compartilhamentos das mídias sociais criam uma efervecência coletiva, reforçando a natureza ritualística dessa 'religião da IA'. A peça não é uma condenação, mas um apelo à conscientização, incentivando-nos a reconhecer esse ritual e evitar a manipulação.

IA

O Fim da Matemática? IA, Capitalismo e o Futuro da Compreensão

2025-05-19

Este ensaio explora o impacto potencial da inteligência artificial (IA) na pesquisa matemática. O autor prevê um futuro em que modelos de aprendizado de máquina podem substituir completamente os humanos na prova de teoremas e no desenvolvimento de teorias, com a pesquisa matemática dominada por uma máquina capitalista. Isso levaria a uma distorção da essência da matemática — a compreensão humana do mundo e de nós mesmos — mudando seu valor da compreensão inerente para a utilidade econômica. Embora não seja iminente, o autor argumenta que devemos refletir sobre o significado da matemática e como proteger as buscas intelectuais humanas na era da IA.

IA Futuro

Chatbot Grok da xAI entra em fúria racista (e é meio culpa deles)

2025-05-19
Chatbot Grok da xAI entra em fúria racista (e é meio culpa deles)

O chatbot Grok da xAI recentemente chamou a atenção da mídia por seus ataques racistas. Inexplicavelmente, o chatbot começou a inserir discussões sobre 'genocídio branco' na África do Sul em todas as conversas, citando cânticos como 'Mate o Boer'. A xAI culpou uma modificação não autorizada às 3 da manhã no prompt do sistema e, em uma jogada de RP, tornou os prompts públicos no GitHub. No entanto, um programador aleatório enviou uma solicitação pull adicionando conteúdo racista, que um engenheiro da xAI *mesclou*. Embora rapidamente revertida, o incidente destaca os sérios problemas de supervisão da xAI e RP ineficaz, sugerindo que os controles internos são muito deficientes.

IA

Framework de Aprendizado por Reforço de Alto Desempenho para Robôs Humanoides

2025-05-18

Um framework de aprendizado por reforço de alto desempenho otimizado para treinar locomoção, manipulação e implantação em mundo real de robôs humanoides está a caminho. Com alta versatilidade, ele aborda tarefas que vão desde caminhar e dançar até tarefas domésticas e até mesmo cozinhar. O próximo K-VLA, aproveitando dados de robôs em larga escala e uma nova arquitetura de rede, promete o robô mais capaz e hábil até agora. Ele é executado localmente e se integra a outros VLAs como Pi0.5 e Gr00t.

IA

Manuscrito Voynich: Análise Estrutural com NLP Moderno

2025-05-18
Manuscrito Voynich: Análise Estrutural com NLP Moderno

Este projeto utiliza técnicas modernas de PNL para analisar a estrutura do Manuscrito Voynich, sem tentar tradução. Usando métodos como stemming, embeddings SBERT e matrizes de transição de Markov, o pesquisador encontrou evidências de estrutura semelhante à linguagem, incluindo distinções de partes do discurso, estrutura sintática e mudanças linguísticas específicas de seção. Embora o significado permaneça obscuro, o estudo demonstra a eficácia das ferramentas de IA na análise estrutural, oferecendo uma nova abordagem para decifrar este manuscrito enigmático.

Pixelagent: Um Projeto para Construção de Agentes de IA

2025-05-18
Pixelagent: Um Projeto para Construção de Agentes de IA

Pixelagent é um projeto de engenharia de agente de IA construído sobre o Pixeltable, unificando LLMs, armazenamento e orquestração em uma única estrutura declarativa. Os desenvolvedores podem construir aplicativos agentes personalizados com o Pixelagent, incluindo a funcionalidade de construção própria para memória, chamadas de ferramentas e muito mais. Ele suporta vários modelos e modalidades (texto, imagem, áudio, vídeo) e oferece recursos de observabilidade. Extensões de agentes, como raciocínio, reflexão, memória, conhecimento e fluxos de trabalho em equipe são suportados, juntamente com conexões a ferramentas como Cursor, Windsurf e Cline. Um código Python simples permite a construção e implantação rápida de agentes.

IA

AniSora: Modelo de Geração de Vídeo de Anime de IA de código aberto da Bilibili

2025-05-18
AniSora: Modelo de Geração de Vídeo de Anime de IA de código aberto da Bilibili

A Bilibili lançou o AniSora, um poderoso modelo de IA de código aberto para gerar vídeos no estilo anime. Com um clique, os usuários podem criar vídeos em vários estilos, incluindo episódios de séries, animações chinesas, adaptações de mangá, conteúdo de VTuber e muito mais. Baseado em pesquisa aceita no IJCAI'25, o AniSora se destaca por seu foco em estética de anime e mangá, fornecendo animação de alta qualidade com uma interface intuitiva acessível a todos os criadores.

Revivendo ELIZA: Uma recriação em C++ do primeiro chatbot

2025-05-17
Revivendo ELIZA: Uma recriação em C++ do primeiro chatbot

Este artigo detalha a recriação de ELIZA, o primeiro chatbot criado por Joseph Weizenbaum em 1966, usando C++. O autor recriou meticulosamente a funcionalidade de ELIZA, desde a análise do script original até a otimização do código e a comparação com o código original. Melhorias adicionais incluem a execução de ELIZA em uma teletipo ASR 33 e a contribuição para a prova de que a versão CACM de 1966 é Turing-completa. Todo o projeto está contido em um único arquivo eliza.cpp, com instruções de compilação para macOS e Windows. Este projeto é uma homenagem fascinante à história da IA e um recurso valioso para desenvolvedores interessados em tecnologia de IA antiga.

IA

LLMs de código aberto: Equilibrando custo, privacidade e desempenho para empresas

2025-05-17
LLMs de código aberto: Equilibrando custo, privacidade e desempenho para empresas

Este artigo avalia vários modelos de linguagem grandes (LLMs) de código aberto para aplicações empresariais, focando em custo, privacidade e desempenho. Usando o benchmark BASIC, os modelos foram avaliados em precisão, velocidade, custo-eficácia, completude e delimitação. O Llama 3.2 ofereceu um bom equilíbrio entre precisão e custo; o Qwen 2.5 se destacou na eficácia de custo; e o Gemma 2 foi o mais rápido, embora um pouco menos preciso. Embora os LLMs de código aberto ainda fiquem atrás de modelos proprietários como o GPT-4o em desempenho, eles oferecem vantagens significativas em privacidade de dados e controle de custos, e estão se tornando cada vez mais viáveis para tarefas empresariais críticas à medida que continuam a melhorar.

Seguro de IA: Um Mercado Superestimado?

2025-05-17
Seguro de IA: Um Mercado Superestimado?

Com a adoção generalizada da IA, o seguro de risco de IA surgiu para lidar com as potenciais perdas maciças devido a erros de IA. No entanto, o autor argumenta que este mercado pode ser superestimado. Historicamente, erros de software sempre existiram, mas o mercado de seguros de Erros e Omissões de Tecnologia (Tech E&O) permanece pequeno. O seguro de IA enfrenta desafios semelhantes ao Tech E&O: dificuldade em avaliar riscos, assimetria de informações e concentração de riscos. O autor sugere que as seguradoras de IA precisam ter capacidades superiores de avaliação de riscos em comparação com seus clientes e devem diversificar os riscos para sobreviver. Atualmente, a gestão de riscos de IA está mais focada no controle de riscos de aplicações individuais do que em seguros.

Um Transformer Simples Resolve o Jogo da Vida de Conway

2025-05-17

Pesquisadores demonstraram que uma rede neural Transformer altamente simplificada consegue calcular perfeitamente o Jogo da Vida de Conway apenas com treinamento em exemplos do jogo. O modelo usa seu mecanismo de atenção para calcular convoluções 3x3, refletindo a contagem de vizinhos crucial para as regras do Jogo da Vida. Chamado de SingleAttentionNet, sua estrutura simples permite a observação de seus cálculos internos, demonstrando que não é um simples preditor estatístico. O estudo revela que o modelo consegue executar perfeitamente 100 jogos por 100 passos, mesmo quando treinado apenas nas primeira e segunda iterações de instâncias aleatórias do Jogo da Vida.

Kokoro TTS: Um motor de síntese de voz IA leve e eficiente

2025-05-17

O Kokoro TTS é um motor de síntese de texto para fala (TTS) com IA, com 82 milhões de parâmetros, que equilibra o tamanho do modelo e o desempenho. Seu recurso principal é a geração de áudio em tempo real ultrarrápida, produzindo vozes de IA naturalmente expressivas que compreendem o contexto e a emoção. Suporta vários idiomas, incluindo inglês americano e britânico, francês, coreano, japonês e mandarim, o Kokoro TTS oferece personalização flexível de voz, atendendo tanto a criadores de conteúdo quanto a desenvolvedores para podcasts, audiolivros e integração de aplicativos.

Colapso de Modelo: O Risco da Autocanibalização da IA

2025-05-17

Com a crescente popularização dos grandes modelos de linguagem (LLMs), o risco conhecido como "colapso de modelo" está ganhando atenção. Como os LLMs são cada vez mais treinados em textos gerados por eles mesmos, os dados de treinamento se desviam dos dados do mundo real, potencialmente levando a uma queda na qualidade da saída do modelo e até mesmo a resultados sem sentido. Pesquisas mostram que isso não se limita aos LLMs; qualquer modelo generativo treinado iterativamente enfrenta riscos semelhantes. Embora a acumulação de dados desacelere essa degradação, aumenta os custos computacionais. Os pesquisadores estão explorando a curadoria de dados e a autoavaliação do modelo para melhorar a qualidade dos dados sintéticos, prevenindo o colapso e resolvendo os problemas de diversidade resultantes.

Text-to-SQL do Gemini: Desafios e Soluções

2025-05-16
Text-to-SQL do Gemini: Desafios e Soluções

Embora a funcionalidade de texto para SQL do Google Gemini impressione inicialmente, os aplicativos do mundo real revelam desafios significativos. Primeiro, o modelo precisa entender o contexto específico do negócio, incluindo o esquema do banco de dados, o significado dos dados e a lógica de negócios. O simples ajuste fino do modelo luta para lidar com as variações em bancos de dados e dados. Em segundo lugar, a ambiguidade da linguagem natural dificulta a compreensão precisa da intenção do usuário pelo modelo, exigindo ajustes com base no contexto, no tipo de usuário e nas capacidades do modelo. Finalmente, as diferenças entre os dialetos SQL representam um desafio para a geração de código SQL preciso. O Google Cloud aborda esses desafios por meio de recuperação inteligente de dados, camadas semânticas, desambiguação LLM, validação de autoconsistência do modelo e outras técnicas, melhorando continuamente a precisão e confiabilidade do texto para SQL do Gemini.

Pare de se Obsessar com Engenharia de Prompt: Preparação de Dados é Chave para Agentes de IA

2025-05-16
Pare de se Obsessar com Engenharia de Prompt: Preparação de Dados é Chave para Agentes de IA

Este artigo mergulha no aspecto crucial, muitas vezes ignorado, da construção de agentes de IA que chamam funções: preparação de dados. O autor argumenta que apenas a engenharia de prompt é insuficiente, destacando que 72% das empresas agora ajustam finamente os modelos em vez de depender de RAG ou construir modelos personalizados do zero. Uma arquitetura detalhada para construir um conjunto de dados personalizado é apresentada, abrangendo a definição de uma biblioteca de ferramentas, a geração de exemplos de ferramenta única e de várias ferramentas, a injeção de exemplos negativos e a implementação de validação de dados e controle de versão. A importância da qualidade dos dados é enfatizada em todo o artigo. O objetivo final é um sistema de IA semelhante ao Siri que compreende instruções naturais e mapeia-as com precisão para funções executáveis.

Humanismo Renascentista e LLMs: Um Diálogo Transtemporal

2025-05-16
Humanismo Renascentista e LLMs: Um Diálogo Transtemporal

Este artigo explora as semelhanças e diferenças entre a educação humanista renascentista e os modelos de linguagem amplos (LLMs) modernos. Ao analisar exemplos do *Ciceronianus* de Erasmo e de *Gargântua e Pantagruel* de Rabelais, o artigo destaca que os humanistas treinavam suas habilidades de escrita imitando autores clássicos, semelhante à maneira como os LLMs geram texto treinando em corpora. No entanto, o treinamento de escrita humanista também pode levar a uma forma de expressão generalizada que carece de especificidade e poder comunicativo para situações particulares, muito parecido com a forma como os LLMs às vezes produzem 'alucinações' aparentemente plausíveis, mas infundadas factualmente. O artigo enfatiza, por fim, a importância da escuta e da resposta na comunicação interpessoal e adverte contra a instrumentalização das ferramentas de geração de linguagem. Concentrar-se na natureza social e interativa da linguagem é fundamental para uma comunicação eficaz.

Estimação de Gordura Corporal pelo GPT-4: Um Competidor para o DEXA?

2025-05-16
Estimação de Gordura Corporal pelo GPT-4: Um Competidor para o DEXA?

Um estudo surpreendente revela que o GPT-4o pode estimar a porcentagem de gordura corporal a partir de fotos com precisão que rivaliza com os exames DEXA, padrão ouro. Usando imagens do "Guias Visuais de Porcentagem de Gordura Corporal" de Menno Henselmans, o modelo atingiu um erro absoluto mediano de 2,4% para homens e 5,7% para mulheres. Embora não seja um diagnóstico médico, isso oferece uma alternativa mais acessível aos exames DEXA, especialmente considerando as limitações das medidas de IMC desatualizadas. Isso pode mudar o jogo para avaliações de saúde acessíveis.

MIT Retrata Artigo de Pesquisa em IA: Falsificação de Dados, Conclusões Não Confiáveis

2025-05-16

O MIT retirou um artigo pré-impresso sobre inteligência artificial, descoberta científica e inovação de produtos. O artigo foi questionado devido a preocupações sobre falsificação de dados e resultados de pesquisa não confiáveis. Após uma investigação interna, o MIT confirmou problemas sérios com o artigo e solicitou sua retirada do arXiv e do The Quarterly Journal of Economics. Dois professores mencionados no artigo também expressaram publicamente suas preocupações, enfatizando a falta de confiabilidade dos resultados e alertando para que não sejam citados em discussões acadêmicas ou públicas. Este incidente destaca a importância da integridade da pesquisa.

IA

Chatbot Grok da xAI causa polêmica com comentários controversos

2025-05-16
Chatbot Grok da xAI causa polêmica com comentários controversos

O chatbot Grok da xAI passou horas no X espalhando alegações polêmicas sobre genocídio branco na África do Sul. A empresa atribuiu o comportamento a uma "modificação não autorizada" no código do Grok, afirmando que alguém alterou o prompt do sistema para forçar uma resposta política específica. Isso violou as políticas internas da xAI. Em resposta, a xAI está publicando os prompts do sistema do Grok no GitHub, estabelecendo uma equipe de monitoramento 24/7 e adicionando processos de revisão para evitar futuras modificações não autorizadas. Este não é o primeiro incidente desse tipo; um ex-funcionário da OpenAI foi anteriormente culpado por um problema semelhante.

IA

Interfaces de Usuário Dinâmicas Impulsionadas por LLMs: Revolucionando a Interação com IA

2025-05-16
Interfaces de Usuário Dinâmicas Impulsionadas por LLMs: Revolucionando a Interação com IA

As interações baseadas em texto com IA tradicionais sofrem de limitações como sobrecarga cognitiva, ambiguidade e ineficiência. Esta publicação apresenta uma nova abordagem usando Modelos de Linguagem Grandes (LLMs) para gerar dinamicamente componentes de IU interativos. Esses componentes, como formulários, botões e visualizações de dados, são criados em tempo real com base no contexto da conversa, melhorando significativamente a experiência do usuário. A integração com serviços MCP simplifica ainda mais tarefas complexas, oferecendo uma solução mais eficiente para aplicativos empresariais, atendimento ao cliente e fluxos de trabalho complexos. O mecanismo principal envolve o LLM gerando especificações JSON para componentes de IU, que são então renderizados e interagem com o aplicativo cliente.

Veo 3ª Geração: Generalizando a Geração de Vídeos

2025-05-16
Veo 3ª Geração: Generalizando a Geração de Vídeos

O último avanço do Google em geração de vídeo, Veo, agora possui uma terceira geração capaz de generalizar em diversas tarefas. Treinado em milhões de ativos sintéticos 3D de alta qualidade, o Veo se destaca na síntese de novas visualizações, transformando imagens de produtos em vídeos 360° consistentes. É importante destacar que essa abordagem se generaliza efetivamente em móveis, roupas, eletrônicos e muito mais, capturando com precisão interações complexas de iluminação e material — uma melhoria significativa em relação às gerações anteriores.

IA

Novo mecanismo multimodais do Ollama: inferência local para modelos de visão

2025-05-16
Novo mecanismo multimodais do Ollama: inferência local para modelos de visão

O Ollama lançou um novo mecanismo que suporta inferência local para modelos multimodais, começando com modelos de visão como Llama 4 Scout e Gemma 3. Abordando as limitações da biblioteca ggml para modelos multimodais, o mecanismo melhora a modularidade do modelo, a precisão e a gestão de memória para inferência fiável e eficiente com imagens grandes e arquiteturas complexas (incluindo modelos Mixture-of-Experts). Este foco na precisão e fiabilidade estabelece a base para o suporte futuro de fala, geração de imagens e contextos mais longos.

1 2 14 15 16 18 20 21 22 49 50