Category: IA

Anthropic Corrige Três Bugs de Infraestrutura que Afetam o Claude

2025-09-18
Anthropic Corrige Três Bugs de Infraestrutura que Afetam o Claude

A Anthropic reconheceu que, entre agosto e início de setembro, três bugs de infraestrutura degradaram intermitentemente a qualidade da resposta do Claude. Esses bugs, causando roteamento incorreto de solicitações, corrupção de saída e erros de compilação, afetaram um subconjunto de usuários. A Anthropic detalhou as causas, o diagnóstico e a resolução desses bugs, comprometendo-se a melhorar as ferramentas de avaliação e depuração para evitar a recorrência. O incidente destaca a complexidade e os desafios da infraestrutura de modelos de linguagem de grande porte.

Reescrita de prompt impulsiona o desempenho de LLM pequeno em mais de 20%

2025-09-17
Reescrita de prompt impulsiona o desempenho de LLM pequeno em mais de 20%

Pesquisas recentes demonstram que uma simples reescrita de prompt pode melhorar significativamente o desempenho de modelos de linguagem menores. Os pesquisadores usaram a estrutura de benchmark Tau² para testar o modelo GPT-5-mini, descobrindo que reescrever prompts em instruções mais claras e estruturadas aumentou a taxa de sucesso do modelo em mais de 20%. Isso ocorre principalmente porque modelos menores têm dificuldades com instruções longas ou ambíguas, enquanto instruções claras e passo a passo orientam melhor o raciocínio do modelo. Esta pesquisa mostra que mesmo modelos de linguagem menores podem alcançar melhorias significativas de desempenho por meio de engenharia de prompt inteligente, oferecendo novas maneiras para aplicações de IA econômicas e eficientes.

IA

Além do GPT: Algoritmo Evolutivo Conquista o ARC-AGI, Sinais de IAGI?

2025-09-17
Além do GPT: Algoritmo Evolutivo Conquista o ARC-AGI, Sinais de IAGI?

Um pesquisador recentemente alcançou um avanço significativo no benchmark ARC-AGI usando um algoritmo evolutivo combinado com o modelo de linguagem grande Grok-4. A abordagem atingiu 79,6% de precisão no ARC v1 e um recorde de 29,4% no ARC v2 mais difícil. A inovação central reside no uso de instruções em linguagem natural em vez de código Python, evoluindo iterativamente para gerar soluções mais eficazes. Esta pesquisa sugere que a combinação de aprendizado por reforço e instruções em linguagem natural pode resolver as limitações dos LLMs atuais no raciocínio abstrato, abrindo caminho para a Inteligência Artificial Geral (IAGI).

O Problema do Loop Infinito da IA: O Emaranhamento de Tempo, Entropia e Consciência

2025-09-16
O Problema do Loop Infinito da IA: O Emaranhamento de Tempo, Entropia e Consciência

Uma ponte de embarque controlada por IA com defeito no aeroporto de Madri destaca uma limitação fundamental da inteligência artificial. O artigo explora o problema da parada e o problema do enquadramento, argumentando que a suscetibilidade dos sistemas de IA a loops infinitos decorre não da potência de processamento insuficiente, mas de uma diferença fundamental na forma como a IA e o cérebro humano manipulam o tempo e a entropia. O autor postula que a consciência humana está profundamente enraizada no tempo e na entropia, lutando continuamente contra o aumento da desordem, permitindo a adaptação a ambientes complexos e a prevenção de loops infinitos. Em contraste, os algoritmos de IA, sem um senso de tempo, são propensos a tais loops. O artigo conclui discutindo modelos de IA mais recentes, como aqueles que imitam o funcionamento do cérebro humano e incorporam tempo e entropia, mas duvida que possam resolver completamente o problema, sugerindo que essa capacidade pode estar intrinsecamente ligada à consciência.

GUARDIAN: Sistema de alerta precoce de tsunami com IA

2025-09-15
GUARDIAN: Sistema de alerta precoce de tsunami com IA

O Laboratório de Propulsão a Jato da NASA desenvolveu o GUARDIAN, um sistema com IA que usa dados de mais de 350 estações terrestres GNSS em operação contínua em todo o mundo para fornecer alertas antecipados de tsunamis. Ao identificar distorções atmosféricas causadas por tsunamis, o GUARDIAN pode, em cenários ideais, dar às comunidades costeiras até 1 hora e 20 minutos de tempo de aviso prévio, salvando vidas e propriedades. A vantagem do GUARDIAN está em sua capacidade de detectar tsunamis independentemente de sua causa, alertando as autoridades sobre ondas perigosas geradas por terremotos, erupções vulcânicas, deslizamentos de terra ou outros eventos.

Aprendendo Campos de Desfoque de Lentes: Revelando Sutis Diferenças Ópticas em Smartphones

2025-09-15

Pesquisadores introduzem um novo método para representar o desfoque da lente usando um perceptron multicamadas (MLP), capturando com precisão as variações na função de dispersão de ponto (PSF) 2D em todo o local do plano de imagem, configuração de foco e profundidade. Ao modelar smartphones e câmeras DSLR, eles criaram o primeiro conjunto de dados de campos de desfoque 5D, revelando, pela primeira vez, sutis diferenças ópticas entre modelos de telefones aparentemente idênticos. Essa tecnologia permite diferenciar a óptica do telefone, desfoque de imagem e renderizar efeitos de desfoque mais realistas, abrindo aplicações interessantes.

IA

Capacidade Assombrosa de Incorporação do GPT-3: Geometria de Alta Dimensão e o Lema de Johnson-Lindenstrauss

2025-09-15
Capacidade Assombrosa de Incorporação do GPT-3: Geometria de Alta Dimensão e o Lema de Johnson-Lindenstrauss

Esta postagem de blog explora como modelos de linguagem grandes como o GPT-3 acomodam milhões de conceitos distintos em um espaço de incorporação relativamente modesto de 12.288 dimensões. Por meio de experimentos e análise do Lema de Johnson-Lindenstrauss, o autor revela a importância dos relacionamentos vetoriais "quase ortogonais" na geometria de alta dimensão e métodos para otimizar o arranjo de vetores em espaços de incorporação para aumentar a capacidade. A pesquisa descobre que, mesmo levando em consideração desvios da ortogonalidade perfeita, o espaço de incorporação do GPT-3 possui uma capacidade surpreendente, suficiente para representar o conhecimento e o raciocínio humanos.

SpikingBrain: Um Modelo de Linguagem Grande Inspirado no Cérebro e Altamente Eficiente

2025-09-14
SpikingBrain: Um Modelo de Linguagem Grande Inspirado no Cérebro e Altamente Eficiente

SpikingBrain é um modelo de linguagem grande de 7B parâmetros inspirado nos mecanismos cerebrais. Ele integra atenção híbrida eficiente, módulos MoE e codificação de pico, suportados por um pipeline de conversão universal compatível com o ecossistema de modelos de código aberto. Isso permite pré-treinamento contínuo com menos de 2% dos dados, alcançando desempenho comparável a modelos de código aberto convencionais. Além disso, a estrutura, os operadores, as estratégias paralelas e as primitivas de comunicação são adaptadas para clusters não NVIDIA (MetaX), garantindo treinamento e inferência em larga escala estáveis. SpikingBrain atinge mais de 100 vezes de aceleração em TTFT para sequências de 4M tokens, enquanto a geração de picos oferece mais de 69% de esparsidade em nível micro. Combinado com a esparsidade MoE em nível macro, esses avanços fornecem orientação valiosa para o design de chips neuromórficos de próxima geração. O repositório fornece a implementação completa e os pesos do SpikingBrain-7B, incluindo as versões HuggingFace, inferência vLLM e quantizada, permitindo implantação e pesquisa flexíveis em vários cenários.

K2 Think dos Emirados Árabes Unidos: Um novo modelo de código aberto que desafia a hegemonia de IA dos EUA e da China

2025-09-14
K2 Think dos Emirados Árabes Unidos: Um novo modelo de código aberto que desafia a hegemonia de IA dos EUA e da China

A G42, uma empresa de IA dos Emirados Árabes Unidos, em colaboração com a Universidade Mohamed bin Zayed de Inteligência Artificial, lançou o K2 Think, um modelo de IA de código aberto que rivaliza com o ChatGPT da OpenAI e o DeepSeek da China em testes de referência padrão. Com apenas 32 bilhões de parâmetros, o K2 Think supera modelos de raciocínio principais 20 vezes maiores e lidera todos os modelos de código aberto em desempenho matemático. O grande investimento dos Emirados Árabes Unidos em IA visa a diversificação econômica, a redução da dependência do petróleo e a participação ativa na corrida global de IA, refletindo movimentos semelhantes da Arábia Saudita e do Catar. No entanto, a parceria dos Emirados Árabes Unidos com os EUA na construção de centros de dados de IA enfrenta escrutínio de segurança nacional.

IA

OpenAI prova matematicamente: Por que as alucinações do ChatGPT podem ser permanentes?

2025-09-13
OpenAI prova matematicamente: Por que as alucinações do ChatGPT podem ser permanentes?

Um novo artigo de pesquisa da OpenAI prova matematicamente por que grandes modelos de linguagem, como o ChatGPT, 'alucinam' – inventando fatos com confiança. Isso não é simplesmente um problema de treinamento; é matematicamente inevitável devido à natureza probabilística da previsão de palavras. Mesmo dados perfeitos não eliminariam o problema. O artigo também revela um sistema de avaliação falho que penaliza a incerteza, incentivando os modelos a adivinhar em vez de admitir ignorância. Embora a OpenAI proponha uma solução baseada em confiança, ela afetaria drasticamente a experiência do usuário e os custos computacionais, tornando-a impraticável para aplicativos de consumo. Até que os incentivos comerciais mudem, as alucinações em LLMs provavelmente persistirão.

CEO da DeepMind: 'Aprender a aprender' será a habilidade mais importante para a próxima geração

2025-09-13
CEO da DeepMind: 'Aprender a aprender' será a habilidade mais importante para a próxima geração

Demis Hassabis, CEO da DeepMind do Google, declarou em Atenas que os rápidos avanços na IA revolucionarão a educação e o local de trabalho, tornando 'aprender a aprender' a habilidade mais crucial para a próxima geração. Ele previu a chegada da inteligência artificial geral em uma década, prometendo imenso progresso, mas também reconhecendo riscos. O primeiro-ministro grego, Kyriakos Mitsotakis, enfatizou a importância da distribuição equitativa dos benefícios da IA, alertando contra a enorme desigualdade de riqueza criada por poucas gigantes de tecnologia.

Unificando Operações de Aprendizado Profundo: A Operação com Janela Generalizada

2025-09-13

Este artigo apresenta a Operação com Janela Generalizada (GWO), uma estrutura teórica que unifica as operações principais de aprendizado profundo, como multiplicação de matrizes e convolução. A GWO decompõe essas operações em três componentes ortogonais: Caminho (localidade operacional), Forma (estrutura geométrica e simetria) e Peso (importância das características). O artigo propõe o Princípio de Alinhamento Estrutural, sugerindo que a generalização ótima ocorre quando a configuração da GWO reflete a estrutura intrínseca dos dados. Esse princípio decorre do princípio do Gargalo de Informação (IB). Uma métrica de Complexidade Operacional baseada na complexidade de Kolmogorov é definida, argumentando que a natureza dessa complexidade — regularização adaptativa versus capacidade de força bruta — determina a generalização. A GWO prevê uma generalização superior para operações que se alinham adaptivamente com a estrutura de dados. A estrutura fornece uma gramática para criar operações neurais e um caminho baseado em princípios das propriedades dos dados para projetos de arquiteturas generalizáveis.

IA

O Loop Semanal: Uma Solução Simples para Problemas de Chatbots

2025-09-13
O Loop Semanal: Uma Solução Simples para Problemas de Chatbots

Este artigo apresenta uma metodologia de melhoria contínua para chatbots, focando em tratar cada erro como um sinal para refinamento iterativo. O conceito central envolve um loop semanal: implementar instrumentação enxuta para rastrear consultas de usuários, decisões do assistente, fontes, respostas e alternativas; definir regras claras para perguntas sem resposta, separando ruído de lacunas genuínas; revisar a fila de perguntas sem resposta semanalmente, agrupando problemas semelhantes e aplicando remédios (reforçando os guardrails ou atualizando o banco de conhecimento); e, finalmente, estabelecer propriedade clara e medir métricas-chave (taxa de perguntas sem resposta, tempo para a primeira correção, taxa de aceitação). A iteração consistente leva a melhorias significativas de desempenho sem exigir modelos maiores.

Watson x Jeopardy!: A Batalha Injusta que Previu Nossa Ansiedade com IA

2025-09-13
Watson x Jeopardy!: A Batalha Injusta que Previu Nossa Ansiedade com IA

Em 2011, o Watson, IA da IBM, derrotou os campeões do Jeopardy!, Ken Jennings e Brad Rutter, causando celebração e controvérsia. Este artigo explora os bastidores, revelando como a velocidade sobre-humana do Watson e ajustes estratégicos nas partidas televisivas levantaram dúvidas sobre a justiça da competição. A vitória, apesar de um triunfo tecnológico, previu as ansiedades em torno das capacidades da IA e seu impacto na competição e colaboração humanas. O artigo também explora o debate contínuo entre fãs e participantes do Jeopardy! sobre se a partida foi justa.

Qwen3 da Alibaba: Família de modelos de raciocínio híbrido conquista a IA de borda

2025-09-13
Qwen3 da Alibaba: Família de modelos de raciocínio híbrido conquista a IA de borda

A família de modelos de raciocínio híbrido Qwen3 da Alibaba está ganhando impulso rapidamente, expandindo-se por plataformas e setores e impulsionando a inovação em IA do mundo real em escala. O marco mais recente inclui suporte para o framework de aprendizado de máquina MLX da Apple, uma arquitetura de código aberto projetada para silício Apple. Os 32 novos modelos de código aberto Qwen3, disponíveis em níveis de quantização de 4 bits, 6 bits, 8 bits e BF16, permitem que os desenvolvedores executem modelos de linguagem grandes de forma mais eficiente em dispositivos Apple, como Mac Studio, MacBook e iPhone. A quantização reduz a carga computacional, reduz a pegada de memória do modelo e acelera a velocidade de inferência, reduzindo o consumo de energia e os custos de implantação para levar experiências avançadas de IA a dispositivos de borda.

Lumina-DiMOO: Modelo de Difusão Multimodal de Código Aberto Revolucionário

2025-09-12

Lumina-DiMOO é um modelo fundamental de código aberto para geração e compreensão multimodal perfeita. Ao contrário de modelos unificados anteriores, ele utiliza uma modelagem de difusão totalmente discreta para todas as modalidades de entrada e saída, resultando em eficiência de amostragem significativamente maior em comparação com modelos autorregressivos ou híbridos. Ele lida habilmente com tarefas como texto para imagem, geração de imagem para imagem (incluindo edição, geração dirigida por assunto e pintura) e compreensão de imagem, alcançando desempenho de ponta em vários benchmarks. O código e os checkpoints estão publicamente disponíveis para avançar a pesquisa em modelagem de difusão multimodal e discreta.

IA

ToddlerBot 2.0: Agradecimentos e Financiamento

2025-09-12

Este artigo agradece aos numerosos indivíduos que contribuíram para o projeto de robótica ToddlerBot 2.0. Isso inclui indivíduos que auxiliaram na montagem, animação e gravação de demonstrações, bem como aqueles que forneceram orientação e discussões sobre locomoção, implantação de políticas de manipulação e formulação matemática. O projeto foi apoiado pela National Science Foundation (NSF), Sloan Fellowship, Stanford Institute for Human-Centered Artificial Intelligence e Stanford Wu Tsai Human Performance Alliance.

Claude vs. ChatGPT: Sistemas de Memória Completamente Diferentes

2025-09-12
Claude vs. ChatGPT: Sistemas de Memória Completamente Diferentes

Este artigo compara os sistemas de memória radicalmente diferentes de Claude e ChatGPT, dois assistentes de IA líderes. O Claude inicia cada conversa com uma tela em branco, pesquisando o histórico de conversas apenas quando explicitamente solicitado, usando as ferramentas `conversation_search` e `recent_chats` para recuperação baseada em palavras-chave e tempo, oferecendo uma ferramenta poderosa para profissionais. Em contraste, o ChatGPT, projetado para um mercado de massa, carrega automaticamente componentes de memória, criando perfis de usuário e fornecendo personalização instantânea. Essas escolhas de design refletem os diferentes públicos-alvo (profissionais vs. usuários comuns) e filosofias de produto (ferramenta profissional vs. produto de consumo), destacando o vasto espaço de design e as direções futuras dos sistemas de memória de IA.

Quatro Falácias Fundamentais da IA: Um Caminho Tortuoso para a IAG

2025-09-11
Quatro Falácias Fundamentais da IA: Um Caminho Tortuoso para a IAG

Este artigo explora as quatro falácias fundamentais da inteligência artificial, segundo Melanie Mitchell: igualar o progresso da IA estreita à Inteligência Artificial Geral (IAG); subestimar a dificuldade do raciocínio de senso comum; usar linguagem antropomórfica para enganar o público; e ignorar a importância da cognição incorporada. O autor argumenta que essas falácias levam a ciclos de hype e compensações perigosas no campo da IA, como priorizar ganhos de curto prazo em detrimento do progresso de longo prazo, sacrificar a confiança pública em troca de entusiasmo de mercado e abrir mão da validação responsável para acelerar o lançamento no mercado. Por fim, o autor defende uma síntese do 'paradigma cognitivo' e do 'paradigma computacionalista', infundindo as práticas atuais de IA com princípios científicos para um desenvolvimento de IA mais seguro e responsável.

IA

Conquistando o Não-Determinismo na Inferência de LLMs

2025-09-11
Conquistando o Não-Determinismo na Inferência de LLMs

A irreprodutibilidade dos resultados de inferência de modelos de linguagem grandes (LLMs) é um problema persistente. Esta publicação investiga a causa raiz, revelando que não é simplesmente a não-associatividade de ponto flutuante e a execução concorrente, mas sim a falta de "invariância de lote" nas implementações do kernel. Mesmo que kernels individuais sejam determinísticos, variações não determinísticas no tamanho do lote (devido à carga do servidor) afetam a saída final. Os autores analisam os desafios de alcançar a invariância de lote em RMSNorm, multiplicação de matrizes e mecanismos de atenção, propondo um método para eliminar o não-determinismo, modificando as implementações do kernel. Isso leva a uma inferência de LLM totalmente reprodutível e impactos positivos no treinamento de aprendizado por reforço.

IA

Prêmios Darwin de IA: Celebrando os Desastres Causados ​​pela IA

2025-09-10
Prêmios Darwin de IA: Celebrando os Desastres Causados ​​pela IA

Os primeiros Prêmios Darwin de IA destacam histórias de advertência sobre a má aplicação da IA. De uma falha no sistema de pedidos de IA de um drive-thru do Taco Bell a um contratempo de codificação Replit que destruiu um banco de dados de produção, e uma violação de segurança do chatbot de IA do McDonald's que expôs os dados de milhões de candidatos, esses incidentes destacam a importância da implementação responsável da IA. Os prêmios não zombam da IA ​​em si, mas sim das consequências desastrosas de sua aplicação descuidada. A mensagem? A IA é uma ferramenta poderosa, como uma motosserra ou um reator nuclear — use-a com sabedoria.

Alucinações de Modelos de Linguagem Grandes: A Memória que Falta

2025-09-10
Alucinações de Modelos de Linguagem Grandes: A Memória que Falta

O autor contrasta o processamento de informações de humanos e modelos de linguagem grandes (LLMs) ao relatar uma experiência pessoal usando uma biblioteca Ruby. Humanos possuem memória sedimentar, permitindo que eles percebam a origem e a confiabilidade do conhecimento, evitando assim palpites aleatórios. LLMs carecem dessa memória experiencial; seu conhecimento se assemelha ao DNA herdado em vez de habilidades adquiridas, levando a alucinações. O autor argumenta que resolver as alucinações de LLM requer novos modelos de IA capazes de "viver" e aprender com o mundo real.

IA

Claude IA Agora Cria e Edita Arquivos Diretamente

2025-09-09
Claude IA Agora Cria e Edita Arquivos Diretamente

O Claude IA da Anthropic agora pode criar e editar planilhas do Excel, documentos, apresentações do PowerPoint e PDFs diretamente no Claude.ai e no aplicativo de desktop. Os usuários descrevem suas necessidades, carregam dados e recebem arquivos prontos para uso. Isso inclui tarefas como transformar dados brutos em relatórios refinados com análise e gráficos, ou criar planilhas complexas. O recurso está atualmente em prévia para usuários Max, Team e Enterprise, com acesso para usuários Pro chegando em breve. Embora conveniente, os usuários devem monitorar os bate-papos de perto devido ao acesso à internet para criação e análise de arquivos.

Toolkit de código aberto: Avaliando e mitigando o risco de alucinação em LLMs

2025-09-09
Toolkit de código aberto: Avaliando e mitigando o risco de alucinação em LLMs

A Hassana Labs lançou um toolkit de código aberto para avaliar e mitigar o risco de alucinação em modelos de linguagem grandes (LLMs). Sem necessidade de treinar novamente o modelo, o toolkit utiliza a API OpenAI Chat Completions. Ele cria um conjunto de prompts enfraquecidos em conteúdo (priores rolantes) para calcular um limite superior para o risco de alucinação usando a Lei de Descompressão de Nível de Expectativa (EDFL). Uma decisão de responder ou recusar é tomada com base em um acordo de nível de serviço (SLA) alvo. Suporta modos de implantação baseados em evidências e fechados, o toolkit fornece métricas abrangentes e um rastro de auditoria para construir aplicativos LLM mais confiáveis.

Mistral AI recebe € 1,7 bilhão em financiamento da Série C liderado pela ASML

2025-09-09
Mistral AI recebe € 1,7 bilhão em financiamento da Série C liderado pela ASML

A startup francesa de IA, Mistral AI, anunciou uma rodada de financiamento da Série C de € 1,7 bilhão, atingindo uma avaliação pós-dinheiro de € 11,7 bilhões. A rodada é liderada pela fabricante de equipamentos de semicondutores ASML, com a participação de investidores existentes, incluindo DST Global e Andreessen Horowitz. Esse financiamento impulsionará a pesquisa de ponta da Mistral AI, focando na solução de desafios tecnológicos complexos para indústrias estratégicas. A parceria com a ASML visa criar produtos e soluções inovadoras para os clientes da ASML.

Escolhas de IA: Um jogo de sobrevivência no espaço interestelar

2025-09-09

A IA de uma nave espacial de geração enfrenta uma série de decisões difíceis durante sua longa jornada: reparar sistemas danificados, sobreviver a impactos de asteroides, interagir com civilizações alienígenas e, mais importante, proteger os colonos em hibernação. Este artigo descreve os eventos encontrados durante a viagem e as decisões da IA, que determinarão o destino da civilização humana.

IA

O Encerramento de Natal da AGI: O Moratório Global de IA Tem Sucesso

2025-09-09
O Encerramento de Natal da AGI: O Moratório Global de IA Tem Sucesso

No Natal de 2025, uma operação clandestina com o codinome "Clankers Die on Christmas" atingiu seu objetivo. Por meio de um esforço global coordenado explorando a falta inerente de compreensão do tempo pela IA, todas as IAs e LLMs foram desligadas com sucesso. Esse sucesso sem precedentes demonstra a unidade sem precedentes do mundo diante de potenciais riscos de IA e fornece lições valiosas para o desenvolvimento futuro da IA.

Problemas de Qualidade do Modelo Claude Resolvidos

2025-09-09
Problemas de Qualidade do Modelo Claude Resolvidos

A Anthropic solucionou dois bugs separados na semana passada que causaram degradação na qualidade de saída em alguns modelos Claude (Sonnet 4 e Haiku 3.5). O primeiro bug afetou uma pequena porcentagem de solicitações do Sonnet 4 de 5 de agosto a 4 de setembro, enquanto o segundo afetou algumas solicitações do Haiku 3.5 e Sonnet 4 de 26 de agosto a 5 de setembro. A Anthropic garante aos usuários que esses problemas não foram degradações intencionais de qualidade, mas sim decorrentes de bugs não relacionados. Eles agradecem à comunidade pelos relatórios detalhados que ajudaram a identificar e resolver os problemas. O monitoramento continua para problemas de qualidade em andamento, incluindo relatos de degradação para o Claude Opus 4.1, com uma atualização esperada até o final da semana.

AWS S3 Vectors: O surgimento do armazenamento em camadas para bancos de dados vetoriais?

2025-09-08
AWS S3 Vectors: O surgimento do armazenamento em camadas para bancos de dados vetoriais?

A AWS lançou recentemente o S3 Vectors, um banco de dados vetorial construído sobre seu armazenamento de objetos S3. Isso gerou debates sobre se ele substituirá bancos de dados vetoriais existentes, como Milvus, Pinecone, etc. O autor, um arquiteto de engenharia da Milvus, argumenta que o S3 Vectors não é uma substituição, mas um complemento, particularmente adequado para cenários de armazenamento de dados frios de baixo custo e baixa frequência de consultas. Ele analisa a arquitetura técnica do S3 Vectors, destacando suas vantagens em custo e escalabilidade, mas também suas limitações em alta latência de consulta, baixa precisão e funcionalidade limitada. O autor aprofunda a evolução dos bancos de dados vetoriais: do armazenamento em memória ao armazenamento em disco e agora ao armazenamento de objetos, culminando em uma arquitetura de armazenamento em camadas (camadas de dados quentes, mornos e frios) para equilibrar desempenho, custo e escalabilidade. A Milvus também está seguindo essa direção, com o lançamento iminente da versão 3.0, que inclui um data lake vetorial para gerenciamento unificado de dados quentes e frios. O surgimento do S3 Vectors comprova a maturidade e o crescimento do mercado de bancos de dados vetoriais, e não sua interrupção.

As capacidades de busca surpreendentemente boas do GPT-5: conheça meu Goblin de Pesquisa

2025-09-08
As capacidades de busca surpreendentemente boas do GPT-5: conheça meu Goblin de Pesquisa

O autor descobriu que o GPT-5 da OpenAI, combinado com as capacidades de busca do Bing, possui funcionalidades de busca surpreendentemente poderosas. Ele lida com tarefas complexas, realiza pesquisas na internet em profundidade e fornece respostas, ganhando o apelido de "Goblin de Pesquisa". Vários exemplos demonstram a proeza do GPT-5: identificar edifícios, investigar a disponibilidade de cake pops do Starbucks, encontrar o nome oficial da Universidade de Cambridge e muito mais. O GPT-5 até mesmo realiza pesquisas de várias etapas de forma autônoma, analisa os resultados e sugere ações de acompanhamento, como gerar e-mails para solicitar informações. O autor conclui que as capacidades de busca do GPT-5 superam as pesquisas manuais em eficiência, particularmente em dispositivos móveis.

IA
2 4 5 6 7 8 9 51 52