Instruções concisas causam alucinações em IA

2025-05-13
Instruções concisas causam alucinações em IA

Um novo estudo da Giskard revela que instruir chatbots de IA a serem concisos pode paradoxalmente aumentar as alucinações, especialmente em tópicos ambíguos. Os pesquisadores descobriram que prompts concisos limitam a capacidade do modelo de identificar e corrigir erros, priorizando a brevidade em detrimento da precisão. Mesmo modelos avançados como o GPT-4 são afetados. Isso destaca a tensão entre a experiência do usuário e a precisão factual, incentivando os desenvolvedores a projetar cuidadosamente os prompts do sistema.