IA falha em ver o gorila: LLMs têm dificuldades com análise exploratória de dados

2025-02-08

Um estudo mostrou que estudantes a quem foram dadas hipóteses específicas para testar tinham menos probabilidade de notar anomalias óbvias em seus dados, em comparação com estudantes que exploravam livremente. O autor então testou modelos de linguagem grandes (LLMs), ChatGPT 4 e Claude 3.5, em análise exploratória de dados. Ambos os modelos falharam em identificar inicialmente padrões claros em suas visualizações geradas; somente após fornecer imagens das visualizações eles detectaram as anomalias. Isso destaca as limitações das capacidades de análise exploratória de dados dos LLMs, mostrando um viés para análise quantitativa em vez de reconhecimento de padrões visuais. Isso é ao mesmo tempo uma força (evitando o viés cognitivo humano) e uma fraqueza (potencialmente perdendo insights cruciais).

Leia mais
IA