La IA no ve al gorila: los LLMs tienen dificultades con el análisis exploratorio de datos
Un estudio mostró que los estudiantes a quienes se les dieron hipótesis específicas para probar tenían menos probabilidades de notar anomalías obvias en sus datos, en comparación con los estudiantes que exploraban libremente. El autor luego probó modelos de lenguaje grandes (LLMs), ChatGPT 4 y Claude 3.5, en el análisis exploratorio de datos. Ambos modelos no pudieron identificar inicialmente patrones claros en sus visualizaciones generadas; solo después de proporcionar imágenes de las visualizaciones detectaron las anomalías. Esto destaca las limitaciones de las capacidades de análisis exploratorio de datos de los LLMs, mostrando un sesgo hacia el análisis cuantitativo en lugar del reconocimiento de patrones visuales. Esto es a la vez una fortaleza (evitando el sesgo cognitivo humano) y una debilidad (potencialmente perdiendo información crucial).
Leer más