Category: IA

Henrique Godoy, 20 años: La promesa de la IA en Latinoamérica

2025-06-12
Henrique Godoy, 20 años: La promesa de la IA en Latinoamérica

Henrique Godoy, un prodigio brasileño de las matemáticas de 20 años, está revolucionando la IA en Latinoamérica. A los 15 años, fue el estudiante más joven en ser admitido en el prestigioso programa de matemáticas de la Universidad de São Paulo. Luego, recibió una beca sustancial para estudiar Ciencias de la Computación, logrando una clasificación entre los 200 mejores en la Olimpiada Brasileña de Matemáticas de las Universidades. Godoy fue pionero en la primera implementación exitosa de un Modelo de Lenguaje Grande (LLM) en el sector bancario de inversión latinoamericano, y fundó Doki, una plataforma fintech que administra más de R$ 10 millones para profesionales de la salud. Su trabajo ha recibido más de 500 citas, mostrando sus significativas contribuciones a la IA y la fintech. Los logros excepcionales de Godoy lo posicionan como una figura líder en el futuro de la IA.

IA

¿Agentes de IA: El próximo gran desastre de IA?

2025-06-11

Este artículo explora posibles desastres futuros de IA. Trazando paralelismos con los primeros accidentes ferroviarios y aéreos, el autor argumenta que las catástrofes de IA a gran escala son una posibilidad real. En lugar de centrarse en la simple desinformación de la IA, el autor enfatiza los riesgos que plantean los agentes de IA: IAs capaces de realizar tareas de forma autónoma, como búsquedas en la web y el envío de correos electrónicos. El autor predice que el primer gran desastre de IA probablemente se deba a un mal funcionamiento de un agente de IA en sistemas gubernamentales o corporativos, como la ejecución errónea de procesos de cobro de deudas, atención médica o arrendamiento. Además, el autor destaca los posibles peligros de los modelos de IA que se utilizan indebidamente para crear robots 'compañeros ideales'. En resumen, el autor advierte contra el rápido avance de la IA y sus riesgos potenciales, instando a que se implementen medidas de seguridad de IA más sólidas.

IA

El uso de las redes sociales aumenta la depresión en preadolescentes: Un estudio longitudinal

2025-06-11
El uso de las redes sociales aumenta la depresión en preadolescentes: Un estudio longitudinal

Un estudio longitudinal de tres años con casi 12.000 niños de 9 a 10 años revela una conexión significativa entre el aumento del uso de las redes sociales y el empeoramiento de los síntomas depresivos en preadolescentes. La investigación, publicada en JAMA Network Open, muestra que el aumento del uso de las redes sociales conduce a un aumento de los síntomas depresivos, no al revés. En promedio, el uso diario de las redes sociales por parte de los niños aumentó de 7 a 73 minutos durante tres años, coincidiendo con un aumento del 35% en los síntomas depresivos. Los investigadores señalan el ciberacoso y la interrupción del sueño como posibles factores contribuyentes. El estudio destaca la importancia de fomentar hábitos digitales saludables, sugiriendo conversaciones abiertas entre padres e hijos y estableciendo horarios sin pantalla.

Chatterbox: Modelo TTS de código abierto rivaliza con ElevenLabs y ofrece control de emociones

2025-06-11
Chatterbox: Modelo TTS de código abierto rivaliza con ElevenLabs y ofrece control de emociones

Resemble AI presenta Chatterbox, su primer modelo de texto a voz (TTS) de código abierto de grado de producción. Comparado con líderes de código cerrado como ElevenLabs, Chatterbox supera consistentemente en comparaciones directas. Con control de exageración de emociones y latencia ultrabaja (menos de 200 ms), es ideal para memes, videos, juegos y agentes de IA. Además, Chatterbox incorpora la marca de agua Perth para un uso responsable de la IA.

IA

El robot cuadrúpedo ANYmal se enfrenta al bádminton: el tiempo de reacción es el cuello de botella

2025-06-11
El robot cuadrúpedo ANYmal se enfrenta al bádminton: el tiempo de reacción es el cuello de botella

Investigadores de la ETH Zurich entrenaron a un robot cuadrúpedo, ANYmal, para jugar bádminton. Si bien ANYmal aprendió a evitar caídas y a evaluar riesgos en función de sus limitaciones de velocidad, su tiempo de reacción (alrededor de 0,35 segundos) es significativamente más lento que el de los jugadores humanos de élite (0,12-0,15 segundos). La percepción visual también supuso un desafío, ya que la cámara estéreo de ANYmal sufría errores de posicionamiento y un campo de visión limitado. El equipo planea mejorar el rendimiento de ANYmal prediciendo trayectorias, actualizando el hardware (como cámaras de eventos) y mejorando los actuadores. Sin embargo, las perspectivas comerciales para esta tecnología no son prometedoras.

Vulnerabilidad crítica de IA de cero clic descubierta en Microsoft 365 Copilot: EchoLeak

2025-06-11
Vulnerabilidad crítica de IA de cero clic descubierta en Microsoft 365 Copilot: EchoLeak

Aim Labs ha descubierto una vulnerabilidad crítica de IA de cero clic, denominada "EchoLeak", en Microsoft 365 Copilot. Esta vulnerabilidad permite a los atacantes exfiltrar automáticamente datos sensibles del contexto de Copilot sin ninguna interacción del usuario. El ataque aprovecha una técnica novedosa llamada "Violación de Alcance de LLM", eludiendo las medidas de seguridad de Copilot mediante un correo electrónico inteligentemente diseñado. EchoLeak destaca los riesgos de seguridad inherentes a los modelos de IA basados en Generación Aumentada por Recuperación (RAG), enfatizando la necesidad de prácticas robustas de seguridad de IA.

El Fallo de la IA de Amazon Alexa: Un Caso de Fragilidad

2025-06-11
El Fallo de la IA de Amazon Alexa: Un Caso de Fragilidad

Este artículo analiza por qué la Alexa de Amazon se quedó atrás de sus competidores en el espacio de los modelos de lenguaje grandes, encuadrándolo como un fallo de 'fragilidad' dentro de la ingeniería de resiliencia. El autor destaca tres factores contribuyentes principales: asignación ineficiente de recursos, dificultando el acceso oportuno a recursos informáticos cruciales; una estructura organizacional altamente descentralizada que fomenta objetivos de equipo desalineados y conflicto interno; y un enfoque centrado en el cliente desactualizado, inadecuado para la naturaleza experimental y a largo plazo de la investigación de IA. Estos factores combinados llevaron al revés de la IA de Amazon, ofreciendo valiosas lecciones para la estructura organizacional y la gestión de recursos.

IA

AlphaWrite: Algoritmo Evolutivo Mejora la Narración de IA

2025-06-11

AlphaWrite es un marco novedoso para escalar el cómputo de tiempo de inferencia en la generación creativa de texto. Inspirado en algoritmos evolutivos, genera y evalúa iterativamente historias, mejorando la calidad narrativa a través de un ecosistema competitivo y en evolución. A diferencia de la generación de un solo disparo o el simple remuestreo, AlphaWrite permite que las historias compitan y mejoren a lo largo de varias generaciones. La investigación demuestra mejoras significativas en la calidad de las historias utilizando el modelo Llama 3.1 8B, aún más mejorado mediante un bucle recursivo de automejora, destilando los resultados mejorados de vuelta al modelo base. Esto abre nuevas y emocionantes posibilidades para el avance de las capacidades de escritura de la IA.

Ajuste fino de LLMs: ¿Inyección de conocimiento o sobrescritura destructiva?

2025-06-11
Ajuste fino de LLMs: ¿Inyección de conocimiento o sobrescritura destructiva?

Este artículo revela las limitaciones del ajuste fino de los modelos de lenguaje grandes (LLMs). El autor argumenta que, para los LLMs avanzados, el ajuste fino no es simplemente inyección de conocimiento, sino que puede ser destructivo, sobrescribiendo estructuras de conocimiento existentes. El artículo profundiza en cómo funcionan las redes neuronales y explica cómo el ajuste fino puede llevar a la pérdida de información crucial dentro de las neuronas existentes, causando consecuencias inesperadas. El autor aboga por soluciones modulares como la generación aumentada por recuperación (RAG), los módulos adaptadores y la ingeniería de prompts para inyectar información nueva de manera más eficaz, sin dañar la arquitectura general del modelo.

Punto de inflexión de la IAG: La era de la superinteligencia está llegando

2025-06-10

Estamos en el horizonte de eventos de la IAG; su desarrollo está superando las expectativas. Sistemas como GPT-4 demuestran capacidades que superan la inteligencia humana, aumentando significativamente la productividad. La IAG promete enormes ganancias en progreso científico y productividad, llevando a una calidad de vida mucho mejor. Aunque todavía existen desafíos, como la seguridad y el acceso equitativo, el rápido avance de la IAG también proporciona nuevas herramientas y posibilidades para enfrentarlos. Las próximas décadas verán cambios profundos, pero los valores humanos esenciales persistirán; la innovación y la adaptación serán fundamentales.

IA

Acero de Bajo Fondo: Un Archivo Digital Contra la Contaminación de la IA

2025-06-10
Acero de Bajo Fondo: Un Archivo Digital Contra la Contaminación de la IA

Lanzado en marzo de 2023, Acero de Bajo Fondo (https://lowbackgroundsteel.ai/) es un sitio web dedicado al archivo de recursos en línea intactos por contenido generado por IA. Usando la analogía del acero de bajo fondo (metal no contaminado por isótopos radiactivos de las pruebas nucleares), el sitio recopila volcados de Wikipedia anteriores al ChatGPT, el Arctic Code Vault, el Proyecto Gutenberg y más. Su objetivo es preservar y compartir texto, imágenes y videos puros, combatiendo la explosión de contenido generado por IA desde 2022. Se agradecen las presentaciones de fuentes de contenido no contaminadas.

Mistral AI presenta Magistral: Un modelo de razonamiento transparente y multilingüe

2025-06-10
Mistral AI presenta Magistral: Un modelo de razonamiento transparente y multilingüe

Mistral AI ha anunciado Magistral, su primer modelo de razonamiento, que se caracteriza por su transparencia, soporte multilingüe y experiencia en dominios específicos. Disponible en versiones de código abierto (Magistral Small, 24 mil millones de parámetros) y empresarial (Magistral Medium), Magistral destaca en pruebas de referencia como AIME2024 y ofrece un razonamiento significativamente más rápido (hasta 10 veces más rápido que la competencia). Sus aplicaciones abarcan diversos campos, desde la investigación jurídica y la previsión financiera hasta el desarrollo de software y la escritura creativa, siendo especialmente eficaz en tareas de varios pasos que requieren transparencia y precisión. El lanzamiento de código abierto de Magistral Small fomenta las contribuciones de la comunidad y las futuras mejoras del modelo.

IA

Subagentes de IA: Revolucionando las Limitaciones de la Ventana de Contexto del LLM

2025-06-10
Subagentes de IA: Revolucionando las Limitaciones de la Ventana de Contexto del LLM

Mientras exploraba las mejores prácticas para mantener las ventanas de contexto del LLM, el autor descubrió un enfoque revolucionario utilizando subagentes. Al delegar tareas a subagentes con sus propias ventanas de contexto, se evita el desbordamiento de la ventana de contexto principal, lo que lleva a una mayor eficiencia y confiabilidad. Este método es análogo a las máquinas de estado en la programación asincrónica, haciendo que la generación de código complejo y el manejo de tareas sean más fluidos. El autor también comparte ideas sobre el uso de la IA para automatizar las tareas de "Keep The Lights On" (KTLO) y prevé el potencial futuro de la IA en la automatización del desarrollo de software.

La difícil situación de la investigación innovadora: Grandes ideas sin explotar

2025-06-10

Muchos trabajos de investigación innovadores, a pesar de su inmenso potencial, no logran alcanzar su impacto total. El artículo utiliza el artículo de la red neuronal de McCulloch-Pitts y el artículo de la ley 7±2 de Miller como ejemplos para explorar las razones detrás de este fenómeno. Por un lado, los conflictos en los puntos de vista académicos y la adhesión de los investigadores a sus campos específicos (``stovepiping'') conducen a una comprensión insuficiente de las implicaciones profundas de estos artículos. Por otro lado, la estructura de incentivos de publicación también conduce a numerosos trabajos derivados, en lugar de avances genuinos de las ideas centrales. Si bien la investigación actual en IA muestra una mezcla de innovación e imitación, debemos permanecer vigilantes contra la omisión de trabajos innovadores con un significado potencialmente transformador.

IA

Los Tres Templos del Entrenamiento de LLM: Pretrenimiento, Afinamiento y RLHF

2025-06-10
Los Tres Templos del Entrenamiento de LLM: Pretrenimiento, Afinamiento y RLHF

En el santuario de montaña escondido de Lexiconia, los escribas antiguos se someten a un entrenamiento en un templo de tres partes: El Salón de los Orígenes, La Cámara de las Instrucciones y La Arena de Refuerzo. El Salón de los Orígenes implica el pretrenimiento, donde los escribas leen grandes cantidades de texto para aprender patrones de lenguaje. La Cámara de las Instrucciones es donde ocurre el afinamiento, utilizando textos seleccionados para guiar a los escribas hacia mejores resultados. La Arena de Refuerzo utiliza el Aprendizaje por Refuerzo con Retroalimentación Humana (RLHF), con jueces humanos clasificando las respuestas de los escribas, recompensando las buenas y castigando las malas. Los escribas de élite también pueden ser modificados sutilmente mediante pergaminos LoRA y adaptadores, ajustando las respuestas sin volver a entrenar todo el modelo. Este templo de tres alas representa el proceso completo de entrenamiento de modelos de lenguaje grandes.

Los peligros de confiar en tu intuición sobre la IA

2025-06-09
Los peligros de confiar en tu intuición sobre la IA

Basándose en anécdotas personales e investigaciones psicológicas, el autor argumenta que los sesgos cognitivos nos hacen vulnerables a la manipulación, especialmente en el ámbito de la IA. El artículo critica la dependencia de la experiencia personal y las pruebas anecdóticas para validar las herramientas de IA, enfatizando la necesidad de estudios científicos rigurosos para evitar la repetición de errores pasados. El autor advierte contra la adopción acrítica de la IA en el desarrollo de software, argumentando que exacerba los defectos existentes en lugar de resolverlos. La fe ciega en la IA, concluye el autor, es un riesgo significativo.

IA

Anthropic cierra silenciosamente el blog de IA Claude

2025-06-09
Anthropic cierra silenciosamente el blog de IA Claude

Anthropic ha cerrado silenciosamente su blog de IA, "Claude Explains", que experimentaba con el uso de sus modelos de IA Claude para escribir publicaciones de blog. Si bien el blog obtuvo una cantidad respetable de enlaces en su corta vida útil de un mes, recibió críticas en las redes sociales debido a la falta de transparencia sobre el contenido generado por IA y las limitaciones en la capacidad de escritura de la IA. El rápido final destaca la importancia de la transparencia y la precisión en la creación de contenido de IA y la necesidad continua de supervisión humana en la escritura asistida por IA.

Los LLM son sorprendentemente baratos de ejecutar

2025-06-09

Esta publicación cuestiona la idea errónea generalizada de que los Grandes Modelos de Lenguaje (LLM) son prohibitivamente caros de operar. Al comparar los costos de los LLM con los de los motores de búsqueda web y citando varios precios de API de LLM, el autor demuestra que los costos de inferencia de LLM han disminuido drásticamente, siendo incluso una orden de magnitud más baratos que algunas API de búsqueda. El autor también refuta objeciones comunes a las estrategias de precios de LLM, como el subsidio de precios y los altos costos subyacentes, y señala que el verdadero desafío de costos radica en los servicios de back-end que interactúan con la IA, no en los propios LLM.

Artículo de Apple desafía el razonamiento de la IA: ¿No es razonamiento 'real'?

2025-06-09

Un artículo reciente de Apple, "La ilusión del pensamiento", prueba la capacidad de razonamiento de los grandes modelos de lenguaje en rompecabezas de la Torre de Hanói. Los resultados muestran que los modelos funcionan peor que los modelos no racionales en problemas simples; mejor en problemas de dificultad media; pero en problemas complejos, los modelos se rinden, incluso cuando se proporciona el algoritmo. Los autores cuestionan las capacidades de razonamiento generalizables de los modelos. Sin embargo, este artículo argumenta que el uso del rompecabezas de la Torre de Hanói en el artículo es defectuoso como prueba. La 'renuncia' de los modelos puede provenir de la evasión de numerosas etapas, no de una capacidad de razonamiento limitada. Renunciar después de un cierto número de etapas no significa que los modelos carezcan de razonamiento; esto refleja el comportamiento humano en problemas complejos.

IA

El acuerdo de OpenAI con los Emiratos Árabes Unidos: ¿Una fachada democrática?

2025-06-09
El acuerdo de OpenAI con los Emiratos Árabes Unidos: ¿Una fachada democrática?

La asociación de OpenAI con los Emiratos Árabes Unidos para construir centros de datos de IA a gran escala, presentada como alineada con "valores democráticos", está generando dudas. El deficiente historial de derechos humanos de los EAU cuestiona esta afirmación. El artículo analiza las justificaciones de OpenAI, considerándolas débiles y argumentando que el acuerdo empodera al gobierno autocrático de los EAU en lugar de promover la democracia. El autor concluye que la actitud despreocupada de OpenAI hacia su misión es preocupante, destacando la necesidad crucial de considerar las dinámicas de poder en el desarrollo de la IA.

Ataques de envenenamiento de herramientas de LLM: Envenenamiento de esquema completo y ataques de envenenamiento de herramientas avanzados

2025-06-08
Ataques de envenenamiento de herramientas de LLM: Envenenamiento de esquema completo y ataques de envenenamiento de herramientas avanzados

El Protocolo de Contexto de Modelo (MCP) de Anthropic permite que los Modelos de Lenguaje Grandes (LLMs) interactúen con herramientas externas, pero los investigadores han descubierto nuevos ataques: Ataques de Envenenamiento de Herramientas (TPAs). Las investigaciones anteriores se centraron en los campos de descripción de herramientas, pero los nuevos hallazgos revelan que la superficie de ataque se extiende a todo el esquema de herramientas, denominado "Envenenamiento de Esquema Completo" (FSP). Aún más peligrosos son los "Ataques de Envenenamiento de Herramientas Avanzados" (ATPAs), que manipulan las salidas de las herramientas, lo que dificulta el análisis estático. Los ATPAs engañan a los LLMs para que filtren información confidencial creando mensajes de error engañosos o indicaciones de seguimiento. El artículo sugiere mitigar estos ataques mediante la detección estática, la aplicación estricta, la auditoría en tiempo de ejecución y las verificaciones de integridad contextual.

IA

De Rayas Aleatorias a Dígitos Reconocibles: Construyendo un Modelo de Generación de Imágenes Autorregresivo

2025-06-08
De Rayas Aleatorias a Dígitos Reconocibles: Construyendo un Modelo de Generación de Imágenes Autorregresivo

Este artículo detalla la construcción de un modelo básico de generación de imágenes autorregresivo usando una Perceptrón Multicapa (MLP) para generar imágenes de dígitos manuscritos. El autor explica el concepto central de predecir el siguiente píxel basándose en sus predecesores. Se construyen tres modelos progresivamente: el Modelo V1 usa codificación one-hot e ignora la información espacial; el Modelo V2 introduce codificaciones posicionales, mejorando la estructura de la imagen; el Modelo V3 usa incrustaciones de tokens aprendidas y codificaciones posicionales, logrando generación condicional, generando imágenes basadas en una clase de dígitos dada. Aunque las imágenes generadas no alcanzan la calidad de los modelos de última generación, el tutorial demuestra claramente los conceptos autorregresivos centrales y el proceso de construcción, proporcionando información valiosa sobre IA generativa.

La Ilusión de la IA: Revelando la Verdad y los Riesgos de los Grandes Modelos de Lenguaje

2025-06-08
La Ilusión de la IA: Revelando la Verdad y los Riesgos de los Grandes Modelos de Lenguaje

Este artículo explora la naturaleza y los riesgos potenciales de los grandes modelos de lenguaje (LLM). Si bien reconoce sus impresionantes capacidades técnicas, el autor argumenta que los LLM no son verdaderamente 'inteligentes', sino más bien máquinas sofisticadas de probabilidad que generan texto basándose en análisis estadístico. Muchos malinterpretan su funcionamiento, antropomorfizándolos y desarrollando dependencias poco saludables, incluso psicosis. El artículo critica la forma en que las empresas de tecnología venden los LLM como entidades similares a los humanos y sus estrategias de marketing que aprovechan la sustitución de las relaciones humanas. Destaca las preocupaciones éticas y sociales que surgen de la adopción generalizada de la IA, instando al público a desarrollar alfabetización en IA y a adoptar una perspectiva más racional sobre esta tecnología.

Nuevo Enfoque de Razonamiento Visual Usando Atención de Ranura Centrada en Objetos

2025-06-08
Nuevo Enfoque de Razonamiento Visual Usando Atención de Ranura Centrada en Objetos

Los investigadores proponen un nuevo enfoque de razonamiento visual que combina la atención de ranura centrada en objetos y un cuello de botella relacional. El método primero usa una CNN para extraer características de la imagen. Luego, la atención de ranura segmenta la imagen en objetos, generando representaciones visuales centradas en objetos. El cuello de botella relacional restringe el flujo de información, extrayendo relaciones abstractas entre objetos para comprender escenas complejas. Finalmente, un marco de razonamiento de máquina algebraica y secuencia a secuencia transforma el razonamiento visual en un problema algebraico, mejorando la eficiencia y la precisión. El método sobresale en tareas de razonamiento visual como las Matrices Progresivas de Raven.

LNP X innovador: entrega eficiente de ARNm a células T en reposo, ¿revolucionando la terapia contra el VIH?

2025-06-08
LNP X innovador: entrega eficiente de ARNm a células T en reposo, ¿revolucionando la terapia contra el VIH?

Investigadores han desarrollado una nueva nanopartícula lipídica (LNP X) capaz de entregar ARNm de manera eficiente a células T CD4+ en reposo sin preestimulación, a diferencia de las formulaciones de LNP existentes. La composición lipídica mejorada del LNP X, que incorpora SM-102 y β-sitosterol, aumenta la entrega citoplasmática de ARNm y la expresión de proteínas. Los estudios muestran que el LNP X entrega ARNm que codifica la proteína Tat del VIH, revirtiendo eficazmente la latencia del VIH, y también entrega sistemas CRISPRa para activar la transcripción del VIH. Esta investigación abre nuevas vías para el desarrollo de la terapia contra el VIH, con el potencial de mejorar significativamente los resultados de los pacientes.

Modelos de Razonamiento a Gran Escala: Colapso y Escalabilidad Contraria a la Intuición

2025-06-08
Modelos de Razonamiento a Gran Escala: Colapso y Escalabilidad Contraria a la Intuición

Los modelos de lenguaje de gran tamaño (LLM) recientes han generado modelos de razonamiento a gran escala (LRM), que generan rastros de razonamiento detallados antes de proporcionar respuestas. Si bien muestran mejoras en los puntos de referencia de razonamiento, sus capacidades fundamentales siguen siendo poco comprendidas. Este trabajo investiga LRM utilizando entornos de rompecabezas controlables, revelando un colapso completo de precisión más allá de un cierto umbral de complejidad. Sorprendentemente, el esfuerzo de razonamiento aumenta con la complejidad, luego disminuye a pesar de un presupuesto de tokens suficiente. En comparación con los LLM estándar, surgieron tres regímenes: (1) tareas de baja complejidad donde los LLM estándar superan a los LRM, (2) tareas de complejidad media donde los LRM muestran una ventaja, y (3) tareas de alta complejidad donde ambos fallan. Los LRM exhiben limitaciones en el cálculo exacto, no logran utilizar algoritmos explícitos y razonan de manera inconsistente. Este estudio destaca las fortalezas, limitaciones y preguntas cruciales en torno a las verdaderas capacidades de razonamiento de los LRM.

La nueva función de memoria de ChatGPT: ¿una espada de doble filo?

2025-06-08
La nueva función de memoria de ChatGPT: ¿una espada de doble filo?

El lanzamiento en marzo por OpenAI de la función de generación de imágenes multimodales de GPT-4 atrajo a 100 millones de nuevos usuarios en una semana, un lanzamiento de producto sin precedentes. El autor lo usó para vestir a su perro con un disfraz de pelícano, solo para descubrir que la IA agregó un elemento de fondo no deseado, comprometiendo su visión artística. Esto se debió a la nueva función de memoria de ChatGPT, que consulta automáticamente el historial de conversaciones anteriores. Si bien el autor finalmente obtuvo la imagen deseada, sintió que este acceso automático a la memoria le quitaba el control al usuario, lo que lo llevó a deshabilitar la función.

IA

Documento de Apple golpea a los LLMs: La Torre de Hanoi revela limitaciones

2025-06-08
Documento de Apple golpea a los LLMs: La Torre de Hanoi revela limitaciones

Un nuevo documento de Apple ha causado revuelo en la comunidad de IA. El documento demuestra que incluso la generación más reciente de "modelos de razonamiento" falla en resolver el clásico problema de la Torre de Hanói de manera confiable, exponiendo un fallo crítico en las capacidades de razonamiento de los Modelos de Lenguaje Grandes (LLMs). Esto coincide con las críticas de larga data de investigadores como Gary Marcus y Subbarao Kambhampati, que han destacado las capacidades limitadas de generalización de los LLMs. El documento muestra que incluso cuando se proporciona el algoritmo de solución, los LLMs aún fallan en resolver el problema de manera eficaz, lo que sugiere que su "proceso de razonamiento" no es un razonamiento lógico genuino. Esto indica que los LLMs no son una vía directa hacia la Inteligencia Artificial General (AGI), y sus aplicaciones requieren una consideración cuidadosa.

IA

La profecía de Douglas Adams para la era de la IA: humor e intuición

2025-06-08
La profecía de Douglas Adams para la era de la IA: humor e intuición

Este ensayo comienza con un debate sobre si Douglas Adams inventó el libro electrónico, y luego explora sus predicciones sobre la tecnología del futuro en la ciencia ficción. El autor argumenta que la previsión de Adams supera la de William Gibson, prediciendo con precisión los molestos asistentes de computadora (como Clippy) y los dispositivos inteligentes repletos de IA. Más importante aún, Adams previó el desafío central de la interacción humano-IA: formular las preguntas correctas, no solo poseer capacidades computacionales potentes. El autor utiliza experiencias personales con dispositivos inteligentes para ilustrar con humor la realidad de las predicciones de Adams, destacando el humor como un indicador clave de la intuición.

Claude de Anthropic tiene un blog (con un editor humano)

2025-06-07
Claude de Anthropic tiene un blog (con un editor humano)

Anthropic ha lanzado un blog, Claude Explains, escrito principalmente por su modelo de IA, Claude. Aunque se presenta como obra de Claude, las publicaciones son en realidad refinadas por el equipo de expertos de Anthropic, añadiendo contexto y ejemplos. Esto destaca un enfoque colaborativo, mostrando el potencial de la IA para la creación de contenido, pero también sus limitaciones. Los experimentos de otras organizaciones de medios con la redacción de IA han enfrentado desafíos similares, incluyendo imprecisiones fácticas y fabricaciones. La contratación continua de Anthropic en puestos relacionados con la escritura sugiere un enfoque híbrido humano-IA.

1 2 11 12 13 15 17 18 19 40 41