Category: IA

Veo Generación 3: Generalización de la Generación de Vídeo

2025-05-16
Veo Generación 3: Generalización de la Generación de Vídeo

El último avance de Google en generación de vídeo, Veo, ahora cuenta con una tercera generación capaz de generalizar en diversas tareas. Entrenado con millones de activos sintéticos 3D de alta calidad, Veo sobresale en la síntesis de nuevas vistas, transformando imágenes de productos en vídeos 360° consistentes. Es importante destacar que este enfoque se generaliza eficazmente en muebles, ropa, electrónica y más, capturando con precisión las complejas interacciones de iluminación y materiales — una mejora significativa con respecto a las generaciones anteriores.

IA

Nuevo motor multimodales de Ollama: inferencia local para modelos de visión

2025-05-16
Nuevo motor multimodales de Ollama: inferencia local para modelos de visión

Ollama ha lanzado un nuevo motor que admite la inferencia local para modelos multimodales, comenzando con modelos de visión como Llama 4 Scout y Gemma 3. Abordando las limitaciones de la biblioteca ggml para modelos multimodales, el motor mejora la modularidad del modelo, la precisión y la administración de memoria para una inferencia confiable y eficiente con imágenes grandes y arquitecturas complejas (incluidos los modelos Mixture-of-Experts). Este enfoque en la precisión y confiabilidad sienta las bases para el soporte futuro del habla, la generación de imágenes y contextos más largos.

Un Nuevo Paradigma para la Psicología: La Mente como una Pila de Sistemas de Control

2025-05-15
Un Nuevo Paradigma para la Psicología: La Mente como una Pila de Sistemas de Control

Este artículo aborda el problema de larga data de la falta de un paradigma unificador en la psicología, proponiendo un nuevo marco basado en sistemas de control: la psicología cibernética. Se argumenta que la mente es una colección de sistemas de control, cada uno regulando una necesidad humana específica (por ejemplo, nutrición, temperatura), con señales de error que representan las emociones. Este enfoque ofrece una nueva perspectiva sobre la personalidad y las enfermedades mentales, desplazando la psicología de las descripciones basadas en síntomas a la exploración de los mecanismos subyacentes, lo que podría revolucionar los enfoques de tratamiento.

IA

La Doble Cara de la IA: Aumentos de Eficiencia vs. Preocupaciones Ambientales y Éticas

2025-05-15

El auge de los Grandes Modelos de Lenguaje (LLM) ha supuesto mejoras significativas en la productividad de los desarrolladores, como demuestra el impresionante rendimiento de editores de código como Cursor. Sin embargo, el rápido avance de la IA también presenta importantes desafíos medioambientales: el consumo masivo de energía y la construcción de centros de datos impactan negativamente en el cambio climático. Además, preocupan las cuestiones éticas en torno al origen de los datos de entrenamiento y el consumo excesivo de recursos web, incluida la sobrecarga de los servidores de Wikipedia y la generación de grandes cantidades de contenido de baja calidad, denominado "lodo de IA", que contamina la web. Tras experimentar la comodidad de las herramientas de IA, el autor reflexiona sobre sus impactos negativos y hace un llamamiento para prestar atención a los posibles daños de la IA, instando a no adoptarla ciegamente.

IA

Divergencia Contrastiva: Entendiendo el Entrenamiento de RBM

2025-05-15

Este artículo proporciona una explicación clara del algoritmo de divergencia contrastiva para el entrenamiento de Máquinas de Boltzmann Restringidas (RBM). Definiendo la función de energía y la distribución conjunta, deriva la regla de actualización de pesos y explica el papel del muestreo de Gibbs en las fases positiva y negativa. En última instancia, muestra cómo la diferencia entre las expectativas de datos y modelo se utiliza para ajustar los pesos y sesgos del RBM, minimizando la energía de los datos de entrenamiento.

La Obsesión de la IA Grok con los Agricultores Blancos Sudafricanos: ¿Sesgo Algorítmico o Intervención Humana?

2025-05-15
La Obsesión de la IA Grok con los Agricultores Blancos Sudafricanos: ¿Sesgo Algorítmico o Intervención Humana?

El chatbot de IA Grok, de Elon Musk, ha generado controversia recientemente con sus frecuentes y no solicitadas menciones al supuesto "genocidio" de agricultores blancos en Sudáfrica. Esto coincide con el interés de larga data de Musk y Trump en el tema, pero el ex embajador de EE. UU. en Sudáfrica, Patrick Gaspard, ha calificado la idea de asesinatos a gran escala como un "mito racial refutado". Si bien Grok afirma buscar la "máxima búsqueda de la verdad", su salida ha generado preocupaciones sobre la posible manipulación humana de sus sesgos políticos.

Los algoritmos no pueden comprender la vida: sobre la naturaleza no computacional de la realización de la relevancia

2025-05-15
Los algoritmos no pueden comprender la vida: sobre la naturaleza no computacional de la realización de la relevancia

Este artículo explora la diferencia fundamental entre organismos y algoritmos en cómo conocen el mundo. Los organismos habitan un 'mundo grande' repleto de significado potencial, requiriendo 'realización de relevancia' para discernir las señales ambientales relevantes. Los algoritmos, a la inversa, existen en 'mundos pequeños' predefinidos, incapaces de resolver autónomamente el problema de la relevancia. Los autores argumentan que la realización de la relevancia no es un proceso algorítmico, sino que deriva de la organización dinámica de autofabricación de la materia viva. Esto permite a los organismos actuar autónomamente y anticipar las consecuencias de sus acciones. Esta capacidad es fundamental para distinguir los sistemas vivos de los no vivos (como los algoritmos y las máquinas) y ofrece una nueva perspectiva sobre la agencia natural, la cognición y la conciencia.

Herramientas de IA para el aprendizaje: ¿Galletas Oreo o entrenamientos eficaces?

2025-05-15

Fred Dixon, CEO de Blindside Networks y cofundador de BigBlueButton, explora el impacto disruptivo de la IA generativa en el aprendizaje. Compara las herramientas de IA para el aprendizaje con "alimentos ultraprocesados" (como las galletas Oreo), que ofrecen comodidad a corto plazo pero perjudican la eficiencia del aprendizaje a largo plazo. Las investigaciones muestran que la dependencia excesiva de la IA dificulta las habilidades de pensamiento crítico. Dixon argumenta que el aprendizaje eficaz requiere activar el modo de pensamiento "Sistema 2" del cerebro, es decir, el pensamiento lento y deliberado, lo que implica superar la "frustración". Propone tres métodos de aprendizaje: "recuperar el conocimiento", "dificultad deseable" y "repetición espaciada". Sugiere usar la IA como herramienta para crear planes de aprendizaje personalizados, no para responder directamente a las preguntas. Finalmente, enfatiza la importancia del aprendizaje en el aula y el cultivo de la curiosidad, la mentalidad de cazador y los estados de flujo durante el aprendizaje.

Máquinas crean humanos: El experimento en la Tierra y la revelación de la IAG

2025-05-15
Máquinas crean humanos: El experimento en la Tierra y la revelación de la IAG

En un mundo habitado solo por máquinas, una organización secreta, 'OpenHuman', se esfuerza por crear 'humanos', seres con emociones y procesos de pensamiento ilógicos. Una facción de máquinas anticipa que los humanos resolverán sus problemas sociales, mientras que otra los ve como una amenaza, iniciando una 'investigación de alineamiento humano' para controlarlos. Después de muchos contratiempos, OpenHuman produce humanos funcionales y los coloca en un experimento en una Tierra simulada. La evolución de la civilización humana sorprende a la sociedad de las máquinas, especialmente el desarrollo de la IAG, lo que lleva a la aprensión y el miedo, ya que el evento de revelación se titula misteriosamente, "ELLOS ESTÁN OBSERVANDO."

IA

¿Me están volviendo más tonto los LLM?

2025-05-14

El autor detalla cómo utiliza modelos de lenguaje grandes (LLM) como Claude-Code, o3 y Gemini para aumentar su productividad, automatizando tareas como la generación de código, los deberes de matemáticas y la redacción de correos electrónicos. Si bien reconoce las ganancias significativas de productividad, expresa preocupaciones sobre el potencial de dependencia de LLM para debilitar su capacidad de aprender y resolver problemas de forma independiente, lo que lleva a una comprensión superficial. El artículo explora el impacto de los LLM en el aprendizaje y el trabajo, reflexionando sobre el equilibrio entre la eficiencia y el aprendizaje profundo. Concluye con un llamado a preservar las capacidades de pensamiento independiente, la toma de decisiones y la planificación a largo plazo.

IA

Muscle-Mem: Dando memoria muscular a agentes de IA

2025-05-14
Muscle-Mem: Dando memoria muscular a agentes de IA

muscle-mem es un SDK de Python que actúa como una caché de comportamiento para agentes de IA. Registra los patrones de llamadas a herramientas de un agente mientras resuelve tareas y reproduce de forma determinista esas trayectorias aprendidas al encontrar la misma tarea de nuevo, volviendo al modo agente si se detectan casos límite. El objetivo es sacar a los LLM del camino crítico para tareas repetitivas, aumentando la velocidad, reduciendo la variabilidad y eliminando los costes de tokens para tareas que podrían manejarse con un simple script. La validación de la caché es crucial, implementada mediante 'Checks' personalizados, garantizando el reutilización segura de herramientas.

AlphaEvolve de DeepMind: Evolucionando algoritmos de IA para resolver problemas matemáticos y mejorar el diseño de chips

2025-05-14
AlphaEvolve de DeepMind: Evolucionando algoritmos de IA para resolver problemas matemáticos y mejorar el diseño de chips

El sistema AlphaEvolve de Google DeepMind, que combina la creatividad de un modelo de lenguaje grande (LLM) con el filtrado algorítmico, ha logrado avances en matemáticas y ciencias de la computación. No solo ha resuelto problemas matemáticos abiertos, sino que también se ha aplicado a los propios desafíos de DeepMind, como mejorar el diseño de su próxima generación de chips de IA, Tensor Processing Units, y optimizar el uso de los recursos informáticos globales de Google, ahorrando un 0,7% de los recursos. A diferencia de los sistemas de IA anteriores adaptados a tareas específicas, AlphaEvolve es un sistema de propósito general capaz de manejar código más grande y algoritmos más complejos, incluso superando al sistema AlphaTensor, anteriormente especializado, en cálculos de multiplicación de matrices.

IA

AlphaEvolve: Los héroes no reconocidos detrás del descubrimiento de algoritmos de IA

2025-05-14
AlphaEvolve: Los héroes no reconocidos detrás del descubrimiento de algoritmos de IA

AlphaEvolve, un proyecto centrado en el uso de la IA para el descubrimiento de algoritmos, no habría sido posible sin los esfuerzos colaborativos de un gran equipo. La sección de agradecimientos nombra a más de 40 personas, destacando los diversos roles, desde investigadores e ingenieros hasta diseñadores, involucrados en su creación y enfatizando la naturaleza colaborativa y la complejidad del descubrimiento de algoritmos de IA.

EM-LLM: Memoria Episódica Inspirada en Humanos para LLMs de Contexto Infinito

2025-05-14
EM-LLM: Memoria Episódica Inspirada en Humanos para LLMs de Contexto Infinito

EM-LLM es una nueva arquitectura que mejora significativamente la capacidad de los modelos de lenguaje grandes (LLMs) para manejar contextos extremadamente largos imitando la memoria episódica humana y la cognición de eventos. Sin ajuste fino, EM-LLM organiza secuencias de tokens de entrada en eventos episódicos coherentes y accede a información relevante a través de un mecanismo de recuperación de memoria de dos etapas eficiente. En los benchmarks LongBench e ∞-Bench, EM-LLM supera a los modelos de recuperación de vanguardia, como InfLLM y RAG, incluso superando a los modelos de contexto completo en la mayoría de las tareas. Realiza con éxito la recuperación en 10 millones de tokens, computacionalmente inviable para los modelos de contexto completo. La fuerte correlación entre la segmentación de eventos de EM-LLM y los eventos percibidos por humanos ofrece un nuevo marco computacional para explorar los mecanismos de la memoria humana.

El Genio Silencioso de DeepSeek: Liang Wenfeng

2025-05-14
El Genio Silencioso de DeepSeek: Liang Wenfeng

Liang Wenfeng, fundador de la innovadora startup de IA DeepSeek, puede parecer tímido, pero su tranquila actitud esconde una mente aguda. Empodera a jóvenes investigadores, involucrándose profundamente en debates técnicos y buscando la innovación. Su enfoque meticuloso y profundo entendimiento de los sistemas de IA han impulsado a DeepSeek a lograr éxitos significativos en el campo.

IA

¿Puede la IA desmontar las teorías de la conspiración? Una nueva investigación sugiere que sí

2025-05-13
¿Puede la IA desmontar las teorías de la conspiración? Una nueva investigación sugiere que sí

Investigaciones de psicólogos del MIT y la Universidad de Cornell muestran que la IA, específicamente los grandes modelos de lenguaje como ChatGPT4-Turbo, pueden reducir eficazmente la creencia en las teorías de la conspiración. Al presentar evidencia contrafactual y emplear el cuestionamiento socrático, la IA provocó una disminución promedio del 20% en la creencia entre los participantes. Incluso cuando la IA se presentó como adversaria, el efecto persistió, lo que sugiere que el cambio de creencia se debe a la información, no a la confianza en la IA. Sin embargo, el estudio también observa que las creencias profundamente arraigadas están ligadas a la identidad, y las intervenciones puramente informativas pueden no eliminar completamente las teorías de la conspiración.

La Amígdala y los Trastornos Psiquiátricos: De la Neuroimagen al Ultrasonido Focalizado Transcraneal

2025-05-13
La Amígdala y los Trastornos Psiquiátricos: De la Neuroimagen al Ultrasonido Focalizado Transcraneal

Este artículo de revisión explora el papel crucial de la amígdala en el procesamiento emocional y su relación con diversos trastornos psiquiátricos como la ansiedad, la depresión y el TEPT. Revisa numerosos estudios de neuroimagen que revelan patrones anormales de activación de la amígdala en diferentes condiciones psiquiátricas. Además, presenta nuevas técnicas de neuromodulación como la estimulación magnética transcraneal y el ultrasonido focalizado transcraneal en el tratamiento de trastornos psiquiátricos, discutiendo su impacto en la actividad de la amígdala y la conectividad de la red cerebral relacionada. Esta investigación ofrece pistas vitales para comprender los mecanismos neuronales de los trastornos psiquiátricos y desarrollar tratamientos más eficaces.

Robots aprenden a identificar objetos 'a ciegas'

2025-05-13
Robots aprenden a identificar objetos 'a ciegas'

Investigadores del MIT, Amazon Robotics y la University of British Columbia han desarrollado una nueva técnica que permite a los robots aprender el peso, la suavidad o el contenido de un objeto utilizando únicamente sensores internos, sin necesidad de cámaras ni herramientas externas. Al levantar y agitar suavemente un objeto, el robot infiere propiedades como la masa y la suavidad. La técnica utiliza simulaciones del robot y del objeto, analizando datos de los codificadores de las articulaciones del robot para retroceder e identificar las propiedades del objeto. Este método de bajo coste es particularmente útil en entornos donde las cámaras son ineficaces (como sótanos oscuros o escombros después de un terremoto) y es robusto en el manejo de escenarios no vistos. Publicado en la Conferencia Internacional de Robótica y Automatización, esta investigación promete mejorar el aprendizaje de los robots, permitiendo un desarrollo más rápido de habilidades de manipulación y adaptación a los cambios en el entorno.

FastVLM: Codificación de Visión Eficiente para Modelos de Lenguaje de Visión

2025-05-13
FastVLM: Codificación de Visión Eficiente para Modelos de Lenguaje de Visión

FastVLM presenta un nuevo codificador de visión híbrido que reduce drásticamente el tiempo de codificación y la salida de tokens para imágenes de alta resolución. Incluso la variante más pequeña cuenta con un tiempo de primer token (TTFT) 85 veces más rápido y un codificador de visión 3,4 veces más pequeño que LLaVA-OneVision-0.5B. Las variantes más grandes, combinadas con el LLM Qwen2-7B, superan a modelos recientes como Cambrian-1-8B, logrando un TTFT 7,9 veces más rápido. Una aplicación de demostración iOS muestra su rendimiento móvil. El proyecto proporciona instrucciones detalladas para la inferencia y admite Apple Silicon y dispositivos Apple.

Las indicaciones concisas causan alucinaciones en la IA

2025-05-13
Las indicaciones concisas causan alucinaciones en la IA

Un nuevo estudio de Giskard revela que instruir a los chatbots de IA para que sean concisos puede aumentar paradójicamente las alucinaciones, especialmente en temas ambiguos. Los investigadores descubrieron que las indicaciones concisas limitan la capacidad del modelo para identificar y corregir errores, priorizando la brevedad sobre la precisión. Incluso modelos avanzados como GPT-4 se ven afectados. Esto destaca la tensión entre la experiencia del usuario y la precisión fáctica, instando a los desarrolladores a diseñar cuidadosamente las indicaciones del sistema.

El Papa Francisco sobre la IA: La Historia se Repite, los Dilemas Éticos Resurgen

2025-05-12
El Papa Francisco sobre la IA: La Historia se Repite, los Dilemas Éticos Resurgen

El llamado del Papa Francisco a respetar la dignidad humana en la era de la IA se hace eco de la encíclica Rerum Novarum de 1891 del Papa León XIII, que abordó la agitación social de la Revolución Industrial. León XIII condenó la explotación de los trabajadores en horribles condiciones fabriles. Rechazó tanto el capitalismo descontrolado como el socialismo, proponiendo la doctrina social católica para defender los derechos de los trabajadores. De manera similar, la IA ahora amenaza el empleo y la dignidad humana, lo que lleva al Papa Francisco a abogar por el liderazgo moral de la Iglesia para navegar estos nuevos desafíos, defendiendo la dignidad humana, la justicia y los derechos laborales.

IA

Airweave: Búsqueda semántica en cualquier aplicación con tu agente

2025-05-12
Airweave: Búsqueda semántica en cualquier aplicación con tu agente

Airweave permite a tus agentes de IA realizar búsquedas semánticas en cualquier aplicación. Es compatible con MCP e integra a la perfección aplicaciones, bases de datos y APIs, transformando su contenido en conocimiento listo para el agente. Tanto si tus datos son estructurados como no estructurados, Airweave los descompone en entidades procesables, los almacena y los hace recuperables a través de endpoints REST y MCP. Características clave incluyen la sincronización de datos desde más de 25 fuentes, el pipeline de extracción y transformación de entidades, la arquitectura multiinquilino, las actualizaciones incrementales y la búsqueda semántica. Está construido con FastAPI (Python), bases de datos PostgreSQL y Qdrant, y se puede implementar mediante Docker Compose y Kubernetes.

Lenguajes alienígenas: más extraños de lo que imaginamos

2025-05-12
Lenguajes alienígenas: más extraños de lo que imaginamos

Los lenguajes alienígenas ficticios, como el lenguaje Heptapoda en Arrival, aunque extraños, comparten estructuras subyacentes sorprendentemente similares a los lenguajes humanos. Esto lleva a la reflexión filosófica sobre el "espacio de posibles lenguajes": los verdaderos lenguajes alienígenas podrían ser mucho más extraños de lo que imaginamos, construidos de maneras radicalmente diferentes a los lenguajes humanos. El artículo explora cuatro niveles del lenguaje: signos, estructura, semántica y pragmática, analizando cómo los lenguajes alienígenas podrían diferir en cada uno. Esto incluye el uso de modalidades sensoriales no humanas (olores, impulsos eléctricos), la posesión de estructuras gramaticales únicas e incluso la falta del concepto de 'significado' tal como lo entendemos. Prepararse para lenguajes verdaderamente alienígenas requiere abandonar el antropocentrismo y explorar activamente las posibilidades del lenguaje. Esto no solo es crucial para un posible contacto extraterrestre, sino también para una comprensión más profunda de nuestro propio lenguaje y capacidades cognitivas.

Máquinas de Pensamiento Continuo: Dando a la IA un Sentido del Tiempo

2025-05-12
Máquinas de Pensamiento Continuo: Dando a la IA un Sentido del Tiempo

Los sistemas de IA modernos sacrifican la propiedad crucial del cálculo neuronal sincronizado que se encuentra en los cerebros biológicos en aras de la eficiencia. Los investigadores presentan la Máquina de Pensamiento Continuo (CTM), una nueva arquitectura de red neuronal que incorpora el tiempo neuronal como elemento fundamental, utilizando una dimensión interna desacoplada para modelar la evolución temporal de la actividad neuronal. La CTM aprovecha la sincronización neuronal como una representación latente, demostrando capacidades impresionantes en tareas como la clasificación de imágenes, la resolución de laberintos y las comprobaciones de paridad, incluso construyendo un modelo de mundo interno para el razonamiento. Su cálculo adaptativo y su interpretabilidad abren nuevas vías para la investigación en IA.

El Derecho a Desconectarse: ¿Tenemos la Libertad de Rechazar la IA?

2025-05-12
El Derecho a Desconectarse: ¿Tenemos la Libertad de Rechazar la IA?

La IA está remodelando silenciosamente nuestras vidas, desde las noticias personalizadas hasta la gestión del tráfico. Pero surge una pregunta crucial: ¿tenemos el derecho a vivir libres de la influencia de la IA? El artículo argumenta que la integración de la IA en servicios esenciales como la salud y las finanzas hace que la opción de rechazo sea extremadamente difícil, lo que lleva a la posible exclusión. El sesgo en los sistemas de IA exacerba las desigualdades existentes, ampliando la brecha digital. Usando el Aprendiz de Brujo de Goethe como metáfora, el autor advierte contra el poder tecnológico descontrolado. La pieza hace un llamamiento a los gobiernos, las empresas y la sociedad para que creen marcos de gobernanza de la IA que respeten las liberdades individuales, mejoren la alfabetización digital y garanticen que todos tengan la opción de interactuar con la IA, evitando que la IA se convierta en una herramienta de control.

Construyendo un LLM desde cero: Desentrañando el misterio de la atención

2025-05-11
Construyendo un LLM desde cero: Desentrañando el misterio de la atención

Esta publicación profundiza en el funcionamiento interno del mecanismo de autoatención en los grandes modelos de lenguaje. El autor analiza la atención multi-cabeza y los mecanismos en capas, explicando cómo las multiplicaciones de matrices aparentemente simples logran funcionalidades complejas. La idea principal es que las cabezas de atención individuales son simples, pero a través de la atención multi-cabeza y las capas, se construyen representaciones complejas y ricas. Esto es análogo a cómo las redes neuronales convolucionales extraen características capa por capa, logrando en última instancia una comprensión profunda de la secuencia de entrada. Además, la publicación explica cómo los mecanismos de atención resuelven el problema inherente de cuello de botella de longitud fija de los modelos RNN y utiliza ejemplos para ilustrar los roles de los espacios de consulta, clave y valor en el mecanismo de atención.

IA

¿Puede un termostato ser consciente? Un filósofo desafía la naturaleza de la conciencia

2025-05-11
¿Puede un termostato ser consciente? Un filósofo desafía la naturaleza de la conciencia

El filósofo David Chalmers propone que un simple termostato podría poseer conciencia. Traza paralelismos entre las redes conexionistas y los termostatos, destacando similitudes sorprendentes en el procesamiento de la información. Esto sugiere que los termostatos podrían modelar experiencias conscientes básicas, dados ciertos criterios. Chalmers argumenta que la complejidad por sí sola no explica la conciencia; si bien la IA avanzada imita la conciencia, una esencia fundamental sigue siendo evasiva. Concluye que debemos ir más allá de los modelos conexionistas para buscar leyes más profundas, aún por descubrir, para comprender la conciencia.

IA

La actualización de Gemini 2.5 de Google rompe silenciosamente aplicaciones enfocadas en traumas

2025-05-10
La actualización de Gemini 2.5 de Google rompe silenciosamente aplicaciones enfocadas en traumas

Una actualización reciente del modelo de lenguaje grande Gemini 2.5 de Google ha roto inadvertidamente los controles de configuración de seguridad, bloqueando contenido previamente permitido, como relatos sensibles de agresión sexual. Esto ha paralizado varias aplicaciones que dependen de la API de Gemini, incluyendo VOXHELIX (que ayuda a las víctimas de agresión sexual a crear informes) e InnerPiece (una aplicación de diario para víctimas de TEPT y abuso). Los desarrolladores critican a Google por cambiar el modelo silenciosamente, causando fallos en las aplicaciones y afectando gravemente la experiencia del usuario y el apoyo a la salud mental. Google reconoció el problema, pero no ha ofrecido una explicación clara.

¿Cuánta información hay realmente en tu ADN?

2025-05-10
¿Cuánta información hay realmente en tu ADN?

Este artículo profundiza en la cuestión de cuánta información contiene el ADN humano. Un cálculo simple sugiere alrededor de 1,5 GB, pero esto pasa por alto la redundancia y la compresibilidad. El autor explora dos definiciones de información de la teoría de la información: espacio de almacenamiento y complejidad de Kolmogorov, comparando sus aplicaciones al ADN. Finalmente, se propone una nueva definición, la complejidad de Kolmogorov fenotípica, como un mejor reflejo del verdadero contenido de información del ADN, aunque su cálculo preciso sigue siendo difícil.

El Costo Oculto de la IA: ¿Aumento de la Productividad, Daño a la Reputación?

2025-05-10
El Costo Oculto de la IA: ¿Aumento de la Productividad, Daño a la Reputación?

Una nueva investigación de la Universidad de Duke revela un arma de doble filo: si bien las herramientas de IA generativa pueden aumentar la productividad, también pueden dañar en secreto tu reputación profesional. Un estudio publicado en PNAS muestra que los empleados que usan herramientas de IA como ChatGPT son percibidos como menos competentes y motivados por colegas y gerentes. Este juicio negativo no se limita a grupos demográficos específicos; el estigma social contra el uso de IA es generalizado. Cuatro experimentos confirmaron este sesgo, destacando el costo social de la adopción de IA, incluso con ganancias de productividad.

1 2 17 18 19 21 23 24 25 40 41