Category: IA

Boston Dynamics se asocia con el Instituto RAI para mejorar el aprendizaje por refuerzo del robot Atlas

2025-02-06
Boston Dynamics se asocia con el Instituto RAI para mejorar el aprendizaje por refuerzo del robot Atlas

Boston Dynamics anunció una asociación con su propio Instituto de Robótica e IA (Instituto RAI) para aprovechar el aprendizaje por refuerzo y mejorar las capacidades de su robot humanoide eléctrico, Atlas. La colaboración tiene como objetivo acelerar el aprendizaje de nuevas tareas por parte de Atlas y mejorar su movimiento e interacción en entornos del mundo real, como correr dinámicamente y manipular objetos pesados. Esto representa un avance significativo en el aprendizaje por refuerzo para la robótica y destaca la importancia de la integración vertical de la IA robótica, reflejando la decisión de Figure AI de abandonar su asociación con OpenAI.

Deconstruyendo Sistemas Complejos con Meriología: Más Allá de la Causalidad Simple

2025-02-06

Este artículo presenta un nuevo enfoque para comprender la estructura de orden superior en sistemas complejos, basado en la meriología, una rama de la teoría de conjuntos. Usando los anillos borromeos como ejemplo, ilustra cómo el todo puede ser más que la suma de sus partes. El autor propone que, construyendo la meriología de un sistema y aplicando la fórmula de inversión de Möbius, las cantidades macroscópicas se pueden descomponer en sumas de contribuciones microscópicas, revelando la naturaleza de las interacciones de orden superior. Ejemplos de interacciones génicas y la información mutua en la teoría de la información demuestran la aplicación del método, con implicaciones prometedoras para el aprendizaje automático y la física.

Cuatro enfoques para construir modelos de razonamiento para LLM

2025-02-06
Cuatro enfoques para construir modelos de razonamiento para LLM

Este artículo explora cuatro enfoques principales para mejorar los modelos de lenguaje grandes (LLM) con capacidades de razonamiento: escalamiento en tiempo de inferencia, aprendizaje por refuerzo puro, ajuste fino supervisado más aprendizaje por refuerzo y destilación de modelos. El desarrollo de DeepSeek R1 se utiliza como un estudio de caso, mostrando cómo estos métodos pueden construir modelos de razonamiento potentes y cómo incluso los investigadores con presupuestos limitados pueden obtener resultados impresionantes mediante la destilación. El artículo también compara DeepSeek R1 con el o1 de OpenAI y analiza estrategias para construir modelos de razonamiento rentables.

Agente de IA aprende a usar ordenadores como un humano

2025-02-06
Agente de IA aprende a usar ordenadores como un humano

El proyecto r1-computer-use tiene como objetivo entrenar a un agente de IA para interactuar con un ordenador como un humano, incluyendo sistemas de archivos, navegadores web y líneas de comandos. Inspirado en las técnicas de aprendizaje por refuerzo de DeepSeek-R1, abandona los verificadores codificados tradicionalmente en favor de un modelo de recompensa neuronal para evaluar la corrección y la utilidad de las acciones del agente. El proceso de entrenamiento consta de varias etapas, desde demostraciones de expertos hasta la optimización de políticas guiadas por modelos de recompensa y el ajuste fino, con el objetivo final de obtener un agente de IA seguro y fiable capaz de realizar tareas complejas.

Modelo de razonamiento de IA de menos de 50 dólares rivaliza con competidores de vanguardia

2025-02-06
Modelo de razonamiento de IA de menos de 50 dólares rivaliza con competidores de vanguardia

Investigadores de Stanford y la Universidad de Washington entrenaron un modelo de razonamiento de IA, s1, por menos de 50 dólares utilizando computación en la nube. El rendimiento de s1 se compara con modelos de vanguardia como el o1 de OpenAI y el R1 de DeepSeek en tareas de matemáticas y codificación. El equipo utilizó la destilación del conocimiento, utilizando el Google Gemini 2.0 Flash Thinking Experimental como modelo maestro y un conjunto de datos de 1.000 preguntas cuidadosamente seleccionadas. Esta replicación de bajo costo plantea preguntas sobre la mercantilización de la IA y, según los informes, ha molestado a los grandes laboratorios de IA.

El Kinetoscopio de 1890: ¿Un precursor de la soledad de la IA?

2025-02-05
El Kinetoscopio de 1890: ¿Un precursor de la soledad de la IA?

Este artículo establece paralelismos entre el Kinetoscopio individual de la década de 1890 y la tecnología de IA actual, especialmente los grandes modelos de lenguaje. El artículo argumenta que ambas tecnologías, si bien ofrecen contenido producido en masa, crean una experiencia simultáneamente interconectada pero atomizada, lo que resulta en un nuevo tipo de soledad tecnológica. El autor explora el contexto histórico de la invención de Edison y su elección de diseño sorprendentemente premonitoria, destacando la extraña similitud con nuestra dependencia actual de feeds algorítmicos personalizados y compañeros de IA. Invita a la reflexión sobre la dirección del progreso tecnológico y su impacto en la experiencia individual.

IA Soledad

Papiro de Herculano 5: Un Avance en la Detección de Tinta

2025-02-05
Papiro de Herculano 5: Un Avance en la Detección de Tinta

Se ha logrado un progreso significativo en la detección de tinta y la segmentación del P.Herc. 172 de las Bibliotecas Bodleianas de Oxford (Rollo 5). El rollo presenta una tinta inusualmente visible, lo que ayuda enormemente al entrenamiento de los modelos de detección de tinta. Si bien la segmentación requiere un refinamiento adicional, los análisis preliminares sugieren la autoría de Filodemo, con palabras como 'desagrado', 'miedo' y 'vida' identificadas, junto con símbolos que indican una obra terminada. Las características únicas del Rollo 5 ofrecen un potencial como una 'Piedra Rosetta' para la detección de tinta en otros rollos. El equipo ha publicado datos extensos de segmentación para facilitar la investigación.

La familia Gemini 2.0 recibe una gran actualización: Rendimiento mejorado y capacidades multimodales

2025-02-05
La familia Gemini 2.0 recibe una gran actualización: Rendimiento mejorado y capacidades multimodales

Google ha actualizado significativamente su familia de modelos Gemini 2.0. El modelo 2.0 Flash ahora está generalmente disponible a través de la API, permitiendo a los desarrolladores crear aplicaciones de producción. También se ha lanzado una versión experimental del 2.0 Pro, con un rendimiento de codificación superior y la capacidad de manejar prompts complejos, con una ventana de contexto de 2 millones de tokens. Un modelo 2.0 Flash-Lite económico está ahora en vista previa pública. Todos los modelos cuentan actualmente con entrada multimodal con salida de texto, y se añadirán más modalidades en los próximos meses. Esta actualización aumenta significativamente el rendimiento y amplía la aplicabilidad, marcando un gran paso adelante para Gemini en el panorama de la IA.

IA

El Premio Netflix: Un Hito y una Amarga Lección en el Aprendizaje Automático

2025-02-05
El Premio Netflix: Un Hito y una Amarga Lección en el Aprendizaje Automático

En 2006, Netflix lanzó una competición de un millón de dólares para mejorar su sistema de recomendación. Esta competición atrajo a miles de equipos y avanzó significativamente el campo del aprendizaje automático. Los resultados mostraron que algoritmos simples podían sorprendentemente tener un buen rendimiento, los modelos más grandes producían puntuaciones mejores y el sobreajuste no siempre era una preocupación. Sin embargo, la competición también dejó una lección amarga: las preocupaciones sobre la privacidad de los datos llevaron a Netflix a cancelar futuras competiciones, limitando la investigación abierta en algoritmos de sistemas de recomendación, y el control de las empresas tecnológicas sobre los datos alcanzó un nivel sin precedentes.

IA

Modelo de IA de 6 dólares sacude el panorama de LLM: Presentamos S1

2025-02-05
Modelo de IA de 6 dólares sacude el panorama de LLM: Presentamos S1

Un nuevo artículo revela S1, un modelo de IA entrenado por solo 6 dólares, logrando un rendimiento cercano al estado del arte, mientras se ejecuta en un portátil estándar. El secreto radica en su ingenioso método de 'escalamiento del tiempo de inferencia': al insertar comandos 'Esperar' durante el proceso de pensamiento del LLM, controla el tiempo de pensamiento y optimiza el rendimiento. Esto refleja la técnica Entropix, ambas manipulando estados internos del modelo para mejorar. La frugalidad extrema de datos de S1, utilizando solo 1000 ejemplos cuidadosamente seleccionados, produce resultados sorprendentemente buenos, abriendo nuevas vías para la investigación en IA y generando debates sobre la destilación de modelos y la propiedad intelectual. El bajo coste y la alta eficiencia de S1 señalan un ritmo más acelerado del desarrollo de la IA.

Toma: Construyendo una fuerza laboral de IA para la industria automotriz de $1.5 billones

2025-02-05
Toma: Construyendo una fuerza laboral de IA para la industria automotriz de $1.5 billones

Toma está construyendo una fuerza laboral de IA de extremo a extremo para la industria automotriz de $1.5 billones. Sus clientes más grandes gastan más de $1.5 mil millones anuales en procesos fácilmente automatizables con IA, incluyendo atención al cliente, gestión de órdenes de reparación, procesamiento de garantías y ventas. El equipo de Toma cuenta con un historial comprobado de creación y venta de aplicaciones de IA exitosas, un producto de IA de voz de primera clase y una profunda experiencia práctica obtenida trabajando directamente con y estudiando concesionarios de automóviles. Operan con un enfoque orientado a equipos, responsable, enfatizando las decisiones basadas en datos y proporcionando una autonomía significativa. Ubicada en el barrio Dogpatch de San Francisco, Toma ofrece un ambiente acelerado y sin rodeos donde las personas excepcionales pueden causar un impacto sustancial. Trabajan en la oficina cinco días a semana.

IA

Google elimina compromiso con IA para armas y vigilancia

2025-02-04
Google elimina compromiso con IA para armas y vigilancia

Google eliminó silenciosamente esta semana de su sitio web un compromiso de no desarrollar IA para armas o vigilancia. El cambio, reportado inicialmente por Bloomberg, provocó controversia. Si bien Google ahora enfatiza el desarrollo responsable de la IA alineado con el derecho internacional y los derechos humanos, sus contratos con los militares de EE. UU. e Israel, junto con las afirmaciones del Pentágono de que la IA de Google está acelerando la 'cadena de muerte' militar, plantean preocupaciones sobre la brecha entre sus principios declarados y sus acciones. Las protestas internas de los empleados y el escrutinio público destacan los dilemas éticos en torno al desarrollo e implementación de la IA.

La Alquimia del Entrenamiento Eficiente de LLMs: Más Allá de los Límites de Computación

2025-02-04

Este artículo profundiza en el entrenamiento eficiente de modelos de lenguaje grandes (LLMs) a escala masiva. El autor argumenta que, incluso con decenas de miles de aceleradores, principios relativamente simples pueden mejorar significativamente el rendimiento del modelo. Los temas tratados incluyen la evaluación del rendimiento del modelo, la elección de esquemas de paralelismo a diferentes escalas, la estimación del costo y el tiempo de entrenamiento de modelos grandes de Transformer y el diseño de algoritmos que aprovechan las ventajas específicas del hardware. A través de explicaciones detalladas de las arquitecturas de TPU y GPU, y un análisis detallado de la arquitectura Transformer, los lectores obtendrán una mejor comprensión de los cuellos de botella de escalado y diseñarán modelos y algoritmos más eficientes.

OmniHuman-1: Repensando el Escalamiento de los Modelos de Animación Humana Condicionada de una Etapa

2025-02-04

OmniHuman-1 es un modelo de IA capaz de generar videos realistas de humanos. Admite varios estilos visuales y de audio, generando videos en cualquier relación de aspecto y proporción corporal (retrato, medio cuerpo, cuerpo entero). El realismo proviene de detalles exhaustivos de movimiento, iluminación y textura. El modelo maneja diversas entradas, incluyendo canto, habla y varias poses, incluso de dibujos animados o perspectivas desafiantes. Utiliza señales de conducción de audio y video para un control preciso. Se abordan las consideraciones éticas, con imágenes y audio provenientes de dominios públicos o modelos generados.

Radiant Foam: Un avance en el trazado de rayos diferenciable en tiempo real

2025-02-04

Los investigadores presentan Radiant Foam, una nueva representación de escena que combina la eficiencia del trazado de rayos de malla volumétrica con la calidad de reconstrucción de los métodos de splatting. Aprovechando los diagramas de Voronoi y la triangulación de Delaunay, Radiant Foam logra el trazado de rayos en tiempo real, superando incluso al trazado de rayos gaussiano acelerado por hardware en velocidad, mientras que casi iguala la calidad de reconstrucción de los métodos de splatting gaussianos. Evita estructuras de aceleración complejas y hardware/APIs especiales, requiriendo solo una GPU programable estándar. Este avance promete avanzar significativamente el renderizado en tiempo real.

OpenAI firma acuerdo de 3.000 millones de dólares con SoftBank y podría abrir el código fuente de sus modelos

2025-02-04
OpenAI firma acuerdo de 3.000 millones de dólares con SoftBank y podría abrir el código fuente de sus modelos

OpenAI anunció el lunes una empresa conjunta con SoftBank de Japón, con el gigante de la inversión gastando 3.000 millones de dólares anuales para utilizar el software de OpenAI. Este cambio de estrategia parece ser una respuesta al ascenso inesperado de DeepSeek. El modelo de inteligencia artificial de vanguardia de la empresa china utiliza solo una fracción de la potencia informática del ChatGPT de OpenAI y productos similares, subvirtiendo las suposiciones generalizadas sobre los requisitos técnicos y financieros de la expansión de la IA. Mientras tanto, el CEO de OpenAI, Sam Altman, dijo que estaba considerando convertir sus productos en código abierto, como los de DeepSeek, lo que potencialmente significaría que cualquiera podría usar y reutilizar los modelos de OpenAI: Altman dijo en Reddit que OpenAI había estado "del lado equivocado de la historia" al mantener su código fuente privado.

Bonobos demuestran que entienden la ignorancia: Un avance innovador en la investigación sobre la Teoría de la Mente

2025-02-04
Bonobos demuestran que entienden la ignorancia: Un avance innovador en la investigación sobre la Teoría de la Mente

Un nuevo estudio demuestra que los bonobos poseen teoría de la mente, comprendiendo la falta de conocimiento de otros y actuando en consecuencia. Los investigadores diseñaron un experimento en el que los bonobos ayudaban a un experimentador a encontrar golosinas escondidas. Los resultados mostraron que los bonobos señalaban más rápido y con más frecuencia cuando se daban cuenta de que el experimentador no sabía la ubicación de la golosina. Esto indica que los bonobos rastrean y responden a perspectivas diferentes, lo que sugiere que la teoría de la mente puede ser más antigua de lo que se pensaba anteriormente y potencialmente presente en nuestro ancestro común.

Auto-AVSR: Framework de Reconocimiento de Habla por Lectura Labial de Código Abierto

2025-02-03
Auto-AVSR: Framework de Reconocimiento de Habla por Lectura Labial de Código Abierto

Auto-AVSR es un framework de código abierto de reconocimiento de habla audio-visual (AV-ASR) de extremo a extremo, centrado en el habla visual (lectura labial). Alcanzó una tasa de error de palabras (WER) del 20,3% para el reconocimiento de habla visual (VSR) y del 1,0% para el reconocimiento de habla de audio (ASR) en el benchmark LRS3. Proporciona código y tutoriales para el entrenamiento, la evaluación y el uso de la API, con soporte para entrenamiento en varios nodos. Los usuarios pueden utilizar modelos preentrenados o entrenar desde cero, personalizando los hiperparámetros según sea necesario.

OpenEuroLLM: Europa impulsa los LLM multilingües de código abierto

2025-02-03

Un consorcio de 20 instituciones de investigación y empresas líderes en Europa ha lanzado OpenEuroLLM, un proyecto para construir una familia de modelos de lenguaje extenso (LLM) multilingües de alto rendimiento. La iniciativa tiene como objetivo impulsar la competitividad de la IA en Europa, democratizando el acceso a tecnologías de IA de alta calidad mediante principios de código abierto. Esto permitirá a las empresas y organizaciones públicas europeas desarrollar productos y servicios impactantes. OpenEuroLLM opera dentro del marco regulatorio de Europa y colabora con comunidades de código abierto para garantizar la apertura completa de modelos, software, datos y evaluación, atendiendo a las diversas necesidades de los sectores público y privado, preservando la diversidad lingüística y cultural.

Documento de capacitación de IBM perdido: las computadoras no pueden ser responsables (1979)

2025-02-03
Documento de capacitación de IBM perdido: las computadoras no pueden ser responsables (1979)

Una página legendaria de una capacitación interna de IBM de 1979 resurgió en línea, afirmando: 'Una computadora nunca puede ser considerada responsable; por lo tanto, una computadora nunca debe tomar una decisión de gestión'. La fuente original se perdió, supuestamente destruida por una inundación. Esta declaración resuena poderosamente en nuestra era impulsada por la IA, lo que lleva a la reflexión sobre la responsabilidad y la toma de decisiones de la IA.

s1: Escalado Simple en Tiempo de Prueba para un Razonamiento Sólido

2025-02-03
s1: Escalado Simple en Tiempo de Prueba para un Razonamiento Sólido

Este artículo presenta s1, un método simple de escalado en tiempo de prueba que logra un rendimiento de razonamiento sólido que coincide con o1-preview utilizando solo 1000 ejemplos y forzado de presupuesto. El método mejora significativamente el rendimiento en los modelos de lenguaje grandes a través de estrategias inteligentes en tiempo de prueba. El código y los datos son de código abierto para la reproducibilidad y la exploración adicional.

Clasificadores Constitucionales de Anthropic: Una Nueva Defensa contra Jailbreaks de IA

2025-02-03
Clasificadores Constitucionales de Anthropic: Una Nueva Defensa contra Jailbreaks de IA

El equipo de investigación de salvaguardias de Anthropic presenta los Clasificadores Constitucionales, una nueva defensa contra los jailbreaks de IA. Este sistema, entrenado con datos sintéticos, filtra eficazmente las salidas perjudiciales, minimizando los falsos positivos. Un prototipo resistió miles de horas de red teaming humano, reduciendo significativamente las tasas de éxito de los jailbreaks, aunque inicialmente sufrió altas tasas de rechazo y sobrecarga computacional. Una versión actualizada mantiene la robustez con solo un pequeño aumento en la tasa de rechazo y un coste computacional moderado. Una demostración en vivo temporal invita a expertos en seguridad a probar su resistencia, allanando el camino para una implementación más segura de modelos de IA cada vez más potentes.

Klarity: Descifrando la incertidumbre en modelos generativos

2025-02-03
Klarity: Descifrando la incertidumbre en modelos generativos

Klarity es una herramienta para analizar la incertidumbre en las salidas de modelos generativos. Combina el análisis de probabilidad bruta y la comprensión semántica para proporcionar información detallada sobre el comportamiento del modelo durante la generación de texto. La biblioteca ofrece análisis de entropía dual, agrupamiento semántico y salida JSON estructurada, junto con un análisis impulsado por IA para obtener información comprensible para los humanos. Actualmente admite Hugging Face Transformers, con planes para ampliar el soporte a más frameworks y modelos.

Mapeo de Proyección Facial Dinámica Alineado Perceptualmente: Seguimiento de Alta Velocidad y Configuración Coaxial

2025-02-03
Mapeo de Proyección Facial Dinámica Alineado Perceptualmente: Seguimiento de Alta Velocidad y Configuración Coaxial

Investigadores desarrollaron un nuevo sistema de mapeo de proyección facial dinámica (DFPM) de alta velocidad que reduce significativamente los artefactos de desalineación. Esto se logra mediante un método de seguimiento facial de alta velocidad que utiliza una detección de rostro basada en interpolación/extrapolación limitada al área recortada y un conjunto rápido de árboles de regresión (ERT) para la detección de puntos de referencia (0,107 ms). Una configuración de proyector-cámara coaxial con desplazamiento de lente mantiene una alta alineación óptica con un error mínimo (1,274 píxeles entre 1 m y 2 m). Este sistema logra una alineación casi perfecta, mejorando las experiencias inmersivas en maquillaje y entretenimiento.

Epistemología Bayesiana 101: Creencias, Evidencia y Racionalidad

2025-02-03

Este tutorial introduce la epistemología bayesiana, centrándose en sus normas centrales: probabilismo y el principio de condicionalización. Utilizando la observación del eclipse solar de Eddington como caso de estudio, ilustra cómo los métodos bayesianos actualizan la creencia en hipótesis. El tutorial explora luego desacuerdos dentro del bayesianismo con respecto a probabilidades previas, coherencia y el alcance de la condicionalización, presentando argumentos fundamentales como argumentos de libros holandeses, argumentos de dominancia de precisión y argumentos de probabilidad comparativa. Finalmente, aborda el problema de la idealización y la aplicación de métodos bayesianos en la ciencia.

Pensamiento Real vs. Pensamiento Falso: Mantenerse Despierto en la Era de la IA

2025-02-03
Pensamiento Real vs. Pensamiento Falso: Mantenerse Despierto en la Era de la IA

Este ensayo explora la diferencia entre el 'pensamiento real' y el 'pensamiento falso'. El autor argumenta que el 'pensamiento real' no es simplemente pensar en cosas concretas, sino una forma de pensar más profunda y perspicaz que se centra en comprender realmente el mundo, en lugar de permanecer atrapado en conceptos abstractos o marcos preexistentes. Usando ejemplos como el riesgo de la IA, la filosofía y el debate competitivo, el ensayo describe varias dimensiones del 'pensamiento real' y sugiere métodos para cultivar esta capacidad, como reducir la velocidad, seguir la curiosidad y prestar atención a las motivaciones detrás del pensamiento. El autor hace un llamado para mantenerse despierto en la era de la IA, evitando las trampas del 'pensamiento falso' y comprendiendo y respondiendo realmente a los cambios que se avecinan.

TopoNets: Modelos de Visión y Lenguaje de Alto Rendimiento con Topografía Similar al Cerebro

2025-02-03
TopoNets: Modelos de Visión y Lenguaje de Alto Rendimiento con Topografía Similar al Cerebro

Los investigadores presentan TopoLoss, un nuevo método para incorporar una topografía similar al cerebro en las principales arquitecturas de IA (redes convolucionales y transformadores) con una pérdida mínima de rendimiento. Los modelos TopoNets resultantes logran un rendimiento de vanguardia entre las redes neuronales topográficas supervisadas. TopoLoss es fácil de implementar, y los experimentos muestran que TopoNets mantienen un alto rendimiento al tiempo que exhiben una organización espacial similar al cerebro. Además, TopoNets producen modelos de lenguaje escasos y eficientes en cuanto a parámetros, y demuestran una selectividad regional similar al cerebro en el reconocimiento de imágenes y ventanas de integración temporal en los modelos de lenguaje, reflejando patrones observados en la corteza visual y las áreas de procesamiento del lenguaje del cerebro.

IA

Proyecto 'Strawberry' de OpenAI: Apuntando al Razonamiento Profundo en IA

2025-02-03
Proyecto 'Strawberry' de OpenAI: Apuntando al Razonamiento Profundo en IA

OpenAI está desarrollando en secreto un proyecto con el nombre en código "Strawberry", con el objetivo de superar las limitaciones en las capacidades de razonamiento de los modelos de IA actuales. El proyecto busca permitir que la IA planifique y realice investigaciones profundas en internet de forma autónoma, en lugar de simplemente responder a consultas. Documentos internos revelan que el modelo "Strawberry" utilizará un método de post-entrenamiento especializado, combinado con capacidades de autoaprendizaje y planificación, para resolver problemas complejos de forma fiable. Esto se considera un avance significativo, con potencial para revolucionar el papel de la IA en el descubrimiento científico y el desarrollo de software, al tiempo que plantea preocupaciones éticas sobre las capacidades futuras de la IA.

El chatbot chino DeepSeek censura la foto del 'Hombre del Tanque' y sacude los mercados estadounidenses

2025-02-02
El chatbot chino DeepSeek censura la foto del 'Hombre del Tanque' y sacude los mercados estadounidenses

El chatbot chino DeepSeek ha generado controversia al negarse a responder preguntas sobre la icónica foto del 'Hombre del Tanque' de la Plaza de Tiananmén de 1989. El chatbot interrumpe abruptamente las discusiones sobre la imagen y otros temas delicados relacionados con China, mientras que proporciona respuestas detalladas sobre líderes mundiales como el primer ministro del Reino Unido. Simultáneamente, las poderosas capacidades de generación de imágenes de DeepSeek (Janus-Pro-7B) y su sorprendentemente bajo costo de desarrollo (según se informa, solo 6 millones de dólares) han enviado ondas de choque a los mercados estadounidenses, causando una caída récord del 17% en las acciones de Nvidia y provocando preocupación entre los gigantes tecnológicos estadounidenses y los políticos.

El autor de ciencia ficción Ted Chiang sobre la IA y el futuro de la tecnología

2025-02-02
El autor de ciencia ficción Ted Chiang sobre la IA y el futuro de la tecnología

Esta entrevista con el maestro de ciencia ficción Ted Chiang explora su inspiración creativa, su perspectiva crítica sobre la IA y sus preocupaciones sobre la dirección futura de la tecnología. Chiang argumenta que la IA actual, especialmente los grandes modelos de lenguaje, son más como imágenes de baja resolución de internet, carentes de fiabilidad y comprensión verdadera. Destaca la relación entre humanos y herramientas, y la tendencia humana a verse a sí mismos en sus herramientas. La entrevista también aborda la naturaleza del lenguaje, el papel de la IA en la creación artística y las consideraciones éticas en el desarrollo tecnológico. El optimismo de Chiang sobre la tecnología es cauteloso; cree que debemos ser conscientes de los posibles impactos negativos y trabajar para mitigar sus daños.

IA
1 2 33 34 35 36 37 38 40