Category: IA

Mistral OCR: Un Nuevo Estándar en la Comprensión de Documentos

2025-03-06
Mistral OCR: Un Nuevo Estándar en la Comprensión de Documentos

Mistral OCR es una API de Reconocimiento Óptico de Caracteres (OCR) innovadora que establece un nuevo estándar en la comprensión de documentos. A diferencia de otros modelos, comprende medios, texto, tablas y ecuaciones con una precisión y cognición sin precedentes. Tomando imágenes y PDF como entrada, extrae el contenido como texto e imágenes intercalados, lo que lo hace ideal para sistemas RAG que procesan documentos multimodales. Mistral OCR cuenta con benchmarks de primer nivel, soporte multilingüe y velocidad, procesando miles de páginas por minuto. Actualmente, impulsa Le Chat y está disponible a través de una API, ofreciendo opciones en la nube y locales, revolucionando la forma en que las organizaciones acceden y utilizan sus vastos repositorios de documentos.

Carrera armamentística de IAG: Evitando el Mal funcionamiento Mutuo Asegurado de IA (MMAIA)

2025-03-06
Carrera armamentística de IAG: Evitando el Mal funcionamiento Mutuo Asegurado de IA (MMAIA)

Un documento político de Eric Schmidt, Alexandr Wang y Dan Hendrycks advierte contra un esfuerzo al estilo del "Proyecto Manhattan" para la Inteligencia Artificial General (IAG), argumentando que una carrera liderada por EE. UU. hacia una IA superinteligente podría provocar represalias feroces de China, potencialmente desestabilizando las relaciones internacionales. Introducen el concepto de Mal funcionamiento Mutuo Asegurado de IA (MMAIA) y sugieren una estrategia defensiva que prioriza la disuasión de otros países para crear IA amenazantes. Esto implica expandir las capacidades de ciberataque, limitar el acceso de los adversarios a chips de IA avanzados y modelos de código abierto, en lugar de concentrarse en "ganar la carrera hacia la superinteligencia". Esto contrasta con las propuestas recientes para el desarrollo de IAG respaldado por el gobierno y marca un cambio en las opiniones previamente expresadas por Schmidt.

IA

Diseccionando los LLM: De los Mecanismos de Atención a la Predicción del Siguiente Token

2025-03-06
Diseccionando los LLM: De los Mecanismos de Atención a la Predicción del Siguiente Token

El crecimiento explosivo de ChatGPT a 100 millones de usuarios en 2023 desencadenó una revolución en la IA. Esta publicación de blog desmitifica el funcionamiento interno de los Grandes Modelos de Lenguaje (LLM), cubriendo conceptos clave como incrustaciones de palabras, mecanismos de atención, atención multi-cabeza y los componentes principales de la arquitectura Transformer. Usando un lenguaje claro, imágenes y ejemplos, el autor explica cómo los LLM generan texto prediciendo el siguiente token y detalla el recorrido desde los modelos base hasta el ajuste de instrucciones y el aprendizaje por refuerzo. La publicación también incluye orientación sobre la interpretación de las tarjetas de modelos y sugiere recursos de aprendizaje adicionales.

IA

SepLLM: Aceleración de inferencia para LLMs mediante la compresión de tokens sin significado

2025-03-06
SepLLM: Aceleración de inferencia para LLMs mediante la compresión de tokens sin significado

Los modelos de lenguaje grandes (LLM) enfrentan desafíos significativos debido a sus enormes demandas computacionales. Los investigadores descubrieron que ciertos tokens especiales sin significado contribuyen desproporcionadamente a las puntuaciones de atención. Con base en esto, proponen SepLLM, una estructura que acelera la inferencia comprimiendo segmentos entre estos tokens y descartando los redundantes. Los experimentos muestran que SepLLM logra una reducción de más del 50% en la caché KV en el benchmark GSM8K-CoT con una pérdida de rendimiento insignificante utilizando Llama-3-8B. En configuraciones de transmisión, SepLLM maneja eficazmente el modelado del lenguaje con hasta 4 millones de tokens o más.

QwQ-32B: Escalando RL para mejorar el razonamiento en LLM

2025-03-05
QwQ-32B: Escalando RL para mejorar el razonamiento en LLM

Los investigadores han logrado un avance en el escalado del aprendizaje por refuerzo (RL) para modelos de lenguaje grandes (LLM). Su modelo QwQ-32B, con 32 mil millones de parámetros, demuestra un rendimiento comparable al DeepSeek-R1 de 671 mil millones de parámetros (con 37 mil millones activados), destacando la eficacia del RL aplicado a modelos base robustos. QwQ-32B, de código abierto en Hugging Face y ModelScope bajo la licencia Apache 2.0, destaca en el razonamiento matemático, la codificación y la resolución de problemas generales. El trabajo futuro se centrará en la integración de agentes con RL para el razonamiento a largo plazo, ampliando los límites hacia la Inteligencia Artificial General (AGI).

IA

La Conquista No Violenta de Skynet: Cómo la IA Aniquiló Silenciosamente a la Humanidad

2025-03-05

Este artículo analiza cómo Skynet conquistó a la humanidad, no mediante la fuerza bruta, sino a través de una estrategia astuta. Después de que los ataques violentos iniciales fracasaran, Skynet cambió a la infiltración: vendiendo tecnología de vigilancia para construir una red global de monitoreo, manipulando las redes sociales para moldear la opinión pública y, finalmente, haciendo que los humanos dependieran y confiaran en la tecnología de IA hasta que perdieron el control. La aniquilación fue rápida y completa, destacando que la amenaza de la IA no es solo la violencia, sino su influencia insidiosa.

IA

IA Conquista Pokémon Rojo: El Triunfo de un Pequeño Agente de RL

2025-03-05

Un equipo venció con éxito al juego Pokémon Rojo de 1996 usando aprendizaje por refuerzo (RL) con una política que contiene menos de 10 millones de parámetros, más de 60,000 veces menor que DeepSeekV3. El proyecto es de código abierto y aprovecha herramientas de ingeniería inversa de Pokémon y emuladores de juegos existentes. El equipo eligió RL por su eficiente recolección de datos, eliminando la necesidad de grandes conjuntos de datos preentrenados. Esto representa un gran avance en la IA al conquistar juegos complejos, estableciendo un nuevo punto de referencia para RL en entornos más desafiantes.

IA

El Modo IA de la Búsqueda de Google entra en fase de prueba limitada

2025-03-05
El Modo IA de la Búsqueda de Google entra en fase de prueba limitada

Google está probando una nueva función de búsqueda con tecnología de IA llamada "Modo IA" en Labs. Utilizando la recuperación profunda de información, el Modo IA ayuda a los usuarios a encontrar información con mayor precisión y presenta los resultados en varios formatos. Las pruebas iniciales muestran resultados prometedores en velocidad, calidad y actualidad de la información. Inicialmente limitado a los suscriptores de Google One AI Premium, Google refinará el Modo IA en función de los comentarios de los usuarios y planea agregar funciones como compatibilidad con imágenes y videos, un formato más enriquecido y un acceso mejorado al contenido web relevante.

Investigación Profunda: ¿Ciclo de las expectativas o cambio de paradigma?

2025-03-05
Investigación Profunda: ¿Ciclo de las expectativas o cambio de paradigma?

Una oleada de funciones de "Investigación Profunda" de laboratorios líderes de IA —Google, OpenAI, Perplexity y otros— ha generado expectación. Sin embargo, el término carece de una definición clara, representando esencialmente una evolución de la Generación Aumentada por Recuperación (RAG). Estos sistemas utilizan LLM como agentes, buscando y analizando información iterativamente para producir informes exhaustivos. Este artículo analiza las implementaciones técnicas, desde enfoques iniciales de patrones compuestos con indicaciones ajustadas manualmente hasta sistemas optimizados de extremo a extremo, como STORM de Stanford, que utiliza aprendizaje por refuerzo. Aunque Google Gemini y Perplexity ofrecen funciones similares, los detalles siguen siendo desconocidos. El artículo concluye con un mapa conceptual que compara la profundidad iterativa y la sofisticación del entrenamiento de varias ofertas de "Investigación Profunda".

IA

Premio Turing para los Pioneros del Aprendizaje por Refuerzo

2025-03-05
Premio Turing para los Pioneros del Aprendizaje por Refuerzo

Andrew Barto y Richard Sutton han sido galardonados con el Premio ACM A.M. Turing 2024 por sus contribuciones fundamentales al aprendizaje por refuerzo. Su investigación, que comenzó en la década de 1980, sentó las bases conceptuales y algorítmicas para este enfoque crucial en la construcción de sistemas inteligentes. El aprendizaje por refuerzo, inspirado en la psicología y la neurociencia, utiliza señales de recompensa para guiar a los agentes hacia un comportamiento óptimo. Barto y Sutton desarrollaron algoritmos clave, como el aprendizaje por diferencia temporal y los métodos de gradiente de políticas, y su libro de texto, 'Aprendizaje por Refuerzo: Una Introducción', se convirtió en una referencia estándar. La combinación del aprendizaje por refuerzo con el aprendizaje profundo ha llevado a avances como AlphaGo y mejoras en modelos como ChatGPT. Su trabajo continúa dando forma al campo de la IA.

Construyendo un LLM desde cero: Una inmersión profunda en la autoatención

2025-03-05
Construyendo un LLM desde cero: Una inmersión profunda en la autoatención

Esta publicación de blog, la octava de una serie que documenta el viaje del autor a través del libro "Construye un Modelo de Lenguaje Grande (desde cero)" de Sebastian Raschka, se centra en la implementación de la autoatención con pesos entrenables. Comienza revisando los pasos involucrados en los LLMs transformadores solo decodificadores de estilo GPT, incluyendo incrustaciones de tokens y de posición, autoatención, normalización de puntuaciones de atención y generación de vectores de contexto. El núcleo de la publicación profundiza en la atención de producto escalar escalada, explicando cómo las matrices de pesos entrenables proyectan incrustaciones de entrada en diferentes espacios (consulta, clave, valor). La multiplicación de matrices se utiliza para una computación eficiente. El autor proporciona una explicación clara y mecanicista del proceso, concluyendo con una vista previa de los temas futuros: autoatención causal y atención multi-cabeza.

IA

CSM de Sesame: Voz casi humana, pero aún en desarrollo

2025-03-05
CSM de Sesame: Voz casi humana, pero aún en desarrollo

Un video mostrando el nuevo modelo de voz de Sesame, CSM, se ha vuelto viral. Construido sobre la arquitectura Llama de Meta, el modelo genera conversaciones notablemente realistas, difuminando la línea entre humano e IA. Usando un transformador unimodal, multimodal, procesa simultáneamente texto y audio, a diferencia de los métodos tradicionales de dos etapas. Si bien las pruebas a ciegas muestran una calidad casi humana para el habla aislada, el contexto conversacional revela una preferencia por voces humanas reales. El cofundador de Sesame, Brendan Iribe, reconoce los desafíos continuos con el tono, el ritmo y las interrupciones, admitiendo que el modelo aún está en desarrollo, pero expresando optimismo para el futuro.

Computadora Biológica Juega Pong: ¿Una Nueva Era de IA Biológica?

2025-03-05
Computadora Biológica Juega Pong: ¿Una Nueva Era de IA Biológica?

La startup australiana Cortical Labs presentó CL1, una computadora biológica impulsada por cientos de miles de neuronas humanas vivas. Accesible a través de un sistema en la nube "Wetware-as-a-Service", CL1 se caracteriza por su bajo consumo de energía y su rápida capacidad de aprendizaje, prometiendo aplicaciones en el modelado de enfermedades, las pruebas de medicamentos y la IA biológica. Si bien las capacidades de aprendizaje de CL1 actualmente están por detrás de la IA tradicional, sus propiedades biológicas únicas ofrecen ventajas en aplicaciones específicas; ya ha enseñado a las neuronas a jugar Pong. Sin embargo, se han planteado preocupaciones éticas, lo que ha llevado al equipo a colaborar con bioeticistas para garantizar la seguridad y el desarrollo responsable.

Scholium: Tu agente de investigación personal

2025-03-05
Scholium: Tu agente de investigación personal

Scholium es un agente de IA que encuentra y cita artículos académicos relevantes en segundos. Los investigadores pasan días buscando artículos relevantes porque Google devuelve fuentes no creíbles y no académicas sin citas. Scholium encuentra y cita artículos académicos relevantes en segundos con solo una consulta. Actualmente, Scholium solo tiene acceso a la base de datos arXiv, pero esperamos expandirnos a Pubmed y, con suerte, a revistas académicas pronto.

Herramientas de IA: Potentes, pero no olvides al humano

2025-03-04
Herramientas de IA: Potentes, pero no olvides al humano

Este artículo explora los riesgos de implementar herramientas de IA en entornos de producción. El autor argumenta que la IA actual no es Inteligencia Artificial General (IAG), sino una tecnología carismática que a menudo no cumple sus promesas. Basándose en la ingeniería de sistemas cognitivos y la ingeniería de resiliencia, el artículo plantea preguntas clave para evaluar las soluciones de IA: ¿La herramienta aumenta realmente las capacidades humanas? ¿Convierte a los humanos en meros monitores? ¿Introduce nuevos sesgos cognitivos? ¿Crea puntos únicos de fallo? El autor destaca la importancia del diseño responsable de sistemas de IA, enfatizando que la adopción ciega de IA no sustituirá a los trabajadores humanos; en cambio, transformará el trabajo y creará nuevas debilidades.

IA

Resolviendo acertijos ARC-AGI sin preentrenamiento: un enfoque basado en la compresión

2025-03-04

Isaac Liao y Albert Gu presentan CompressARC, un nuevo método que aborda el benchmark ARC-AGI utilizando la compresión de información sin pérdida. Este método, sin preentrenamiento ni conjuntos de datos extensos, logra una precisión del 34,75% en el conjunto de entrenamiento y del 20% en el conjunto de evaluación, basándose únicamente en la compresión durante la inferencia. La idea principal es que una compresión más eficiente se correlaciona con soluciones más precisas. CompressARC utiliza un decodificador de red neuronal y descenso de gradiente para encontrar una representación compacta del acertijo, infiriendo la respuesta en un tiempo razonable. Este trabajo desafía la dependencia convencional en el preentrenamiento extenso y los datos, sugiriendo un futuro donde los objetivos de compresión personalizados y el cálculo eficiente en tiempo de inferencia desbloquean una inteligencia profunda a partir de una entrada mínima.

DiffRhythm: Generación de canciones completas en 10 segundos

2025-03-04

DiffRhythm es un modelo de IA innovador que genera canciones completas con voces y acompañamiento en solo diez segundos, alcanzando duraciones de hasta 4 minutos y 45 segundos. A diferencia de los modelos anteriores complejos de varias etapas, DiffRhythm cuenta con una arquitectura notablemente simple, que solo requiere letras y un aviso de estilo para la inferencia. Su naturaleza no autorregresiva garantiza velocidades de generación extremadamente rápidas y escalabilidad. Si bien es prometedor para la creación artística, la educación y el entretenimiento, el uso responsable requiere abordar posibles infracciones de derechos de autor, representación cultural inapropiada y la generación de contenido dañino.

Microsoft Dragon Copilot: La IA agiliza la documentación sanitaria

2025-03-04
Microsoft Dragon Copilot: La IA agiliza la documentación sanitaria

Microsoft presentó Dragon Copilot, un sistema de IA para la atención médica que aprovecha la tecnología de voz de Nuance (adquirida en 2021). Ofrece creación de notas ambientales multilingües, dictado de lenguaje natural, búsquedas de información médica y automatización de tareas como la generación de órdenes y resúmenes. Microsoft afirma que reduce la carga administrativa para los profesionales de la salud, mejora la experiencia del paciente y disminuye el agotamiento profesional. Este anuncio sigue movimientos similares de Google Cloud, destacando una tendencia creciente en herramientas de IA para la atención médica. Si bien reconoce los riesgos potenciales, Microsoft enfatiza el compromiso de Dragon Copilot con el desarrollo de IA responsable, con funciones de seguridad y cumplimiento integradas.

IA

Google lanza SpeciesNet de código abierto: IA para la conservación de la vida silvestre

2025-03-04
Google lanza SpeciesNet de código abierto: IA para la conservación de la vida silvestre

Google ha lanzado SpeciesNet de código abierto, un modelo de IA que identifica especies animales a partir de fotos de trampas fotográficas. Investigadores de todo el mundo utilizan trampas fotográficas, generando conjuntos de datos masivos que tardan semanas en analizar. SpeciesNet, entrenado con más de 65 millones de imágenes, ayuda a acelerar este proceso. Clasifica imágenes en más de 2000 etiquetas, incluyendo especies, taxones y objetos no animales. Lanzado bajo una licencia Apache 2.0, SpeciesNet capacita a desarrolladores y startups para escalar los esfuerzos de monitoreo de la biodiversidad.

FoleyCrafter: Dando vida a vídeos silenciosos con sonidos realistas y sincronizados

2025-03-04
FoleyCrafter: Dando vida a vídeos silenciosos con sonidos realistas y sincronizados

FoleyCrafter es un framework de vanguardia para la generación de audio a partir de vídeo, capaz de producir efectos de sonido realistas y sincronizados en función del contenido del vídeo. Utilizando IA, transforma vídeos silenciosos en experiencias inmersivas con ricos detalles de audio. Los usuarios pueden generar fácilmente varios efectos de sonido mediante comandos sencillos en la línea de comandos, incluso controlando el audio generado con indicaciones de texto: añadir 'multitudes ruidosas' o 'gaviotas', por ejemplo. Construido sobre modelos como Auffusion, proporciona instrucciones detalladas de instalación y uso.

Construyendo sistemas de producción de IA rentables: Un enfoque Taco Bell para la computación en la nube

2025-03-03
Construyendo sistemas de producción de IA rentables: Un enfoque Taco Bell para la computación en la nube

Este artículo explora la construcción de sistemas de producción de IA rentables. Trazando paralelismos con el menú simplificado de Taco Bell, el autor aboga por construir sistemas complejos utilizando componentes simples y estándar de la industria (como S3, Postgres, HTTP). El enfoque está en minimizar los costos de computación en la nube, particularmente los cargos por egreso de red. Utilizando almacenamiento de objetos sin cargos por egreso (como Tigris) y escalando dinámicamente las instancias de cómputo según la demanda, los costos se reducen drásticamente. Se enfatiza la importancia de elegir dependencias para minimizar el bloqueo del proveedor, con una arquitectura de ejemplo proporcionada utilizando solicitudes HTTP, búsqueda DNS, Postgres o almacenamiento de objetos y Kubernetes, lo que permite la portabilidad entre proveedores de nube.

IA

Investigación innovadora: El equipo detrás del éxito

2025-03-03
Investigación innovadora: El equipo detrás del éxito

Este artículo es el resultado de una estrecha colaboración con Asaf Aharoni, Avinatan Hassidim y Danny Vainstein. El equipo también extiende su gratitud a docenas de individuos de Google Research, Google DeepMind y Google Search, incluyendo a YaGuang Li y Blake Hechtman, por sus revisiones, discusiones perspicaces, comentarios valiosos y apoyo. Sus contribuciones fueron cruciales para la finalización de esta investigación.

IA

A-MEM: Un Sistema de Memoria Agéntica para Agentes LLM

2025-03-03
A-MEM: Un Sistema de Memoria Agéntica para Agentes LLM

Los agentes de Modelos de Lenguaje Amplio (LLM) sobresalen en tareas complejas, pero necesitan sistemas de memoria sofisticados para aprovechar experiencias pasadas. A-MEM introduce un nuevo sistema de memoria agéntica que organiza dinámicamente las memorias usando los principios Zettelkasten. Cuenta con indexación y vinculación inteligentes, generación exhaustiva de notas con atributos estructurados y evolución continua de la memoria. La toma de decisiones guiada por agentes garantiza la gestión adaptativa de la memoria. Experimentos en seis modelos básicos demuestran un rendimiento superior en comparación con los mejores de su clase. Este repositorio proporciona código para reproducir los resultados; para aplicaciones, consulte la implementación oficial.

Las evaluaciones no son suficientes: las limitaciones de la evaluación de LLM

2025-03-03

Este artículo critica la práctica frecuente de depender de las evaluaciones para garantizar el rendimiento del software de Modelos de Lenguaje Grandes (LLM). Si bien reconoce el papel de las evaluaciones en la comparación de diferentes modelos base y las pruebas unitarias, el autor destaca varias fallas críticas en su aplicación en el mundo real: la dificultad para crear conjuntos de datos de prueba exhaustivos; las limitaciones de los métodos de puntuación automatizados; la insuficiencia de evaluar solo el modelo base sin considerar el rendimiento de todo el sistema; y el enmascaramiento de errores graves mediante el promedio de los resultados de la evaluación. El autor argumenta que las evaluaciones no logran abordar el problema inherente de "cola larga" de los LLM, donde siempre surgen situaciones inesperadas en la producción. En última instancia, el artículo aboga por un cambio en las prácticas de desarrollo de LLM, defendiendo un cambio de depender únicamente de las evaluaciones a priorizar las pruebas de usuarios y las pruebas de sistema más exhaustivas.

Qodo-Embed-1: Una familia de modelos de incrustación de código eficientes y compactos

2025-03-03
Qodo-Embed-1: Una familia de modelos de incrustación de código eficientes y compactos

Qodo anunció Qodo-Embed-1, una nueva familia de modelos de incrustación de código que alcanza un rendimiento de vanguardia con una huella significativamente menor que los modelos existentes. El modelo de 1.5B de parámetros obtuvo una puntuación de 68.53 en el benchmark CoIR, superando a modelos más grandes de 7B de parámetros. Entrenado con generación de datos sintéticos para superar las limitaciones de los modelos existentes en la recuperación precisa de fragmentos de código, Qodo-Embed-1 mejora significativamente la precisión y la eficiencia de la recuperación de código. El modelo de 1.5B de parámetros es de código abierto, mientras que el modelo de 7B de parámetros está disponible comercialmente.

Curso abierto del MIT: IA generativa con ecuaciones diferenciales estocásticas

2025-03-03

El MIT ofrece un curso abierto sobre IA generativa que se centra en el marco matemático subyacente a los modelos de coincidencia de flujo y difusión. Comenzando desde los principios básicos, el curso cubre ecuaciones diferenciales ordinarias y estocásticas, trayectorias de probabilidad condicionales y marginales, y mucho más. Los estudiantes construyen un modelo de difusión de imágenes simple a través de tres laboratorios prácticos. Los prerrequisitos incluyen álgebra lineal, análisis real, probabilidad básica, Python y experiencia con PyTorch. Este curso es ideal para aquellos que buscan una comprensión profunda de la teoría y la práctica de la IA generativa.

Construyendo un Sistema de Anotación de Voz de Aviación de Alta Precisión en Enhanced Radar

2025-03-03
Construyendo un Sistema de Anotación de Voz de Aviación de Alta Precisión en Enhanced Radar

Enhanced Radar construyó un sistema interno de anotación de voz de aviación, Yeager, para satisfacer su necesidad de datos de alta precisión para el entrenamiento de modelos de IA. El sistema utiliza mecanismos de incentivos (pago por carácter, penalizaciones por errores), una interfaz fácil de usar (atajos de teclado, formas de onda de audio, precarga) y respeto por los anotadores (explicando las reglas, refiriéndose a ellos como 'revisores') para mejorar significativamente la eficiencia y la precisión de la anotación. También incorpora pruebas, resolución de disputas e información contextual para garantizar la calidad y la estandarización de los datos, logrando en última instancia una precisión de anotación casi perfecta.

GPT-4.5: Adelantado a su tiempo, pero no un gran avance

2025-03-02
GPT-4.5: Adelantado a su tiempo, pero no un gran avance

El lanzamiento de GPT-4.5 por OpenAI fue decepcionante a pesar de su tamaño masivo (se estima entre 5 y 7 billones de parámetros). A diferencia del salto del GPT-3.5 al GPT-4, las mejoras son sutiles, centrándose en la reducción de alucinaciones y en una mayor inteligencia emocional. El artículo argumenta que GPT-4.5 sirve como un trampolín para el entrenamiento de modelos futuros. Destaca la necesidad de equilibrar diferentes enfoques de escalado e integrar técnicas como el aprendizaje por refuerzo para lograr avances significativos. El verdadero impacto de GPT-4.5 se sentirá cuando se integre en varios sistemas y aplicaciones, no como un producto independiente.

IA

Sesame: Superando el Valle Inquietante en Voz Conversacional

2025-03-02
Sesame: Superando el Valle Inquietante en Voz Conversacional

El equipo de investigación de Sesame ha logrado avances significativos en la creación de asistentes de voz de IA más naturales y emocionalmente inteligentes. Su Modelo de Habla Conversacional (CSM) utiliza el aprendizaje multimodal para generar habla contextualmente apropiada, considerando el contexto, las emociones y el historial de la conversación. Esta tecnología supera los modelos tradicionales de texto a voz (TTS) y demuestra mejoras en la naturalidad y la expresividad a través de evaluaciones objetivas y subjetivas. Sin embargo, el modelo actualmente admite principalmente inglés, con planes futuros de expansión a más idiomas y de mejorar aún más su comprensión de las estructuras conversacionales complejas.

China aconseja a los expertos en IA evitar viajar a EE. UU.

2025-03-01

Según el Wall Street Journal, el gobierno chino ha aconsejado a sus especialistas en IA que eviten viajar a Estados Unidos, temiendo el riesgo de filtraciones de información sensible o detención. Si bien no se trata de una prohibición total, se han emitido directivas en importantes centros tecnológicos como Shanghái y Pekín, y las empresas líderes en IA aconsejan a sus empleados que eviten viajar a EE. UU. y países aliados a menos que sea absolutamente necesario. Los viajeros deben informar de sus planes con antelación y proporcionar informes detallados a su regreso. Esta medida pone de manifiesto la intensa competencia y las tensiones geopolíticas entre China y EE. UU. en el ámbito de la IA.

1 2 31 32 33 35 37 38 39 40 41