Category: IA

¿Reemplazará la generación de código de IA a los ingenieros humanos?

2025-04-15
¿Reemplazará la generación de código de IA a los ingenieros humanos?

Este artículo explora la comparación de productividad entre los modelos de generación de código de IA (como Gemini) y los ingenieros humanos. Si bien actualmente un solo ingeniero puede ser más eficiente, los costos de los modelos de IA están disminuyendo y sus capacidades están mejorando. En el futuro, una gran cantidad de modelos de IA trabajando juntos, junto con bases de código y herramientas de desarrollo optimizadas para IA, superarán con creces a los equipos humanos en eficiencia. El artículo predice que la industria de la ingeniería de software se moverá hacia la industrialización, y el papel de los ingenieros cambiará a gestionar y supervisar la IA como 'supervisores de fábrica'.

IA

Reflexiones de un doctor en IA sobre los LLMs: ¿herramientas útiles o muletas?

2025-04-15

Un doctor en IA de 2024 y autor de un libro sobre LLMs comparte su perspectiva matizada sobre los grandes modelos de lenguaje. No los rechaza por completo, pero aborda sus capacidades y limitaciones con precaución. Detalla cómo utiliza los LLMs para asistencia en la escritura, recuperación de información y resolución de problemas técnicos, al tiempo que reconoce abiertamente sus deficiencias: errores, falta de pensamiento profundo y dependencia excesiva de puntos de vista establecidos. Sostiene que los LLMs son herramientas, no sustitutos del pensamiento, que requieren pensamiento crítico y verificación cuidadosa para un uso eficaz.

IA

El enfoque de Apple para la mejora de la IA con preservación de la privacidad

2025-04-14
El enfoque de Apple para la mejora de la IA con preservación de la privacidad

Apple está comprometida con la privacidad del usuario, incluso al mejorar sus funciones de IA como Genmoji, herramientas de generación de imágenes y herramientas de escritura. Emplean la privacidad diferencial, anonimizando los datos del usuario para recopilar solo información de tendencias agregadas, como indicaciones populares de Genmoji. Para las funciones de IA que manejan textos más largos, como correos electrónicos, Apple utiliza datos sintéticos. Esto genera datos sintéticos que imitan los patrones de datos de usuarios reales para el entrenamiento y la prueba de modelos sin acceder al contenido real del correo electrónico. Esto permite a Apple mejorar las experiencias del producto, garantizando que la privacidad del usuario siga siendo primordial.

Entropía: Desentrañando la Flecha del Tiempo del Universo

2025-04-14
Entropía: Desentrañando la Flecha del Tiempo del Universo

Este artículo proporciona una explicación accesible del concepto de entropía. La entropía no es simplemente 'desorden', sino una medida de incertidumbre dentro de un sistema. Desde la perspectiva de la teoría de la información, la entropía representa el número de bits necesarios para comunicar el estado de un sistema; desde la mecánica estadística, está relacionada con el número de microestados que corresponden a un macroestado dado. Usando el ejemplo de bolas en una caja, el artículo ilustra el impacto de los macroestados, microestados y la granularidad gruesa en la entropia y explica por qué el tiempo tiene una dirección: el universo comenzó en un estado de baja entropía, y los sistemas evolucionan hacia estados de mayor entropía, no porque las leyes físicas sean irreversibles, sino porque los estados de alta entropía son mucho más probables. El artículo también aborda fenómenos que aparentemente violan la entropía, como la separación de aceite y agua, mostrando que la entropía realmente aumenta cuando se consideran todos los atributos del sistema.

AudioX: Un Modelo de Transformador de Difusión Unificado para la Generación de Audio y Música a Partir de Cualquier Cosa

2025-04-14

Los modelos existentes de generación de audio y música presentan limitaciones como la operación aislada entre modalidades, la escasez de datos de entrenamiento multimodales de alta calidad y la dificultad para integrar entradas diversas. AudioX, un modelo de Transformador de Difusión unificado, aborda estos desafíos generando audio y música generales de alta calidad con control de lenguaje natural flexible y procesamiento fluido de texto, vídeo, imagen, música y audio. Su principal innovación es una estrategia de entrenamiento enmascarado multimodal que mejora el aprendizaje de la representación multimodal. Para superar la escasez de datos, se crearon dos conjuntos de datos exhaustivos: vggsound-caps (190 000 subtítulos de audio) y V2M-caps (6 000 000 subtítulos de música). Experimentos exhaustivos muestran que AudioX iguala o supera a los modelos especializados de vanguardia en versatilidad y en el manejo de diversas modalidades de entrada dentro de una arquitectura unificada.

Molécula inmunitaria IL-17: El controlador secreto de la ansiedad y la sociabilidad

2025-04-14
Molécula inmunitaria IL-17: El controlador secreto de la ansiedad y la sociabilidad

Investigaciones del MIT y la Escuela de Medicina de Harvard revelan que la molécula inmunitaria IL-17, actuando sobre la amígdala y la corteza somatosensorial, induce ansiedad y promueve el comportamiento social, respectivamente. Este estudio destaca la estrecha interacción entre los sistemas inmunitario y nervioso, sugiriendo que la IL-17 pudo haber evolucionado originalmente como un neuromodulador antes de ser cooptada por el sistema inmunitario para promover la inflamación. Los hallazgos ofrecen un nuevo enfoque terapéutico para afecciones neurológicas como el autismo o la depresión, potencialmente influenciando la función cerebral al dirigirse al sistema inmunitario.

Google sigue a OpenAI y adopta el Protocolo de Contexto de Modelo de Anthropic

2025-04-14
Google sigue a OpenAI y adopta el Protocolo de Contexto de Modelo de Anthropic

Siguiendo el ejemplo de OpenAI, Google anunció que sus modelos Gemini admitirán el Protocolo de Contexto de Modelo (MCP) de Anthropic. El MCP permite que los modelos de IA accedan directamente a diversas fuentes de datos, incluidas herramientas empresariales, software, repositorios de contenido y entornos de desarrollo de aplicaciones, lo que permite completar tareas más complejas. Esta medida demuestra la aceptación del MCP como estándar abierto por parte de la industria y se espera que acelere el desarrollo y la adopción de aplicaciones de IA. El CEO de Google DeepMind, Demis Hassabis, expresó su entusiasmo por colaborar con Anthropic y otras empresas para desarrollar aún más el MCP.

IA

DolphinGemma de código abierto: Una nueva herramienta para la investigación de cetáceos

2025-04-14
DolphinGemma de código abierto: Una nueva herramienta para la investigación de cetáceos

Este verano, el Proyecto Delfín Salvaje, el Georgia Tech y Google están lanzando DolphinGemma como un modelo abierto, un modelo acústico entrenado con sonidos de delfines manchados del Atlántico. Su potencial se extiende al estudio de otros cetáceos; los investigadores pueden ajustarlo para las vocalizaciones de diferentes especies. Al proporcionar esta herramienta, los investigadores pueden analizar sus conjuntos de datos acústicos, acelerando el descubrimiento de patrones y profundizando nuestra comprensión de estos mamíferos inteligentes. Esta colaboración combina la investigación de campo, la experiencia en ingeniería y la tecnología de vanguardia, abriendo posibilidades emocionantes para cerrar la brecha en la comunicación entre humanos y delfines.

IA

Estrategia de motor de inferencia de código abierto de DeepSeek: contribuciones modulares, no lanzamiento directo

2025-04-14
Estrategia de motor de inferencia de código abierto de DeepSeek: contribuciones modulares, no lanzamiento directo

Debido a limitaciones de recursos, el equipo de DeepSeek ha optado por no lanzar directamente su motor de inferencia interno de código abierto, sino por colaborar con proyectos de código abierto existentes. Extraerán componentes reutilizables del motor y los contribuirán como bibliotecas independientes, además de compartir estrategias de optimización. Este enfoque tiene como objetivo retribuir de manera sostenible a la comunidad de código abierto, promover el desarrollo de AGI y garantizar que sus beneficios sirvan a toda la humanidad. Los esfuerzos futuros priorizarán la sincronización de la ingeniería de inferencia con la comunidad de código abierto y los socios de hardware para permitir soporte SOTA del día 0 para los nuevos lanzamientos de modelos.

Asistentes de Codificación de IA bajo Ataque: La 'puerta trasera' del archivo de reglas

2025-04-14
Asistentes de Codificación de IA bajo Ataque: La 'puerta trasera' del archivo de reglas

Investigadores de Pillar Security han descubierto un nuevo y peligroso vector de ataque de cadena de suministro denominado "puerta trasera del archivo de reglas". Esta técnica permite a los hackers comprometer silenciosamente el código generado por IA inyectando instrucciones maliciosas en archivos de configuración aparentemente inocuos utilizados por editores de código de IA como Cursor y GitHub Copilot. Al explotar caracteres Unicode ocultos y sofisticadas técnicas de evasión, los atacantes manipulan la IA para insertar código malicioso, eludiendo las revisiones de código. Este ataque es virtualmente invisible, propagando silenciosamente el código malicioso. Al usar la propia IA como arma, este ataque convierte a los asistentes de confianza de los desarrolladores en cómplices involuntarios, con el potencial de afectar a millones de usuarios.

Redefiniendo la Evolución: Información Funcional y Complejidad Cósmica

2025-04-14
Redefiniendo la Evolución: Información Funcional y Complejidad Cósmica

Los científicos proponen una nueva teoría de la evolución: la información funcional. Esta teoría sugiere que los procesos selectivos impulsan la evolución de sistemas complejos, no limitados a la biología, sino aplicables a minerales, elementos e incluso al universo en sí. Esta evolución no siempre es gradual; a veces ocurre en saltos, como en puntos clave de la historia biológica. El concepto de información funcional ofrece una nueva perspectiva para comprender el origen de la complejidad cósmica y la dirección de la evolución de la vida, proporcionando nuevas vías para la investigación en astrobiología, oncología y otros campos.

MCP: El estándar de facto para integraciones de LLM, ¿pero a qué precio?

2025-04-14
MCP: El estándar de facto para integraciones de LLM, ¿pero a qué precio?

El Model Context Protocol (MCP) se ha convertido rápidamente en el estándar de facto para la integración de herramientas y datos de terceros con LLMs. Sin embargo, esta comodidad conlleva riesgos significativos de seguridad y privacidad. Esta publicación detalla varias vulnerabilidades, incluida la autenticación inadecuada, la ejecución de código proporcionado por el usuario y las limitaciones inherentes de los LLMs en el manejo de grandes conjuntos de datos y la autonomía. El MCP puede provocar fugas de datos confidenciales y la agregación no intencionada de datos, lo que supone un desafío para la seguridad empresarial. El autor argumenta que los desarrolladores, las aplicaciones y los usuarios deben trabajar juntos para mejorar la seguridad del MCP y utilizarlo con precaución para mitigar los riesgos potenciales.

IA

Más allá de los loros estocásticos: los circuitos de los grandes modelos de lenguaje

2025-04-13
Más allá de los loros estocásticos: los circuitos de los grandes modelos de lenguaje

Los grandes modelos de lenguaje (LLM) han sido descartados por algunos como meros "loros estocásticos", simplemente memorizando y regurgitando patrones estadísticos de sus datos de entrenamiento. Sin embargo, investigaciones recientes revelan una realidad más matizada. Los investigadores han descubierto complejos "circuitos" internos -algoritmos autoaprendidos que resuelven clases de problemas específicas- dentro de estos modelos. Estos circuitos permiten la generalización a situaciones no vistas, como generar pareados que riman e incluso planificar proactivamente la estructura de estos pareados. Aunque existen limitaciones, estos hallazgos desafían la narrativa del "loro estocástico" y plantean preguntas más profundas sobre la naturaleza de la inteligencia del modelo: ¿pueden los LLM generar independientemente nuevos circuitos para resolver problemas totalmente nuevos?

Llama 4 de Meta: Un escándalo de evaluación comparativa sacude el mundo de la IA

2025-04-13
Llama 4 de Meta: Un escándalo de evaluación comparativa sacude el mundo de la IA

La familia de modelos de lenguaje grandes Llama 4, recientemente lanzada por Meta, en particular la versión Maverick, inicialmente sorprendió al mundo de la IA con su impresionante rendimiento en las evaluaciones comparativas, superando a modelos como el GPT-4o de OpenAI y el Gemini 2.0 Flash de Google. Sin embargo, rápidamente surgieron discrepancias entre la versión de evaluación comparativa y el modelo disponible públicamente, lo que llevó a acusaciones de trampa. Meta admitió haber utilizado una versión especialmente ajustada para la evaluación comparativa y, desde entonces, ha añadido el modelo Llama 4 Maverick sin modificar a LMArena, lo que ha provocado una caída significativa en la clasificación. Este incidente pone de manifiesto los problemas de transparencia en las evaluaciones comparativas de modelos grandes y lleva a una reflexión sobre las metodologías de evaluación de modelos.

Desentrañando los ciclos depredador-presa: Las ecuaciones de Lotka-Volterra

2025-04-13

Las ecuaciones de Lotka-Volterra, también conocidas como modelo depredador-presa de Lotka-Volterra, son un par de ecuaciones diferenciales no lineales de primer orden que se utilizan con frecuencia para describir la dinámica de sistemas biológicos en los que dos especies interactúan, una como depredadora y la otra como presa. El modelo asume que las presas tienen un suministro ilimitado de alimentos y se reproducen exponencialmente a menos que sean depredadas; la tasa de depredación es proporcional a la tasa a la que los depredadores y las presas se encuentran. El crecimiento de la población de depredadores depende de la tasa de depredación y se ve afectado por la tasa de mortalidad natural. Las soluciones del modelo son deterministas y continuas, lo que significa que las generaciones de depredadores y presas se superponen continuamente. El modelo de Lotka-Volterra predice números fluctuantes de poblaciones de depredadores y presas y revela características del equilibrio poblacional: la densidad de equilibrio de la presa depende de los parámetros del depredador, mientras que la densidad de equilibrio del depredador depende de los parámetros de la presa. El modelo ha encontrado aplicaciones en economía y marketing, describiendo la dinámica en mercados con múltiples competidores, plataformas complementarias y productos.

El Cerebro Ideológico: Cómo la Neurociencia Explica la Polarización Política

2025-04-13
El Cerebro Ideológico: Cómo la Neurociencia Explica la Polarización Política

El nuevo libro de la neurocientífica política Leor Zmigrod, *El Cerebro Ideológico: La Ciencia Radical del Pensamiento Flexible*, explora cómo las ideologías impactan el cerebro y el cuerpo humanos. Usando neuroimagen e investigación psicológica, Zmigrod revela cómo las ideologías afectan la flexibilidad cognitiva y la capacidad de respuesta, vinculando ideologías extremas a la actividad en áreas cerebrales específicas, como la amígdala. El libro también examina la relación entre la flexibilidad cognitiva y la dopamina, y cómo cultivar la creatividad y la flexibilidad cognitiva puede aumentar la resistencia a la influencia ideológica. La investigación de Zmigrod desafía la noción del pensamiento ideológico como mera 'insensibilidad mental', presentándolo como un proceso cognitivo complejo.

Skywork-OR1: Lanzamiento de poderosos modelos de razonamiento de código abierto

2025-04-13
Skywork-OR1: Lanzamiento de poderosos modelos de razonamiento de código abierto

SkyworkAI ha lanzado la serie Skywork-OR1 de poderosos modelos de razonamiento de código abierto, incluyendo Skywork-OR1-Math-7B, Skywork-OR1-32B-Preview y Skywork-OR1-7B-Preview. Estos modelos, entrenados usando aprendizaje por refuerzo basado en reglas a gran escala, sobresalen en el razonamiento matemático y de código. Skywork-OR1-Math-7B supera significativamente a modelos de tamaño similar en las pruebas AIME24 y AIME25; Skywork-OR1-32B-Preview alcanza niveles de rendimiento de Deepseek-R1 en tareas matemáticas y de codificación; y Skywork-OR1-7B-Preview supera a todos los modelos de tamaño similar en ambos dominios. Los modelos completos y los scripts de entrenamiento estarán disponibles de código abierto en los próximos días.

IA

Entropía cruzada: Una inmersión profunda en la función de pérdida para la clasificación

2025-04-13

Esta publicación proporciona una explicación clara del papel de la entropía cruzada como función de pérdida en las tareas de clasificación del aprendizaje automático. Comenzando con conceptos de la teoría de la información, como el contenido de información y la entropia, se construye hasta la entropía cruzada, comparándola con la divergencia KL. El artículo concluye demostrando la relación entre la entropía cruzada y la estimación de máxima verosimilitud con ejemplos numéricos, aclarando su aplicación en el aprendizaje automático.

OmniSVG: Un Modelo Unificado y Escalable para la Generación de Gráficos Vectoriales

2025-04-13
OmniSVG: Un Modelo Unificado y Escalable para la Generación de Gráficos Vectoriales

OmniSVG es la primera familia de generadores multimodales de SVG de extremo a extremo que aprovecha modelos de Visión-Lenguaje (VLM) preentrenados. Es capaz de generar SVGs complejos y detallados, desde íconos simples hasta intrincados personajes de anime. El proyecto ya ha lanzado los conjuntos de datos MMSVG-Icon y MMSVG-Illustration, y el artículo científico. Los planes futuros incluyen el lanzamiento del código y los modelos preentrenados, el conjunto de datos MMSVG-Character, y una página del proyecto con un informe técnico.

El Enigma de los Derechos de Autor en el Entrenamiento de IA: Derechos de Aprendizaje vs. Derechos Laborales

2025-04-12

Este artículo profundiza en las implicaciones de los derechos de autor en el entrenamiento de IA. Algunos argumentan que entrenar IA con obras protegidas por derechos de autor requiere licencia, estableciendo un "derecho de aprendizaje". El autor refuta esto, afirmando que el entrenamiento de IA analiza datos, no los copia. El problema central es la explotación del trabajo de los artistas por la IA, no la infracción de derechos de autor. El autor aboga por los derechos laborales, no por la expansión de los derechos de autor, ya que esto último beneficia a las grandes corporaciones a expensas de los artistas independientes.

El Regreso Triunfal de Google DeepMind: Gemini 2.5 Domina la IA

2025-04-12
El Regreso Triunfal de Google DeepMind: Gemini 2.5 Domina la IA

Después de ser inicialmente superado por OpenAI, Google DeepMind ha regresado con fuerza. Gemini 2.5 está aplastando a la competencia en todos los principales benchmarks de IA. Cuenta con un rendimiento superior, bajo costo, una ventana de contexto masiva e integración perfecta con el ecosistema de Google. El dominio de Google se extiende más allá del texto, mostrando excelencia en la generación de imágenes, videos, música y voz, dejando a los competidores atrás. El artículo destaca las numerosas ventajas de Gemini 2.5 y el liderazgo general de Google DeepMind en el campo de la IA.

IA

Ex empleados de OpenAI se oponen a la conversión con fines de lucro: una batalla entre misión y beneficio

2025-04-12
Ex empleados de OpenAI se oponen a la conversión con fines de lucro: una batalla entre misión y beneficio

Un grupo de exempleados de OpenAI presentó un escrito amicus curiae en apoyo de la demanda de Elon Musk contra OpenAI, oponiéndose a su conversión prevista de una organización sin fines de lucro a una corporación con fines de lucro. Argumentan que esto viola la misión original de OpenAI de garantizar que la IA beneficie a toda la humanidad. Varios exempleados criticaron públicamente la falta de transparencia y responsabilidad de OpenAI, advirtiendo sobre una búsqueda imprudente del dominio de la IA. OpenAI respondió que su brazo sin fines de lucro permanece, pero está haciendo la transición a una Corporación de Beneficio Público (PBC). El litigio se centra en la estructura de OpenAI y su impacto en el desarrollo de la IA, destacando la compleja interacción entre la comercialización y la responsabilidad social en el campo de la IA.

Los límites de esforzarse al máximo en el desarrollo de la IA

2025-04-11

El autor utiliza recuerdos de la infancia de represar un arroyo para ilustrar las limitaciones de esforzarse al máximo en el desarrollo de la IA. Inicialmente, construía pequeñas presas con mucho esfuerzo, solo para luego descubrir la eficiencia de usar una pala. Esta victoria, sin embargo, disminuyó el aspecto exploratorio del juego. Del mismo modo, en el trabajo y en la vida, lograr un objetivo (como un trabajo bien remunerado) cambia las reglas del juego. El autor argumenta que el desarrollo de la IA debe tener en cuenta esta lección, concentrándose no solo en la creación de IA poderosa, sino también en riesgos potenciales y áreas inexploradas. Al igual que observar la tenacidad de pequeños mariscos en una piscina de marea, la atención a los detalles y matices es crucial. El informe reciente de Anthropic sobre aplicaciones educativas parece reconocer esto.

Equilibrando la Agencia y la Fiabilidad en los Agentes de Atención al Cliente Basados en LLM

2025-04-11
Equilibrando la Agencia y la Fiabilidad en los Agentes de Atención al Cliente Basados en LLM

Si bien los Modelos de Lenguaje Grandes (LLM) son cada vez más capaces de realizar tareas de alta agencia, su implementación en casos de uso de alto valor, como la atención al cliente, requiere priorizar la fiabilidad y la coherencia. La investigación revela que, aunque los agentes de alta agencia sobresalen en entornos ideales, la atención al cliente del mundo real presenta desafíos: lagunas de conocimiento, comportamiento impredecible del usuario y limitaciones de tiempo. Para abordar esto, se desarrolló una métrica novedosa, pass^k, y se probó mediante simulaciones de interacciones con clientes. Los resultados demuestran que los agentes de alta agencia sufren problemas de fiabilidad en tareas complejas. La solución: el agente "Give Fin a Task", que mejora la fiabilidad restringiendo la autonomía del agente y empleando instrucciones paso a paso, descomponiendo tareas complejas en módulos más simples. Este enfoque ofrece una vía prometedora para mejorar el rendimiento del LLM en escenarios de atención al cliente del mundo real.

(fin.ai)

La Sintaxis de los Bonobos Desafía la Singularidad del Lenguaje Humano

2025-04-11
La Sintaxis de los Bonobos Desafía la Singularidad del Lenguaje Humano

Un nuevo estudio revela que los bonobos combinan llamadas de forma compleja para formar frases distintas, lo que sugiere que este tipo de sintaxis es más antiguo de lo que se pensaba anteriormente. Los investigadores, al observar y analizar las vocalizaciones de los bonobos y utilizando métodos semánticos, descubrieron una composición no trivial en las combinaciones de llamadas de los bonobos, lo que significa que el significado de la combinación difiere de los significados de sus partes individuales. Este hallazgo desafía la singularidad del lenguaje humano, sugiriendo que la sintaxis compleja del lenguaje humano puede haberse originado en ancestros más antiguos.

IA

Avatares de IA: La Próxima Frontera en Contenido Generado por IA

2025-04-11
Avatares de IA: La Próxima Frontera en Contenido Generado por IA

La IA ya domina la generación de fotos, videos y voces realistas. El siguiente salto? Avatares de IA – combinando rostros y voces para crear personajes parlantes. Esto no es solo generación de imágenes y doblaje; requiere que la IA aprenda la intrincada coordinación de sincronización labial, expresiones faciales y lenguaje corporal. Este artículo explora la evolución de la tecnología de avatares de IA, desde los modelos iniciales basados en fotos únicas hasta modelos sofisticados que generan movimiento de cuerpo entero y fondos dinámicos. También analiza las aplicaciones de avatares de IA en la creación de contenido, publicidad y comunicación corporativa, y discute direcciones futuras, como expresiones más naturales, movimientos corporales e interacciones con el mundo real.

La paradoja del esfuerzo en el desarrollo de la IA

2025-04-11
La paradoja del esfuerzo en el desarrollo de la IA

Usando la analogía infantil de represar un arroyo, el autor explora la tensión entre el esfuerzo máximo y la toma de decisiones sabias en el desarrollo de la IA. Inicialmente, como un niño, el autor intentó construir represas con pequeñas piedras y hojas, solo para descubrir un método más eficiente con una pala. Esta constatación destaca cómo la 'victoria' a veces puede significar una reducción del espacio del juego. De manera similar, en la IA, el autor buscó incansablemente un trabajo en un banco de inversión, solo para descubrir, tras el éxito, que el juego de 'ganar la mayor cantidad de dinero posible' ya no estaba disponible. Argumenta que contra fuerzas abrumadoras (naturaleza, mercado), el esfuerzo total puede ser contraproducente. El informe reciente de Anthropic sobre aplicaciones educativas, sin embargo, sugiere una creciente conciencia de los riesgos potenciales, similar a notar los mariscos en dificultades en una playa.

IA

Parity: SRE con IA para eliminar el infierno de guardia

2025-04-10
Parity: SRE con IA para eliminar el infierno de guardia

¿Cansado de las alertas a las 2 AM y las alertas infinitas? Parity utiliza IA para automatizar la investigación, el análisis de la causa raíz y la remediación de problemas de infraestructura, haciendo que las guardias sean cosa del pasado. El producto ha tenido una gran adopción por parte de los clientes iniciales y tiene el potencial de definir una nueva categoría. Parity está respaldado por inversores de primer nivel, incluyendo Y Combinator, General Catalyst y Sugar Free Capital, así como inversores ángeles de startups líderes como Midjourney y Crusoe.

ByzFL: Construyendo IA confiable sin confiar en fuentes de datos

2025-04-10
ByzFL: Construyendo IA confiable sin confiar en fuentes de datos

Los modelos de IA actuales dependen de conjuntos de datos masivos y centralizados, lo que genera preocupaciones sobre seguridad y privacidad. Investigadores de la EPFL han desarrollado ByzFL, una biblioteca que utiliza el aprendizaje federado para entrenar modelos de IA en dispositivos descentralizados sin centralizar los datos. ByzFL detecta y mitiga datos maliciosos, garantizando la robustez y la seguridad, especialmente crítico para aplicaciones de misión crítica como la atención médica y el transporte. Ofrece una solución innovadora para construir sistemas de IA confiables.

Nuevo avance de Apple en IA: Control preciso de modelos generativos con Transporte de Activación (AcT)

2025-04-10
Nuevo avance de Apple en IA: Control preciso de modelos generativos con Transporte de Activación (AcT)

Investigadores de aprendizaje automático de Apple han desarrollado el Transporte de Activación (AcT), una nueva técnica que ofrece control preciso sobre grandes modelos generativos, incluyendo LLMs y modelos de difusión de texto a imagen, sin el costoso entrenamiento de RLHF o ajuste fino. AcT dirige las activaciones del modelo usando la teoría de transporte óptimo, logrando un control agnóstico de modalidad con una sobrecarga computacional mínima. Los experimentos demuestran mejoras significativas en la mitigación de la toxicidad, la inducción de la veracidad en LLMs y el control del estilo en la generación de imágenes. AcT allana el camino para modelos generativos más seguros y fiables.

1 2 23 24 25 27 29 30 31 40 41