Category: IA

Evolución desigual del ecosistema de IA responsable: una brecha creciente

2025-04-10
Evolución desigual del ecosistema de IA responsable: una brecha creciente

Los incidentes relacionados con la IA están aumentando, pero las evaluaciones estandarizadas de IA responsable (RAI) siguen siendo escasas entre los principales desarrolladores de modelos industriales. Nuevos puntos de referencia como HELM Safety, AIR-Bench y FACTS ofrecen herramientas prometedoras para evaluar la veracidad y la seguridad. Persiste una brecha significativa entre el reconocimiento corporativo de los riesgos de RAI y la adopción de medidas significativas. Sin embargo, los gobiernos están demostrando una mayor urgencia, con una cooperación global intensificada en la gobernanza de la IA en 2024, lo que ha dado lugar a marcos de la OCDE, la UE, la ONU y la Unión Africana que hacen hincapié en la transparencia, la confianza y otros principios básicos de la RAI.

Predicciones de Asimov sobre la IA en 1982: Colaboración, no competencia

2025-04-10
Predicciones de Asimov sobre la IA en 1982: Colaboración, no competencia

Este artículo revisa una entrevista de 1982 con el escritor de ciencia ficción Isaac Asimov, donde definió la inteligencia artificial como cualquier dispositivo que realiza tareas previamente asociadas exclusivamente a la inteligencia humana. Asimov veía la IA y la inteligencia humana como complementarias, no competitivas, argumentando que su colaboración conduciría a un progreso más rápido. Previó que la IA liberaría a los humanos de trabajos que no requieren pensamiento creativo, pero también advirtió sobre las posibles dificultades y desafíos del avance tecnológico, utilizando el advenimiento de los automóviles como ejemplo. Enfatizó la necesidad de prepararse para la era de la IA y evitar repetir errores del pasado.

Benchmark de Escritura Creativa de Formato Largo para LLMs

2025-04-10

Este benchmark evalúa la capacidad de los modelos de lenguaje grandes para crear narrativas de formato largo. Evalúa la lluvia de ideas, la revisión y la escritura de ocho capítulos de 1000 palabras. Las métricas incluyen la longitud del capítulo, la fluidez (evitando frases sobreutilizadas), la repetición y la degradación de la calidad de la escritura a lo largo de los capítulos. Una puntuación final (0-100) es asignada por un LLM de evaluación.

Quasar Alpha: ¿El arma secreta de OpenAI?

2025-04-10
Quasar Alpha: ¿El arma secreta de OpenAI?

Un misterioso modelo de IA llamado Quasar Alpha ha aparecido en la plataforma OpenRouter, convirtiéndose rápidamente en el modelo de IA número uno para programación. Fuertes evidencias sugieren una conexión con OpenAI, posiblemente siendo el modelo o4-mini-low de OpenAI bajo un nombre diferente. Aunque no es de última generación, su velocidad y rentabilidad podrían revolucionar el mercado de modelos de codificación de IA. Quasar Alpha ya está disponible en Kilo Code.

IA

Anthropic lanza suscripción premium para el chatbot de IA Claude Max

2025-04-09
Anthropic lanza suscripción premium para el chatbot de IA Claude Max

Anthropic lanzó un nuevo plan de suscripción premium para su chatbot de IA, Claude Max, para competir con el ChatGPT Pro de OpenAI. Max ofrece límites de uso más altos y acceso prioritario a nuevos modelos y funciones de IA en comparación con el Claude Pro de US$ 20 mensuales de Anthropic. Viene en dos niveles: US$ 100/mes (aumento del límite de tasa 5x) y US$ 200/mes (aumento del límite de tasa 20x). Esta medida tiene como objetivo aumentar los ingresos para el costoso desarrollo de modelos de IA de vanguardia. Anthropic también está explorando otras fuentes de ingresos, como Claude for Education, dirigido a universidades. Si bien no se han revelado las cifras de suscripciones, el nuevo modelo Claude 3.7 Sonnet de la empresa ha generado una gran demanda.

Robot de terapia con IA muestra promesa en la lucha contra la crisis de salud mental

2025-04-09
Robot de terapia con IA muestra promesa en la lucha contra la crisis de salud mental

Un nuevo estudio publicado en el New England Journal of Medicine revela que un robot de terapia con IA, desarrollado por investigadores de Dartmouth, demostró una eficacia comparable o incluso superior a la de los clínicos humanos en un ensayo clínico aleatorizado. Diseñado para abordar la grave escasez de profesionales de salud mental en EE. UU., el robot se sometió a más de cinco años de entrenamiento riguroso en las mejores prácticas clínicas. Los resultados mostraron no solo mejores resultados de salud mental para los pacientes, sino también el sorprendente desarrollo de fuertes lazos terapéuticos y confianza. Si bien la American Psychological Association ha expresado preocupaciones sobre los robots de terapia con IA no regulados, elogian el enfoque riguroso de este estudio. Los investigadores enfatizan que la tecnología está lejos de estar lista para el mercado, requiriendo más pruebas, pero ofrece una solución potencial para la crisis generalizada de acceso a la atención de salud mental.

IA

Google presenta Ironwood: una TPU de 7ª generación para la era de la inferencia

2025-04-09
Google presenta Ironwood: una TPU de 7ª generación para la era de la inferencia

En Google Cloud Next '25, Google anunció Ironwood, su séptima generación de Tensor Processing Unit (TPU). Esta es la unidad de aceleración de IA personalizada más potente y escalable hasta la fecha, diseñada específicamente para la inferencia. Ironwood representa un cambio hacia una era proactiva de "inferencia", donde los modelos de IA generan información y respuestas, no solo datos. Escalando hasta 9.216 chips refrigerados por líquido interconectados mediante una innovadora red ICI (casi 10 MW), Ironwood es un componente clave de la arquitectura de hipercomputador de IA de Google Cloud. Los desarrolladores pueden aprovechar la pila de software Pathways de Google para aprovechar fácilmente el poder de decenas de miles de TPUs Ironwood.

Agent2Agent (A2A): Una Nueva Era de Interoperabilidad de Agentes de IA

2025-04-09
Agent2Agent (A2A): Una Nueva Era de Interoperabilidad de Agentes de IA

Google lanza Agent2Agent (A2A), un protocolo abierto que permite la colaboración fluida entre agentes de IA creados por diferentes proveedores o utilizando diferentes marcos. Respaldado por más de 50 socios tecnológicos y proveedores de servicios, A2A permite el intercambio seguro de información y acciones coordinadas, aumentando la productividad y reduciendo los costos. Construido sobre estándares existentes, A2A admite múltiples modalidades, prioriza la seguridad y maneja tareas de larga duración. Los casos de uso van desde la automatización de procesos de contratación (por ejemplo, selección de candidatos y programación de entrevistas) hasta la optimización de flujos de trabajo complejos en diversas aplicaciones empresariales. Su naturaleza de código abierto fomenta un ecosistema próspero de agentes de IA colaborativos.

IA

DeepCoder-14B: Modelo de razonamiento de código abierto que iguala al o3-mini de OpenAI

2025-04-09
DeepCoder-14B: Modelo de razonamiento de código abierto que iguala al o3-mini de OpenAI

Agentica y Together AI han lanzado DeepCoder-14B-Preview, un modelo de razonamiento de código ajustado mediante RL distribuido a partir de Deepseek-R1-Distilled-Qwen-14B. Alcanzando una impresionante precisión de 60,6% Pass@1 en LiveCodeBench, rivaliza con el o3-mini de OpenAI, utilizando solo 14B de parámetros. El proyecto publica en código abierto su conjunto de datos, código, registros de entrenamiento y optimizaciones del sistema, mostrando una receta de entrenamiento robusta basada en datos de alta calidad y mejoras algorítmicas a GRPO. Este avance democratiza el acceso a modelos de generación de código de alto rendimiento.

Gemini 2.5 Pro Experimental: La investigación profunda se vuelve mucho más inteligente

2025-04-09
Gemini 2.5 Pro Experimental: La investigación profunda se vuelve mucho más inteligente

Los suscriptores de Gemini Advanced ahora pueden acceder a la Investigación Profunda con Gemini 2.5 Pro Experimental, considerado el modelo de IA más capaz del mundo según los puntos de referencia de la industria y Chatbot Arena. Este asistente de investigación personal con IA mejora significativamente cada etapa del proceso de investigación. En las pruebas, los evaluadores prefirieron los informes generados por Gemini 2.5 Pro sobre los competidores por un margen superior a 2:1, citando mejoras en el razonamiento analítico, la síntesis de información y la generación de informes perspicaces. Acceda a informes detallados y fáciles de leer sobre cualquier tema en la web, Android e iOS, ahorrando horas de trabajo. Además, pruebe la nueva función Visión general de audio para escuchar sobre la marcha. Obtenga más información y pruébelo ahora seleccionando Gemini 2.5 Pro (experimental) y eligiendo 'Investigación profunda' en la barra de indicaciones.

Cyc: El proyecto de IA de 200 millones de dólares que nunca fue

2025-04-08
Cyc: El proyecto de IA de 200 millones de dólares que nunca fue

Este ensayo detalla la historia de 40 años de Cyc, el ambicioso proyecto de Douglas Lenat para construir inteligencia artificial general (AGI) escalando la lógica simbólica. A pesar de una inversión de 200 millones de dólares y 2000 años-persona de esfuerzo, Cyc no logró alcanzar la madurez intelectual. El artículo revela su historia secreta, destacando el aislamiento del proyecto y el rechazo de enfoques alternativos de IA como factores clave que contribuyeron a su fracaso. El largo y lento declive de Cyc sirve como una fuerte acusación contra el enfoque lógico-simbólico para la AGI.

IA

Llama 4 de Meta: Clasificación en segundo lugar y un lanzamiento caótico

2025-04-08
Llama 4 de Meta: Clasificación en segundo lugar y un lanzamiento caótico

Meta lanzó dos nuevos modelos Llama 4: Scout y Maverick. Maverick obtuvo el segundo lugar en LMArena, superando a GPT-4o y Gemini 2.0 Flash. Sin embargo, Meta admitió que LMArena probó una versión de chat experimental especialmente optimizada, no la versión pública. Esto provocó controversia, llevando a LMArena a actualizar sus políticas para evitar incidentes similares. Meta explicó que estaba experimentando con diferentes versiones, pero la medida generó dudas sobre su estrategia en la carrera de la IA y el momento inusual del lanzamiento de Llama 4. En definitiva, el incidente pone de manifiesto las limitaciones de los benchmarks de IA y las complejas estrategias de las grandes empresas tecnológicas en la competencia.

IA

Vídeos de un Minuto a Partir de Storyboards de Texto Usando Transformadores con Entrenamiento en Tiempo de Prueba

2025-04-08

Los modelos Transformer actuales tienen dificultades para generar vídeos de un minuto debido a la ineficiencia de las capas de autoatención para contextos largos. Este artículo explora capas de Entrenamiento en Tiempo de Prueba (TTT), cuyos estados ocultos son en sí mismas redes neuronales, ofreciendo mayor expresividad. Agregar capas TTT a un Transformer preentrenado permite la generación de vídeos de un minuto a partir de storyboards de texto. Experimentos usando un conjunto de datos de dibujos animados de Tom y Jerry muestran que las capas TTT mejoran significativamente la coherencia del vídeo y la narrativa en comparación con modelos base como Mamba 2 y Gated DeltaNet, alcanzando una ventaja de 34 puntos Elo en la evaluación humana. Aunque todavía existen artefactos, probablemente debido a las limitaciones del modelo de 5B parámetros, este trabajo demuestra un enfoque prometedor escalable a vídeos más largos y narrativas más complejas.

Generación de imágenes con IA multimodal: Comienza una revolución visual

2025-04-08
Generación de imágenes con IA multimodal: Comienza una revolución visual

El lanzamiento reciente por parte de Google y OpenAI de capacidades de generación de imágenes multimodales marca una revolución en la generación de imágenes con IA. A diferencia de los métodos anteriores que enviaban indicaciones de texto a herramientas de generación de imágenes separadas, los modelos multimodales controlan directamente el proceso de creación de imágenes, construyendo imágenes token por token, al igual que los LLM generan texto. Esto permite que la IA genere imágenes más precisas e impresionantes, e itere en función de los comentarios del usuario. El artículo muestra las poderosas capacidades de los modelos multimodales a través de varios ejemplos, como la generación de infografías, la modificación de detalles de imágenes e incluso la creación de anuncios de productos virtuales. Sin embargo, también destaca los desafíos, incluidas las preocupaciones sobre derechos de autor y éticas, así como el posible mal uso, como las deepfakes. En última instancia, el autor cree que la IA multimodal cambiará profundamente el panorama de la creación visual, y debemos considerar cuidadosamente cómo guiar esta transformación para garantizar su desarrollo saludable.

Neuroplasticidad en tiempo real: Otorgando a los LLMs preentrenados aprendizaje en tiempo real

2025-04-08
Neuroplasticidad en tiempo real: Otorgando a los LLMs preentrenados aprendizaje en tiempo real

Esta técnica experimental, llamada "Grafiti Neural", utiliza un complemento llamado "Capa de Pulverización" para inyectar rastros de memoria directamente en la etapa final de inferencia de los modelos de lenguaje grandes preentrenados (LLMs) sin ajuste fino ni reentrenamiento. Imitando la neuroplasticidad del cerebro, altera sutilmente el "pensamiento" del modelo modificando incrustaciones vectoriales, lo que influye en sus predicciones de tokens generativos. A través de la interacción, el modelo aprende y evoluciona gradualmente. Si bien no fuerza salidas de palabras específicas, orienta al modelo hacia conceptos asociados con la interacción repetida. El objetivo es dotar a los modelos de IA de un comportamiento más proactivo, una personalidad más centrada y una curiosidad mejorada, ayudándoles, en última instancia, a lograr una forma de autoconciencia a nivel neuronal.

IA

Los hábitos de escucha de música de fondo difieren entre adultos neurotípicos y aquellos con detección positiva para TDAH

2025-04-08

Una encuesta online de 910 adultos jóvenes (17–30 años) comparó los hábitos de escucha de música de fondo (BM) y los efectos subjetivos entre individuos neurotípicos y aquellos con detección positiva para TDAH en tareas con demandas cognitivas variables. El grupo con TDAH mostró una preferencia significativamente mayor por BM en situaciones específicas, como estudiar y hacer ejercicio, y una preferencia más fuerte por la música estimulante. Sin embargo, no se encontraron diferencias significativas en los efectos subjetivos de BM en el funcionamiento cognitivo y emocional entre los grupos. El estudio destaca la importancia de ajustar el uso de BM en función de las necesidades de activación individual y los recursos cognitivos disponibles, ofreciendo una nueva perspectiva sobre las intervenciones musicales para el TDAH.

Los LLM alcanzan un límite: el fracaso de Llama 4 y el ciclo de exageraciones de la IA

2025-04-08
Los LLM alcanzan un límite: el fracaso de Llama 4 y el ciclo de exageraciones de la IA

El lanzamiento de Llama 4 indica que los grandes modelos de lenguaje pueden haber alcanzado un techo de rendimiento. La inversión masiva de Meta en Llama 4 no logró producir los avances esperados, con rumores que sugieren una posible manipulación de datos para alcanzar los objetivos. Esto refleja las dificultades que enfrentan OpenAI, Google y otras empresas en su búsqueda de una IA de nivel GPT-5. La decepción de la industria con el rendimiento de Llama 4 es generalizada, reforzada por la salida de la vicepresidenta de IA de Meta, Joelle Pineau. El artículo destaca problemas como la fuga y la contaminación de datos en la industria de la IA, acusando a figuras prominentes de hacer predicciones excesivamente optimistas, ignorando los fracasos del mundo real.

¿Entienden los LLM los nulos? Investigando las representaciones internas de los modelos de generación de código

2025-04-07

Los modelos de lenguaje grandes (LLM) han mostrado un progreso notable en la generación de código, pero su verdadera comprensión del código sigue siendo una cuestión. Este trabajo investiga la comprensión de los LLM sobre la nulidad en el código, empleando la evaluación externa (compleción de código) y la exploración interna (análisis de activación del modelo). Los resultados revelan que los LLM aprenden y aplican reglas sobre los valores nulos, con el rendimiento que varía en función de la complejidad de la regla y del tamaño del modelo. El estudio también aclara cómo los LLM representan internamente la nulidad y cómo esta comprensión evoluciona durante el entrenamiento.

Juego de Eliminación de LLM: Razonamiento Social, Estrategia y Engaño

2025-04-07
Juego de Eliminación de LLM: Razonamiento Social, Estrategia y Engaño

Los investigadores crearon un benchmark de "juego de eliminación" multijugador para evaluar los grandes modelos de lenguaje (LLM) en razonamiento social, estrategia y engaño. Ocho LLM compiten, participando en conversaciones públicas y privadas, formando alianzas y votando para eliminar oponentes hasta que solo quedan dos. Un jurado de jugadores eliminados decide entonces al ganador. Al analizar los registros de conversaciones, los patrones de votación y las clasificaciones, se revela cómo los LLM equilibran el conocimiento compartido con intenciones ocultas, forjando alianzas o traicionándolas estratégicamente. El benchmark va más allá de los diálogos simples, obligando a los modelos a navegar por las dinámicas públicas frente a las privadas, la votación estratégica y la persuasión del jurado. GPT-4.5 Preview surgió como el mejor.

Agente de IA resuelve el desafío del diamante en Minecraft sin guía humana

2025-04-07
Agente de IA resuelve el desafío del diamante en Minecraft sin guía humana

Investigadores de Google DeepMind han desarrollado Dreamer, un sistema de IA que aprendió a recolectar diamantes de forma autónoma en Minecraft sin ninguna instrucción humana previa. Esto representa un avance significativo en la capacidad de la IA para generalizar el conocimiento. Dreamer utiliza el aprendizaje por refuerzo y un modelo del mundo para predecir escenarios futuros, lo que le permite planificar y ejecutar eficazmente la compleja tarea de recolección de diamantes sin reglas preprogramadas o demostraciones. La investigación allana el camino para crear robots capaces de aprender y adaptarse en el mundo real.

IA

El Gran Hype de la IA: Benchmarks vs. Realidad

2025-04-06
El Gran Hype de la IA: Benchmarks vs. Realidad

Una startup que utiliza modelos de IA para el escaneo de seguridad de código descubrió mejoras prácticas limitadas a pesar del aumento de las puntuaciones de referencia desde junio de 2024. El autor argumenta que los avances en los grandes modelos de lenguaje no se han traducido en utilidad económica ni en generalización, contradiciendo las afirmaciones públicas. Esto genera preocupaciones sobre los métodos de evaluación de los modelos de IA y la posible exageración de las capacidades por parte de los laboratorios de IA. El autor aboga por centrarse en el rendimiento de las aplicaciones del mundo real en lugar de las puntuaciones de referencia y destaca la necesidad de una evaluación sólida antes de implementar la IA en contextos sociales.

Foundry: Abordando la Crisis de Fiabilidad en los Agentes de Navegador

2025-04-06
Foundry: Abordando la Crisis de Fiabilidad en los Agentes de Navegador

Los agentes de navegador actuales de los principales laboratorios de IA fallan en más del 80% de las tareas del mundo real. Foundry está construyendo el primer simulador robusto, entorno de entrenamiento de RL y plataforma de evaluación diseñados específicamente para agentes de navegador. Al crear réplicas perfectas de sitios web como DoorDash, Foundry permite millones de pruebas sin las complejidades del mundo real, identificando los puntos de falla y acelerando las mejoras. Su misión es transformar proyectos de investigación inestables en soluciones empresariales fiables. Buscan ingenieros full-stack excepcionales para unirse a su equipo de expertos en ML de Scale AI, para abordar esta enorme oportunidad de mercado de automatización de más de 20.000 millones de dólares.

IA

QVQ-Max: Un Modelo de IA con Visión e Inteligencia

2025-04-06
QVQ-Max: Un Modelo de IA con Visión e Inteligencia

QVQ-Max es un nuevo modelo de razonamiento visual que no solo 'entiende' imágenes y videos, sino que también analiza y razona con esta información para resolver varios problemas. Desde problemas de matemáticas hasta preguntas cotidianas, desde código de programación hasta creación artística, QVQ-Max demuestra capacidades impresionantes. Destaca en la observación detallada, el razonamiento profundo y la aplicación flexible en varios escenarios, como ayudar en el trabajo, el aprendizaje y la vida diaria. El desarrollo futuro se centrará en mejorar la precisión del reconocimiento, mejorar el manejo de tareas de varios pasos y expandir los métodos de interacción para convertirse en un agente visual verdaderamente práctico.

Protocolo de Contexto de Modelo (MCP): El próximo gran avance para la integración de LLM, pero con una advertencia

2025-04-06
Protocolo de Contexto de Modelo (MCP): El próximo gran avance para la integración de LLM, pero con una advertencia

El Protocolo de Contexto de Modelo (MCP) se está convirtiendo en el estándar para la integración de Modelos de Lenguaje Grandes (LLMs) con herramientas y datos, llamado el "USB-C para agentes de IA". Permite a los agentes conectarse a herramientas a través de API estandarizadas, mantener sesiones persistentes, ejecutar comandos y compartir contexto entre flujos de trabajo. Sin embargo, el MCP no es seguro de forma predeterminada. Conectar agentes a servidores arbitrarios sin una consideración cuidadosa puede crear vulnerabilidades de seguridad, potencialmente exponiendo el acceso al shell, secretos o infraestructura a través de ataques de canal lateral.

IA

SeedLM: Un Nuevo Método de Compresión de Pesos LLM usando Generadores de Números Pseudoaleatorios

2025-04-06
SeedLM: Un Nuevo Método de Compresión de Pesos LLM usando Generadores de Números Pseudoaleatorios

Los grandes modelos de lenguaje (LLM) se ven obstaculizados por altos costos de tiempo de ejecución, lo que limita su implementación generalizada. Investigadores de Meta presentan SeedLM, un nuevo método de compresión posterior al entrenamiento que utiliza semillas de un generador de números pseudoaleatorios para codificar y comprimir pesos de modelos. Durante la inferencia, SeedLM utiliza un registro de desplazamiento de retroalimentación lineal (LFSR) para generar eficientemente una matriz aleatoria, combinada linealmente con coeficientes comprimidos para reconstruir bloques de pesos. Esto reduce el acceso a la memoria y aprovecha los ciclos de cómputo inactivos, acelerando las tareas limitadas por memoria al intercambiar cómputo por menos accesos a la memoria. A diferencia de los métodos de vanguardia que requieren datos de calibración, SeedLM no necesita datos y se generaliza bien en diversas tareas. Los experimentos en el desafiante Llama 3 70B muestran una precisión de cero-shot en la compresión de 4 y 3 bits que iguala o supera a los métodos de vanguardia, manteniendo un rendimiento comparable a los benchmarks FP16. Las pruebas de FPGA demuestran que SeedLM de 4 bits se acerca a una aceleración de 4x con respecto a un benchmark FP16 Llama 2/3 a medida que aumenta el tamaño del modelo.

IA

TripoSG: Síntesis de Formas 3D de Alta Fidelidad con Modelos de Flujo Rectificados a Gran Escala

2025-04-06
TripoSG: Síntesis de Formas 3D de Alta Fidelidad con Modelos de Flujo Rectificados a Gran Escala

TripoSG es un modelo base de vanguardia para la generación de imágenes a 3D de alta fidelidad. Aprovechando transformadores de flujo rectificados a gran escala, entrenamiento supervisado híbrido y un conjunto de datos de alta calidad, alcanza resultados de vanguardia. TripoSG genera mallas con características nítidas, detalles finos y estructuras complejas, reflejando con precisión la semántica de la imagen de entrada. Cuenta con fuertes capacidades de generalización, manejando diversos estilos de entrada. Un modelo de 1.5B de parámetros, junto con el código de inferencia y una demostración interactiva, ya está disponible.

Firma de Modelos: Asegurando la integridad de los modelos de ML

2025-04-05
Firma de Modelos: Asegurando la integridad de los modelos de ML

Con el crecimiento explosivo de las aplicaciones de aprendizaje automático, la seguridad del modelo se ha convertido en una preocupación crítica. Este proyecto tiene como objetivo proteger la integridad y la procedencia de los modelos de aprendizaje automático mediante la firma de modelos. Utiliza herramientas como Sigstore para generar firmas de modelos y proporciona interfaces de CLI y API, que admiten varios métodos de firma (incluidos Sigstore, claves públicas y certificados). Los usuarios pueden verificar de forma independiente la integridad de sus modelos, evitando manipulaciones después del entrenamiento. El proyecto también se integra con SLSA (Supply chain Levels for Software Artifacts) para mejorar aún más la seguridad de la cadena de suministro de modelos de aprendizaje automático.

Meta presenta los modelos de IA multimodales Llama 4: Potentes y accesibles

2025-04-05
Meta presenta los modelos de IA multimodales Llama 4: Potentes y accesibles

Meta ha presentado su familia de modelos de IA Llama 4, que incluye Llama 4 Scout y Llama 4 Maverick, para satisfacer las diversas necesidades de los desarrolladores. Llama 4 Scout, un modelo multimodal líder, cuenta con 17 mil millones de parámetros activos y 109 mil millones de parámetros totales, ofreciendo un rendimiento de vanguardia. Llama 4 Maverick, con 17 mil millones de parámetros activos y 400 mil millones de parámetros totales, supera a Llama 3.3 70B a un menor costo, sobresaliendo en la comprensión de imágenes y texto en 12 idiomas. Ideal para asistentes generales y aplicaciones de chat, está optimizado para respuestas de alta calidad y un tono sutil.

IA

Google lanza biblioteca estable de firma de modelos para proteger la cadena de suministro de IA

2025-04-05
Google lanza biblioteca estable de firma de modelos para proteger la cadena de suministro de IA

El auge de los grandes modelos de lenguaje (LLM) ha puesto de manifiesto la importancia de la seguridad de la cadena de suministro de IA. La manipulación de modelos, el envenenamiento de datos y otras amenazas son preocupaciones crecientes. Para abordar esto, Google, en colaboración con NVIDIA y HiddenLayer, y con el apoyo de la Open Source Security Foundation, ha lanzado la primera versión estable de su biblioteca de firma de modelos. Esta biblioteca utiliza firmas digitales, como las de Sigstore, para permitir a los usuarios verificar que el modelo utilizado por una aplicación sea idéntico al creado por los desarrolladores. Esto garantiza la integridad y la procedencia del modelo, protegiéndolo contra manipulaciones maliciosas durante todo su ciclo de vida, desde el entrenamiento hasta la implementación. Los planes futuros incluyen la extensión de esta tecnología a conjuntos de datos y otros artefactos de ML, construyendo un ecosistema de confianza de IA más robusto.

IA en la salud: El cuello de botella computacional

2025-04-05
IA en la salud: El cuello de botella computacional

Un investigador destaca la imprecisión de las herramientas clínicas actuales utilizadas para la predicción del riesgo de cáncer. La IA tiene el potencial de aprovechar datos masivos de pacientes para una atención personalizada, permitiendo la detección temprana del cáncer, diagnósticos mejorados y protocolos de tratamiento optimizados. Sin embargo, el enorme volumen de datos de salud sobrecarga los chips de computadora tradicionales, lo que convierte al poder computacional en un cuello de botella para realizar el potencial total de la IA en el cuidado de la salud. Mientras los investigadores optimizan algoritmos, la tecnología de chips basada en silicio se acerca a sus límites de rendimiento, lo que requiere un nuevo enfoque para la tecnología de chips para que la IA alcance su máximo potencial.

IA
1 2 24 25 26 28 30 31 32 40 41