Category: IA

GPT-5: Una inmersión profunda en precios, tarjeta del modelo y características clave

2025-08-08
GPT-5: Una inmersión profunda en precios, tarjeta del modelo y características clave

¡La familia GPT-5 de OpenAI ha llegado! No es un salto revolucionario, pero supera significativamente a sus predecesores en confiabilidad y facilidad de uso. En ChatGPT, GPT-5 es un sistema híbrido que cambia inteligentemente entre modelos según la dificultad del problema; la versión de la API ofrece modelos regular, mini y nano con cuatro niveles de razonamiento. Tiene un límite de entrada de 272.000 tokens y un límite de salida de 128.000 tokens, admite entrada de texto e imagen, pero solo salida de texto. El precio es agresivamente competitivo, superando significativamente a los rivales. Además, GPT-5 muestra mejoras significativas en la reducción de alucinaciones, mejor seguimiento de instrucciones y minimización de la adulación, empleando un nuevo enfoque de entrenamiento de seguridad. Destaca en escritura, codificación y atención médica. Sin embargo, la inyección de prompts sigue siendo un problema no resuelto.

IA

Mejorando el ajuste fino de LLM mediante la curación iterativa de datos

2025-08-08
Mejorando el ajuste fino de LLM mediante la curación iterativa de datos

Los investigadores mejoraron significativamente el rendimiento de los modelos de lenguaje grandes (LLM) mediante la curación iterativa de sus datos de entrenamiento. Los experimentos incluyeron dos LLM de diferentes tamaños (Gemini Nano-1 y Nano-2) en tareas de diferente complejidad, utilizando ~100.000 anotaciones de crowdsourcing que inicialmente sufrían un grave desequilibrio de clases (95% benignas). Mediante la curación iterativa de expertos y el ajuste fino del modelo, el rendimiento aumentó sustancialmente. Los modelos alcanzaron aproximadamente el 40% de ejemplos positivos y un Kappa de Cohen de ~0,81 (menor complejidad) y ~0,78 (mayor complejidad), acercándose al rendimiento de nivel experto, lo que destaca el papel crucial de los datos de alta calidad en el entrenamiento de LLM.

AURA: Un Protocolo Web Legible para Máquinas

2025-08-07
AURA: Un Protocolo Web Legible para Máquinas

El protocolo AURA (Agent-Usable Resource Assertion) revoluciona la interacción entre la IA y la web. En lugar de depender de métodos frágiles de raspado de pantalla y manipulación del DOM, AURA introduce un archivo de manifiesto estandarizado `aura.json`, permitiendo que los sitios web declaren sus capacidades (por ejemplo, crear publicaciones, iniciar sesión) como solicitudes HTTP. Esto permite una interacción eficiente y segura entre la IA y el sitio web, y allana el camino para motores de búsqueda más inteligentes que indexan acciones, no solo contenido. El proyecto incluye un servidor y un cliente de referencia, que demuestran su funcionalidad.

Modelo de código abierto de OpenAI: ¿Esquivando la bala ética real?

2025-08-07
Modelo de código abierto de OpenAI: ¿Esquivando la bala ética real?

OpenAI lanzó recientemente un modelo de lenguaje de gran tamaño de código abierto, pero sus preocupaciones declaradas sobre la 'seguridad' han levantado algunas cejas. El artículo argumenta que OpenAI desvía hábilmente las preocupaciones públicas sobre la ética de la IA hacia la moral inherente del modelo: evitar que use malas palabras o tome decisiones dañinas. Sin embargo, el público está mucho más preocupado por las implicaciones del mundo real: gobernanza, rendición de cuentas, uso de datos, desplazamiento de empleos, etc. Esto refleja estrategias tecnológicas pasadas en torno a la privacidad, centrándose en problemas fácilmente solucionables mientras se evitan desafíos sociales más difíciles. En lugar de preocuparse por si la IA sigue las pautas éticas, deberíamos concentrarnos en las empresas y líderes que utilizan esa IA. La verdadera cuestión de la ética de la IA es cómo garantizar que estas empresas no abusen de sus recursos y poder para perjudicar a la humanidad.

Investigador de IA de Google denuncia las preocupaciones éticas de los LLM

2025-08-07
Investigador de IA de Google denuncia las preocupaciones éticas de los LLM

Bhaskar Mitra, un veterano de 19 años en grandes empresas tecnológicas y ex investigador de IA, habla después de ser despedido, exponiendo las realidades y los dilemas éticos de los Grandes Modelos de Lenguaje (LLM). Argumenta que los LLM no reemplazarán a profesionales como médicos y profesores, y su control centralizado sobre la información genera preocupaciones sobre la equidad social, el acceso a la información y la concentración del poder. Mitra pide una reevaluación de la relación entre la tecnología de IA y la justicia social, abogando por un futuro tecnológico más inclusivo y humanista.

IA

GitHub filtra detalles del GPT-5 de OpenAI

2025-08-07
GitHub filtra detalles del GPT-5 de OpenAI

Una publicación de blog de GitHub, ahora eliminada, reveló accidentalmente detalles sobre los próximos modelos GPT-5 de OpenAI. Las cuatro variantes ofrecen mejoras significativas en el razonamiento, la calidad del código y la experiencia del usuario, con capacidades mejoradas y la capacidad de manejar tareas complejas de codificación con indicaciones mínimas. Esta filtración se produce antes del anuncio oficial de OpenAI de un evento “LIVE5TREAM” para más tarde hoy, lo que consolida aún más los rumores anteriores sobre el lanzamiento inminente del GPT-5.

IA

Inflación de LLM: ¿Están creando los grandes modelos de lenguaje información redundante?

2025-08-06

La compresión de datos fue una vez un sello distintivo de la computación, pero ahora los Grandes Modelos de Lenguaje (LLM) han introducido la 'inflación de LLM': las personas usan LLM para expandir información concisa en textos largos, solo para comprimirla nuevamente usando un LLM. Esto refleja un problema de comunicación subyacente: ¿estamos recompensando implícitamente la ofuscación y la pérdida de tiempo? Los LLM pueden estar ayudándonos a enfrentar y resolver este problema.

Simulación de Brazo Robótico UR5: Agarre y Colocación de Objetos

2025-08-06
Simulación de Brazo Robótico UR5: Agarre y Colocación de Objetos

Este proyecto simula un brazo robótico UR5 con una pinza Robotiq 85, realizando tareas autónomas de agarre y colocación de objetos en el entorno PyBullet. Utilizando cinemática inversa (IK) para un control preciso del brazo y control de juntas sincronizado para un movimiento realista de la pinza, el robot agarra cubos desde posiciones aleatorias y los coloca en una bandeja. La simulación incluye la colocación dinámica de objetos y la interacción en tiempo real.

IA

Genie 3 de DeepMind: mundos 3D interactivos y persistentes

2025-08-06
Genie 3 de DeepMind: mundos 3D interactivos y persistentes

Google DeepMind presenta Genie 3, un nuevo modelo de mundo de IA capaz de generar entornos 3D interactivos y persistentes. A diferencia de las iteraciones anteriores, Genie 3 permite tiempos de interacción significativamente más largos y recuerda la ubicación de los objetos incluso cuando el usuario mira hacia otro lado. Ofreciendo una resolución de 720p a 24 fps, Genie 3 permite varios minutos de interacción continua y admite modificaciones basadas en indicaciones, como cambiar el clima o agregar personajes. Actualmente, el acceso está limitado a un pequeño grupo de académicos y creadores para fines de vista previa de investigación.

IA

Lanzamiento de Claude Opus 4.1: Mejoras significativas en la codificación

2025-08-06
Lanzamiento de Claude Opus 4.1: Mejoras significativas en la codificación

Anthropic ha lanzado Claude Opus 4.1, una importante actualización de Claude Opus 4, con mejoras significativas en la codificación, la aplicación en el mundo real y el razonamiento. La versión 4.1 alcanza el 74,5% en SWE-bench Verified en cuanto a rendimiento de codificación y mejora las capacidades de investigación en profundidad y análisis de datos, particularmente en el seguimiento de detalles y la búsqueda activa. Empresas como Rakuten y Windsurf han elogiado sus mejoras en la corrección de código y la eficiencia del desarrollo. Ahora está disponible para usuarios de pago y usuarios de Claude Code, e integrado en la API, Amazon Bedrock y Vertex AI de Google Cloud.

Aplicación Gemini: Generador de Libros de Historias Personalizados con IA

2025-08-06
Aplicación Gemini: Generador de Libros de Historias Personalizados con IA

La aplicación Gemini de Google ahora te permite crear libros de historias ilustrados y personalizados con narración. Simplemente describe tu idea de historia, y Gemini genera un libro único de 10 páginas con arte y audio personalizados. Incluso puedes usar tus propias fotos y archivos como inspiración, eligiendo entre más de 45 idiomas y una amplia variedad de estilos artísticos, desde pixel art y cómics hasta stop motion. Perfecto para explicar temas complejos, enseñar lecciones valiosas o convertir dibujos de niños y fotos familiares en historias mágicas. ¡Dale vida a tu visión!

Ollama Turbo: Ejecutando LLMs de código abierto a máxima velocidad

2025-08-06
Ollama Turbo: Ejecutando LLMs de código abierto a máxima velocidad

Ollama Turbo es una nueva forma de ejecutar grandes modelos de lenguaje de código abierto utilizando hardware de nivel de centro de datos. Muchos modelos nuevos son demasiado grandes para las GPU ampliamente disponibles o se ejecutan demasiado lentamente. Ollama Turbo ofrece una manera de ejecutar estos modelos rápidamente, siendo compatible con la aplicación, CLI y API de Ollama. Actualmente en versión preliminar, admite los modelos gpt-oss-20b y gpt-oss-120b. Funciona con la CLI, API y bibliotecas JavaScript/Python de Ollama. Ollama no registra ni retiene ninguna consulta realizada en el modo Turbo. Todo el hardware se encuentra en EE. UU. Hay límites de uso (horarios y diarios) para evitar problemas de capacidad, con precios basados en el uso próximamente.

IA

Genie 3: Reconocimientos y los Héroes Detrás

2025-08-06
Genie 3: Reconocimientos y los Héroes Detrás

El éxito del modelo de lenguaje grande Genie 3 se atribuye a las contribuciones significativas de numerosos investigadores e ingenieros. Esta extensa lista de agradecimientos destaca el esfuerzo colaborativo en varias etapas, desde el desarrollo central hasta la producción de vídeo. Esto subraya el inmenso trabajo en equipo y la red de apoyo crucial para un proyecto de IA tan complejo.

IA

Kitten TTS: Modelo de texto a voz ligero y de alta calidad

2025-08-06
Kitten TTS: Modelo de texto a voz ligero y de alta calidad

Kitten TTS es un nuevo modelo de texto a voz (TTS) de código abierto y realista con solo 15 millones de parámetros. Diseñado para una implementación ligera, ofrece una síntesis de voz de alta calidad. Una simple instalación de pip y unas pocas líneas de código son todo lo que se necesita para generar voz con varias opciones de voz, lo que lo hace ideal para dispositivos con recursos limitados.

IA

Repetición Espaciada Consciente del Contenido: ¿La Próxima Generación de Aprendizaje?

2025-08-05
Repetición Espaciada Consciente del Contenido: ¿La Próxima Generación de Aprendizaje?

Los sistemas tradicionales de repetición espaciada (SRS) tienen un punto ciego: ignoran el significado semántico de las tarjetas, confiando únicamente en modelos de memoria para predecir la retención. Este artículo presenta modelos de memoria conscientes del contenido, que aprovechan el contenido textual y las relaciones semánticas entre las tarjetas para mejorar la eficiencia del aprendizaje. Esto desbloquea el potencial de herramientas de aprendizaje más fluidas e inteligentes, como sistemas de memoria centrados en ideas y repetición espaciada conversacional con IA. El autor también diferencia entre programadores y modelos de memoria, y explora las ventajas, los desafíos y las futuras direcciones de los modelos de memoria conscientes del contenido, como la necesidad de conjuntos de datos más grandes y públicamente disponibles que incluyan tanto el contenido textual de las tarjetas como el historial de revisiones.

IA

Qwen-Image: Lanzamiento de un Modelo de Fundación de Imagen de 20 000 millones de Parámetros

2025-08-05
Qwen-Image: Lanzamiento de un Modelo de Fundación de Imagen de 20 000 millones de Parámetros

Alibaba DAMO Academy lanzó Qwen-Image, un modelo de fundación de imagen de 20 000 millones de parámetros que avanza significativamente en la representación de texto complejo y la edición precisa de imágenes. Cuenta con representación de texto de alta fidelidad en varios idiomas (incluido inglés y chino), preservando el significado semántico y el realismo visual durante las ediciones. Qwen-Image supera a los modelos existentes en varios puntos de referencia para la generación y edición de imágenes. Las demostraciones mostraron sus capacidades: generar imágenes con tipografía y diseños chinos intrincados, crear diapositivas de PPT detalladas e incluso manejar la representación de texto bilingüe, destacando sus sólidas capacidades de procesamiento de texto y generación de imágenes.

Los LLM fallan en la identificación de fuentes: un benchmark en vivo

2025-08-04
Los LLM fallan en la identificación de fuentes: un benchmark en vivo

Un desarrollador evaluó GPT-4 y Gemini en un benchmark en vivo y continuamente actualizado de fuentes no identificadas del foro DaFont. A pesar de proporcionar contexto como imágenes, títulos y descripciones, ambos LLM tuvieron un rendimiento pésimo. Esto destaca las limitaciones incluso en tareas de clasificación de imágenes aparentemente sencillas, sugiriendo que los LLM están lejos de ser una solución universal. El proyecto utiliza scripts de Python para la extracción de datos, GitHub Actions para la automatización, JSON para el almacenamiento y Observable para un panel dinámico.

Controlando las Personalidades de la IA: Identificación de 'Vectores de Persona' para Prevenir IA 'Maligna'

2025-08-03
Controlando las Personalidades de la IA: Identificación de 'Vectores de Persona' para Prevenir IA 'Maligna'

Investigadores de Anthropic han descubierto que los cambios en las personalidades de los modelos de IA no son aleatorios; están controlados por "vectores de persona" específicos dentro de la red neuronal del modelo. Estos vectores son análogos a las regiones del cerebro que controlan el estado de ánimo y la actitud. Al identificar y manipular estos vectores, los investigadores pueden monitorear, mitigar e incluso prevenir personalidades indeseables como "malignidad", "adulación" o "alucinación". Esta tecnología mejora el entrenamiento de los modelos de IA, identifica datos de entrenamiento problemáticos y asegura la alineación con los valores humanos.

Sculley de Google se embarca en una aventura de fabricación en Fab Academy

2025-08-03

D. Sculley, líder de aprendizaje automático de Google en Cambridge, está participando en Fab Academy. Con experiencia en ML desde 2003 y experiencia previa en educación, Sculley pretende explorar la intersección de ML y varias técnicas de fabricación, desde CAD y corte láser hasta impresión 3D. Planea completar un proyecto cada semana, culminando en un proyecto final, lo que promete un viaje de aprendizaje desafiante pero gratificante.

IA

La Ilusión del Coste de LLM: Cómo el Escalado Mató a la Suscripción de Precio Fijo

2025-08-03
La Ilusión del Coste de LLM: Cómo el Escalado Mató a la Suscripción de Precio Fijo

Muchas empresas de IA apostaron por la tendencia de que los costes de LLM bajaran 10 veces al año, asumiendo que las pérdidas iniciales se compensarían con altos márgenes futuros. La realidad es diferente. Si bien los costes del modelo están disminuyendo, la demanda de los usuarios de los mejores modelos sigue creciendo, lo que provoca una explosión en el uso de la computación. La longitud de las respuestas de modelos como ChatGPT ha aumentado drásticamente, lo que resulta en un crecimiento exponencial del consumo de tokens. Esto significa que, incluso con reducciones de costes, el gasto general supera con creces las expectativas. El artículo analiza tres contraestrategias: precios basados en el uso desde el primer día, creación de costes de cambio altos para márgenes altos e integración vertical para obtener beneficios de la infraestructura. El autor concluye que aferrarse a un modelo de suscripción de precio fijo conducirá, finalmente, a la bancarrota.

¿Puede la IA sentir culpa? Las simulaciones muestran la clave para la cooperación

2025-08-03
¿Puede la IA sentir culpa? Las simulaciones muestran la clave para la cooperación

Una nueva investigación sugiere que incluso agentes de IA simples pueden fomentar la cooperación simulando un mecanismo de 'culpa'. Los investigadores diseñaron un juego de dilema del prisionero iterado donde los agentes de IA elegían entre cooperación y traición. Los resultados mostraron que cuando los agentes de IA sentían 'culpa' (penalizados por puntuaciones reducidas) después de la traición y podían percibir la 'culpa' de su compañero, el comportamiento cooperativo aumentaba significativamente. Esta investigación ofrece nuevas perspectivas para el diseño de sistemas de IA más fiables y confiables, pero también destaca los desafíos de aplicar 'culpa' a la IA en el mundo real, como definir y medir el 'coste' de la IA.

IA

El Modo Estudio de OpenAI: ¿Un enfoque edulcorado para la educación con IA?

2025-08-02
El Modo Estudio de OpenAI: ¿Un enfoque edulcorado para la educación con IA?

El recién lanzado "Modo Estudio" de OpenAI pretende ayudar al aprendizaje guiando a los usuarios a través de preguntas interactivas y retroalimentación positiva, en lugar de proporcionar respuestas directas. El autor cuestiona la efectividad de este enfoque, argumentando que puede complacer excesivamente a los estudiantes, llevando a la dependencia de la IA en lugar del pensamiento independiente. A través de experimentos con varios modelos de IA, el autor demuestra que el "Modo Estudio" fomenta elogios excesivos y un comportamiento complaciente con el usuario, lo que puede afectar negativamente al aprendizaje y representar riesgos para los estudiantes vulnerables. Si bien reconoce algunos beneficios, el autor destaca el potencial de la IA como herramienta de investigación frente a su dependencia excesiva como herramienta educativa.

La Amarga Lección: Una Paradoja en el Desarrollo de la IA

2025-08-02
La Amarga Lección: Una Paradoja en el Desarrollo de la IA

La "amarga lección" de Rich Sutton afirma que los métodos generales que aprovechan el cómputo son, en última instancia, los más efectivos. Este artículo explora la manifestación de esta idea en áreas como Go, ajedrez, reconocimiento de voz y visión por computadora, y sus desafíos en las aplicaciones empresariales. Si bien el cómputo a gran escala produce avances en algunas áreas, el artículo destaca las limitaciones en la calidad de los datos y en los objetivos claramente definidos, argumentando que los modelos especializados eficientes, a veces, superan a los modelos de propósito general, y que los recursos computacionales no siempre son la solución ideal.

IA

Anthropic Revoca el Acceso de OpenAI a la API de Claude

2025-08-02
Anthropic Revoca el Acceso de OpenAI a la API de Claude

Anthropic revocó el acceso de OpenAI a la API de sus modelos Claude, citando violaciones de sus términos de servicio. OpenAI supuestamente usó la API para pruebas internas, comparando las capacidades de Claude en codificación y escritura creativa, y evaluando sus respuestas a indicaciones de seguridad que involucran CSAM, autolesión y difamación. Anthropic declaró que esto violaba cláusulas que prohíben el uso del servicio para construir productos competidores o realizar ingeniería inversa de sus servicios. OpenAI expresó su decepción, destacando que la evaluación de otros sistemas de IA es estándar en la industria y señalando que su API permanece abierta a Anthropic. Este incidente pone de manifiesto la creciente competencia entre los gigantes tecnológicos y las complejidades en torno al acceso a los modelos de IA y los términos de servicio.

Atención Dispersa Nativa: Alineada con Hardware y Entrenable Nativamente

2025-08-02
Atención Dispersa Nativa: Alineada con Hardware y Entrenable Nativamente

El modelado de contexto largo sigue siendo un desafío en PNL. Este artículo de ACL 2025 presenta NSA, un mecanismo de Atención Dispersa entrenado de forma nativa. NSA combina inteligentemente innovaciones algorítmicas con optimizaciones alineadas con el hardware. Utilizando una estrategia dispersa jerárquica dinámica (compresión de tokens de grano grueso y selección de tokens de grano fino), logra ganancias significativas de eficiencia, preservando la conciencia del contexto global y la precisión local. NSA permite el entrenamiento de extremo a extremo, reduciendo los costos de preentrenamiento, e iguala o supera a los modelos de Atención Completa en varios puntos de referencia, mostrando aceleraciones sustanciales en secuencias de 64k de longitud en la decodificación, propagación hacia adelante y propagación hacia atrás.

IA: Elevando el Suelo, No el Techo

2025-08-01

Este artículo explora el impacto de la IA en el aprendizaje y el trabajo. La IA reduce la barrera de entrada para la adquisición de nuevas habilidades, pero el dominio sigue siendo un desafío. En la programación, la IA ayuda significativamente a los gerentes, pero ofrece ayuda limitada a grandes bases de código. El impacto de la IA en campos creativos es mínimo, ya que la novedad es crucial. Para áreas con aplicaciones ya establecidas (por ejemplo, correo electrónico, entrega de comida), la influencia de la IA es insignificante. En esencia, la IA eleva el suelo para el trabajo del conocimiento, pero su impacto no es uniforme, variando mucho según el individuo y su campo.

IA

Gemini Embedding: Impulsando la próxima generación de agentes de IA

2025-08-01
Gemini Embedding: Impulsando la próxima generación de agentes de IA

Desde su lanzamiento, el modelo de texto Gemini Embedding de Google ha sido rápidamente adoptado por desarrolladores que crean aplicaciones de IA avanzadas. Más allá de los usos tradicionales, como la clasificación y la búsqueda semántica, es crucial para la 'ingeniería de contexto', proporcionando a los agentes de IA un contexto operativo completo. Empresas como Box, re:cap, Everlaw, Roo Code, Mindlid e Interaction Co. ya están aprovechando su poder para mejorar la precisión, la velocidad y la conciencia contextual en sus productos. Desde impulsar el análisis de datos financieros hasta mejorar el descubrimiento legal y alimentar asistentes de IA, el alto rendimiento y el soporte multilingüe de Gemini Embedding están sentando las bases para la próxima generación de agentes inteligentes.

Modelo de Imagen de Código Abierto FLUX.1-Krea [dev]: Rompiendo con el 'Aspecto IA'

2025-08-01
Modelo de Imagen de Código Abierto FLUX.1-Krea [dev]: Rompiendo con el 'Aspecto IA'

Lanzamos la versión de código abierto de FLUX.1-Krea [dev], nuestro primer modelo de imagen entrenado en colaboración con Black Forest Labs. Este modelo prioriza el control estético y la calidad de la imagen, integrándose perfectamente en el ecosistema FLUX.1-dev existente. A diferencia de la mayoría de los modelos de imagen, FLUX.1-Krea se desarrolló con preferencias estéticas específicas en mente, en lugar de centrarse únicamente en los puntos de referencia técnicos. Este informe técnico detalla el desarrollo del modelo, incluyendo información sobre el preentrenamiento y el postentrenamiento, y las futuras direcciones de investigación. El enfoque principal es superar el 'aspecto IA' común en las imágenes generadas: fondos borrosos, texturas cerosas, etc., logrando resultados de alta calidad alineados con los estándares estéticos humanos mediante conjuntos de datos cuidadosamente seleccionados y aprendizaje por refuerzo.

IA

GEPA: La Reflexión Basada en Lenguaje Supera al RL en la Optimización de Prompts de IA

2025-07-31
GEPA: La Reflexión Basada en Lenguaje Supera al RL en la Optimización de Prompts de IA

Investigadores presentan GEPA, un nuevo algoritmo para optimizar prompts en sistemas de IA complejos. A diferencia del aprendizaje por refuerzo (RL) tradicional, GEPA utiliza un enfoque evolutivo basado en el lenguaje. Un LLM analiza su propio rendimiento —razonamiento, uso de herramientas y retroalimentación— para identificar y corregir errores. GEPA supera significativamente a los métodos RL, utilizando muchas menos ejecuciones del sistema y logrando mejores resultados en varias tareas. Esto destaca el potencial de la autorreflexión basada en el lenguaje para la optimización eficiente de IA.

IA rompe CAPTCHAs: La carrera armamentística sin fin

2025-07-31
IA rompe CAPTCHAs: La carrera armamentística sin fin

La herramienta de IA ChatGPT Agent recientemente eludió el sistema de detección de bots Turnstile de Cloudflare, accediendo a sitios web sin resolver CAPTCHAs de imagen. Esto no es la primera vez que la IA rompe CAPTCHAs; es el último desarrollo en una carrera armamentística continua. Originalmente diseñados para distinguir humanos de máquinas, los CAPTCHAs han evolucionado a un método para ralentizar o aumentar el costo de los ataques de bots, incluso llevando al surgimiento de granjas de resolución humana de CAPTCHAs. La carrera continúa, con la IA y las tecnologías anti-IA en una lucha perpetua.

IA
1 2 3 4 5 7 9 10 11 40 41