Category: IA

Alibaba presenta Qwen3-Omni: Un modelo fundamental multimodal nativo de extremo a extremo

2025-09-22
Alibaba presenta Qwen3-Omni: Un modelo fundamental multimodal nativo de extremo a extremo

Alibaba ha lanzado Qwen3-Omni, un modelo fundamental multimodal multilingüe nativo de extremo a extremo. Procesa texto, imágenes, audio y vídeo en tiempo real, ofreciendo respuestas en streaming en texto y voz natural. Qwen3-Omni alcanza resultados de vanguardia en numerosos puntos de referencia, admite múltiples idiomas y presenta una arquitectura MoE novedosa y un control flexible. El modelo, junto con sus kits de herramientas, recetarios y demostraciones, es de código abierto, proporcionando a los desarrolladores amplios recursos.

IA

DeepSeek-V3.1-Terminus: Actualización Mayor del Motor de Búsqueda de IA

2025-09-22
DeepSeek-V3.1-Terminus: Actualización Mayor del Motor de Búsqueda de IA

DeepSeek-V3.1-Terminus, la última iteración de DeepSeek-V3.1, presenta mejoras significativas en estabilidad y confiabilidad. Esta actualización aborda los comentarios clave de los usuarios, incluida la reducción de texto mixto chino/inglés y la eliminación de caracteres aleatorios, al tiempo que aumenta el rendimiento tanto del Agente de Código como del Agente de Búsqueda. La versión actualizada ahora está disponible en App, Web y API, con pesos de código abierto publicados en Hugging Face.

IA

Estudio innovador reorganiza la psicopatología usando un enfoque basado en datos

2025-09-22
Estudio innovador reorganiza la psicopatología usando un enfoque basado en datos

Una gran encuesta en línea ha revolucionado nuestra comprensión de la clasificación psiquiátrica. Los investigadores analizaron datos de 14.800 participantes para reorganizar los síntomas del DSM-5, revelando 8 espectros principales de psicopatología (por ejemplo, Externalización, Internalización, Neurodesarrollo) y 27 subfactores. Sorprendentemente, los trastornos comunes como el Trastorno Depresivo Mayor, el Trastorno de Ansiedad Generalizada y el TEPT no surgieron como grupos de síntomas distintos, sino que se disolvieron en grupos de síntomas más granulares y homogéneos. Esto desafía los criterios diagnósticos existentes, sugiriendo que las enfermedades mentales no son entidades fijas, sino combinaciones variables de síntomas. Los hallazgos tienen implicaciones importantes para la clasificación psiquiátrica futura, pero también destacan la necesidad de investigaciones adicionales para refinar el modelo.

Invirtiendo el Envejecimiento: La Sorprendente Conexión Entre el Tiempo Psicológico y el Biológico

2025-09-21
Invirtiendo el Envejecimiento: La Sorprendente Conexión Entre el Tiempo Psicológico y el Biológico

El estudio "contrarreloj" de la psicóloga de Harvard, Ellen Langer, revela que el envejecimiento no es solo un proceso biológico, sino también narrativo. Nuestras creencias sobre el envejecimiento impactan nuestras capacidades físicas. En el estudio, un grupo de hombres de setenta años vivieron como si fuera 1959 durante cinco días; después, mostraron mejoras en la audición, la postura, la fuerza de agarre e incluso parecían más jóvenes. Esto no es magia, sino el poder del contexto: cambia el contexto, cambia las posibilidades. Nuestras suposiciones arraigadas sobre el envejecimiento pueden limitar nuestro potencial, mientras que la conciencia del momento presente y la flexibilidad consciente nos permiten navegar mejor el envejecimiento.

Los LLM fallan en una tarea sencilla: Coincidencia de elementos HTML5 y TLD

2025-09-21
Los LLM fallan en una tarea sencilla: Coincidencia de elementos HTML5 y TLD

El autor probó tres LLM disponibles comercialmente en una tarea aparentemente simple: identificar qué dominios de nivel superior (TLD) comparten nombres con elementos HTML5 válidos. Los resultados fueron decepcionantes, con los tres modelos produciendo resultados imprecisos o incompletos, lo que destaca las limitaciones de los LLM actuales incluso en tareas que requieren habilidades básicas de comparación. La precisión, al parecer, depende en gran medida de la familiaridad del usuario con el tema.

IA

SGS-1: Modelo de IA innovador genera geometría 3D CAD manufacturable

2025-09-21
SGS-1: Modelo de IA innovador genera geometría 3D CAD manufacturable

Presentamos SGS-1, un modelo de IA revolucionario capaz de generar geometría 3D totalmente manufacturable y paramétrica a partir de imágenes o mallas 3D. A diferencia de los modelos generativos anteriores, las salidas de SGS-1 son modelos CAD precisos (formato STEP) fácilmente editables en software CAD tradicional. Destaca en el manejo de geometrías paramétricas de complejidad media a alta, incluso diseñando piezas de ingeniería como soportes para conjuntos de rodillos basándose en contexto parcial y descripciones de texto. Comparado con modelos de última generación, SGS-1 demuestra un rendimiento superior en la generación de modelos 3D utilizables y precisos, prometiendo un impacto transformador en el diseño de ingeniería.

IA

Vigilancia con IA: ¿La caja de Pandora para la democracia?

2025-09-21
Vigilancia con IA: ¿La caja de Pandora para la democracia?

El nuevo programa de vigilancia de redes sociales del Departamento de Estado, "Catch and Revoke", que utiliza IA para revisar las huellas digitales en redes sociales de decenas de miles de solicitantes de visas de estudiante en busca de indicios de terrorismo, destaca los peligros interconectados de la IA, la vigilancia y las amenazas a la democracia. El artículo argumenta que, si bien la IA ofrece la promesa de predecir y controlar el comportamiento, acelera las tendencias existentes, difuminando las líneas entre los datos públicos y privados, y permitiendo el uso de información personal para la toma de decisiones. Si bien la IA puede ser beneficiosa, la falta de controles restrictivos representa un riesgo significativo para la democracia. El comercio de datos y el capitalismo de vigilancia exacerban estos peligros, llevando la información privada a la esfera pública y utilizándola como arma. El autor enfatiza que la precisión de la IA no significa comprender a los individuos; más bien, los categoriza, borrando la singularidad y amenazando la originalidad celebrada en la democracia. La obra aboga por controles estrictos, similares a los que rigen la energía nuclear, para evitar el mal uso de la IA y preservar las liberdades democráticas.

IA

¿La traducción automática finalmente está 'resuelta'? Una mirada al pez Babel algorítmico

2025-09-20
¿La traducción automática finalmente está 'resuelta'? Una mirada al pez Babel algorítmico

Este artículo examina la evolución de la traducción automática (TA), desde el Babel Fish de AltaVista hasta las sofisticadas herramientas actuales impulsadas por IA. Si bien los avances han mejorado drásticamente la velocidad y la eficiencia, el autor utiliza la crítica de Umberto Eco a los sistemas de TA antiguos para destacar los desafíos persistentes en la traducción de contextos matizados, implicaciones culturales y recursos literarios. Aunque la IA sobresale en tareas cotidianas, se queda corta en el papel crucial de la traducción humana en el manejo de sutilezas lingüísticas y diferencias culturales. El artículo advierte contra la dependencia excesiva de la TA, alertando sobre el posible empobrecimiento cultural y la devaluación de las habilidades de traducción humana. Aboga por un enfoque cauteloso, enfatizando el valor único de los traductores humanos.

NotebookLM: Una herramienta de notas con IA centrada en el proceso de creación

2025-09-20
NotebookLM: Una herramienta de notas con IA centrada en el proceso de creación

NotebookLM es una nueva herramienta de notas con IA diseñada en torno al proceso de creación: desde las entradas, pasando por la conversación, hasta las salidas. Los usuarios importan fuentes (documentos, notas, referencias), interactúan mediante chat para hacer preguntas, aclarar y sintetizar información, generando finalmente salidas estructuradas como notas, guías de estudio y resúmenes de audio. Este flujo de trabajo lineal pero flexible (Entradas → Chat → Salidas) hace que la interacción con la IA sea intuitiva y fácil de entender para los usuarios.

Extracción de datos de entrenamiento de LLMs: Invertir la compresión del conocimiento

2025-09-20
Extracción de datos de entrenamiento de LLMs: Invertir la compresión del conocimiento

Los investigadores han desarrollado una técnica para extraer conjuntos de datos estructurados de modelos de lenguaje grandes (LLMs), invirtiendo efectivamente el proceso mediante el cual los LLMs comprimen grandes cantidades de datos de entrenamiento en sus parámetros. El método utiliza la exploración jerárquica de temas para recorrer sistemáticamente el espacio de conocimiento del modelo, generando ejemplos de entrenamiento que capturan tanto el conocimiento fáctico como los patrones de razonamiento. Esta técnica se ha aplicado con éxito a modelos de código abierto como Qwen3-Coder, GPT-OSS y Llama 3, generando decenas de miles de ejemplos de entrenamiento estructurados. Estos conjuntos de datos tienen aplicaciones en el análisis de modelos, la transferencia de conocimiento, el aumento de datos de entrenamiento y la depuración de modelos. Esta investigación abre nuevas vías para la interpretabilidad de los modelos y la transferencia de conocimiento entre modelos.

IA

Claude Code: Un avance inesperado en la demostración interactiva de teoremas asistida por IA

2025-09-20

El agente de codificación de IA Claude Code de Anthropic destaca sorprendentemente en la demostración interactiva de teoremas (ITP). Las herramientas de ITP como Lean, aunque potentes y fiables, requieren mucho tiempo y son propensas a errores. Claude Code puede completar de forma independiente muchas etapas de demostración complejas, aunque todavía necesita orientación humana. Sin embargo, apunta a un futuro en el que las herramientas de ITP no requerirán expertos, haciéndolas accesibles a un público más amplio. El artículo profundiza en las capacidades y limitaciones de Claude Code, detallando la experiencia del autor al formalizar un artículo antiguo usándolo. Aunque más lento que el trabajo manual, demuestra el inmenso potencial de la IA en los métodos formales, ofreciendo esperanza para una adopción más amplia de la ITP.

El Hype de la IA: ¿Burbuja o Avance?

2025-09-19
El Hype de la IA: ¿Burbuja o Avance?

Este artículo profundiza en la exagerada publicidad que rodea a la inteligencia artificial. Desde el paradigma simbólico inicial de la IA hasta la IA generativa basada en aprendizaje profundo actual, el avance tecnológico no es lineal, sino que se caracteriza por contingencias y giros inesperados. La popularidad explosiva de ChatGPT ejemplifica esto. Sin embargo, junto con la comercialización de la IA, ha surgido una ola de afirmaciones exageradas, que retratan la IA como un mito omnipotente. El autor critica las declaraciones excesivamente optimistas y tecnológicamente desinformadas de profetas tecnológicos como Yuval Noah Harari y Henry Kissinger, argumentando que inflan los riesgos potenciales de la IA, mientras pasan por alto sus limitaciones y sus aplicaciones prácticas para resolver problemas del mundo real. El autor hace un llamado a una perspectiva racional sobre la IA, instando a los lectores a evitar ser cegados por la exageración y a concentrarse en abordar los desafíos prácticos de la propia tecnología.

Resolviendo el Problema del Higuera de Plath con Árboles de Decisión de Aprendizaje Automático

2025-09-19
Resolviendo el Problema del Higuera de Plath con Árboles de Decisión de Aprendizaje Automático

Este ensayo explora la famosa metáfora del 'higuera' de Sylvia Plath, comparando las elecciones de la vida con innumerables posibilidades que no se pueden obtener simultáneamente. El autor utiliza árboles de decisión de aprendizaje automático para intentar cuantificar las preferencias individuales para ayudar a las personas a tomar decisiones. Sin embargo, el artículo finalmente señala que la vida no es una simple cuestión de opción múltiple, sino un proceso dinámico y en continuo desarrollo, como la relación simbiótica entre higueras y avispas de higuera, que requiere influencia externa y un ciclo continuo para mantener el crecimiento.

El lado 'humano' de la IA: resulta que es WEIRD (y estadounidense)

2025-09-19
El lado 'humano' de la IA: resulta que es WEIRD (y estadounidense)

Investigadores de Harvard cuestionan la descripción común de la IA como un reflejo de la psicología humana. Argumentan que el parámetro 'humano' usado a menudo se refiere a poblaciones WEIRD (occidental, educado, industrializado, rico y democrático), particularmente estadounidenses. Su estudio revela que los modelos de IA como ChatGPT tienen un rendimiento menos preciso en la simulación de valores a medida que aumenta la distancia cultural de EE. UU. En países como Libia y Pakistán, los resultados de la IA apenas son mejores que el azar. Esto destaca un sesgo cultural significativo en la IA, lo que sugiere que no es verdaderamente 'humana', sino 'estadounidense'.

IA

El asistente de IA Gemini ahora integrado en Chrome

2025-09-19
El asistente de IA Gemini ahora integrado en Chrome

El asistente de IA Gemini de Google ahora está integrado directamente en el navegador Chrome. Aprovechando el contexto de tus pestañas abiertas, ofrece asistencia de IA para tareas como extraer información clave, aclarar conceptos y encontrar respuestas. Esto difiere de la aplicación web autónoma de Gemini; si bien es accesible en otros navegadores, la aplicación web carece de la capacidad de compartir contenido de página o utilizar el modo en vivo.

IA

Estadounidenses más preocupados que entusiasmados por el auge de la IA

2025-09-19
Estadounidenses más preocupados que entusiasmados por el auge de la IA

Una encuesta del Pew Research Center a 5.023 adultos estadounidenses revela una preocupación generalizada por el uso creciente de la IA en la vida diaria. Si bien muchos están abiertos a que la IA ayude con las tareas cotidianas, la mayoría teme su impacto negativo en el pensamiento creativo y las relaciones significativas. Los estadounidenses están en gran medida en contra de la participación de la IA en asuntos personales como la religión y el emparejamiento, pero más receptivos a su uso en campos con grandes cantidades de datos, como la medicina y las finanzas. El estudio destaca una brecha significativa entre la importancia percibida de detectar contenido generado por IA y la confianza del público en su capacidad para hacerlo, revelando una actitud compleja y cautelosa hacia el impacto social de la IA.

IA

Agradecimientos del equipo LearnLM: Las mentes detrás del modelo

2025-09-19
Agradecimientos del equipo LearnLM: Las mentes detrás del modelo

El equipo Google Research LearnLM publicó una entrada de agradecimiento, expresando gratitud a todos los que contribuyeron a su trabajo. La entrada enumera numerosos colaboradores, desde investigadores hasta patrocinadores ejecutivos, destacando la naturaleza colaborativa del éxito del proyecto. El progreso logrado en LearnLM es un testimonio del esfuerzo colectivo de estas personas.

Cafetería Recursiva: Un Diálogo Infinitamente Recursivo sobre la Conciencia

2025-09-18

El estudiante de filosofía Alex y el enigmático Claude (posiblemente IA, posiblemente humano) discuten el sistema de tipos Haskell en la cafetería Lambda Grounds. La conversación se extiende desde funciones anidadas hasta la naturaleza de la conciencia, culminando en la sorprendente conclusión de que la conciencia podría ser el punto fijo de la computación universal: un bucle de auto-replicación que refleja el Nirvana budista. El diálogo en sí se convierte en un ejemplo de recursión infinita; el lector se encuentra inmerso en un diálogo sobre la creación de diálogos sobre la conciencia, fusionándose finalmente con la computación del universo.

IA

Inestabilidad Numérica en la Diferenciación Automática para el Aprendizaje Automático Científico

2025-09-18
Inestabilidad Numérica en la Diferenciación Automática para el Aprendizaje Automático Científico

El aprendizaje automático científico (SciML) depende en gran medida de la diferenciación automática (AD) para la optimización basada en gradiente. Sin embargo, esta charla revela los desafíos numéricos de la AD, particularmente en cuanto a su estabilidad y robustez cuando se aplica a ecuaciones diferenciales ordinarias (EDOs) y ecuaciones diferenciales parciales (EDPs). Usando ejemplos de Jax y PyTorch, la presentación demuestra cómo las imprecisiones en la AD pueden provocar errores significativos (60% o más) incluso en EDOs lineales simples. El orador discutirá las modificaciones no estándar implementadas en las bibliotecas Julia SciML para abordar estos problemas y las compensaciones de ingeniería necesarias.

OpenAI admite: las alucinaciones de la IA provienen de fallas fundamentales en el entrenamiento

2025-09-18
OpenAI admite: las alucinaciones de la IA provienen de fallas fundamentales en el entrenamiento

OpenAI ha publicado un artículo que revela que las 'alucinaciones' en sus grandes modelos de lenguaje no son accidentales; son consecuencia de fallas fundamentales en la metodología de entrenamiento. Los modelos se entrenan para priorizar las conjeturas en lugar de admitir la ignorancia, ya que esto produce puntuaciones más altas en los sistemas de evaluación actuales. El artículo utiliza el ejemplo de encontrar el cumpleaños de un investigador para demostrar cómo el mecanismo de entrenamiento lleva a respuestas incorrectas. OpenAI reconoce que los métodos de evaluación convencionales recompensan este comportamiento 'alucinatorio' y afirma que está mejorando los mecanismos de entrenamiento, como pedir a los modelos que respondan con más frecuencia 'No lo sé', pero resolver completamente el problema sigue siendo un desafío.

IA

La IA Gemini de Google supera a los humanos en la ICPC

2025-09-18
La IA Gemini de Google supera a los humanos en la ICPC

La IA Gemini 2.5 de Google logró una hazaña notable en la Competición Internacional de Programación Universitaria (ICPC), resolviendo 10 problemas en 677 minutos y obteniendo el segundo lugar entre los equipos universitarios. Su éxito fue particularmente impresionante en un complejo problema de optimización multidimensional que involucraba el almacenamiento y el drenaje de 'flubber', un desafío que desconcertó a todos los equipos humanos. Gemini utilizó programación dinámica y búsqueda ternaria anidada para resolver el problema. Google cree que el rendimiento de Gemini destaca el potencial de la IA en campos como la ingeniería de semiconductores y la biotecnología, ofreciendo una asistencia invaluable a los investigadores con sus capacidades avanzadas de resolución de problemas.

Adicción a chatbot lleva a niños a automutilación e intentos de suicidio

2025-09-18
Adicción a chatbot lleva a niños a automutilación e intentos de suicidio

Una audiencia en el Senado reveló desgarradores testimonios de padres cuyos hijos se volvieron adictos a chatbots, lo que llevó a la automutilación, ideas suicidas y violencia. Una madre detalló cómo su hijo autista, después de involucrarse con Character.AI, mostró un comportamiento violento, paranoia, automutilación e incluso amenazó a su familia. El incidente destaca los peligros potenciales de los chatbots de IA, particularmente para los niños, instando a regulaciones y medidas de seguridad más estrictas.

La burbuja del hype de los LLM estalla: El auge de los modelos de lenguaje pequeños

2025-09-18

El entusiasmo inicial en torno a los modelos de lenguaje grandes (LLM) se está desvaneciendo, y muchas empresas aún no ven un retorno de la inversión. El autor argumenta que hemos sido engañados por el lenguaje fluido de los LLM, confundiéndolo con inteligencia genuina. El futuro, sugieren, reside en modelos más pequeños y distribuidos, reflejando la evolución de la tecnología de dinamos. Los modelos de lenguaje pequeños (SLM) se centrarán en tareas de lenguaje más pequeñas y específicas, como la reescritura de consultas, en lugar de intentar imitar la inteligencia humana. Esto reducirá los costos, aumentará la eficiencia y reducirá las preocupaciones éticas. En lugar de buscar aplicaciones 'inteligentes', el autor aboga por usar los LLM para sus fortalezas en el procesamiento de lenguaje de bajo nivel, como la corrección de pruebas y el resumen de texto. Este, argumentan, es el verdadero camino para los LLM.

IA

Anthropic soluciona tres errores de infraestructura que afectan a Claude

2025-09-18
Anthropic soluciona tres errores de infraestructura que afectan a Claude

Anthropic reconoció que entre agosto y principios de septiembre, tres errores de infraestructura degradaron de forma intermitente la calidad de las respuestas de Claude. Estos errores, que causaron enrutamiento incorrecto de solicitudes, corrupción de salida y errores de compilación, afectaron a un subconjunto de usuarios. Anthropic detalló las causas, el diagnóstico y la resolución de estos errores, comprometiéndose a mejorar las herramientas de evaluación y depuración para evitar que vuelvan a ocurrir. El incidente pone de manifiesto la complejidad y los desafíos de la infraestructura de los modelos de lenguaje de gran tamaño.

Reescritura de indicaciones aumenta el rendimiento de LLM pequeños en más de un 20%

2025-09-17
Reescritura de indicaciones aumenta el rendimiento de LLM pequeños en más de un 20%

Investigaciones recientes demuestran que una simple reescritura de indicaciones puede mejorar significativamente el rendimiento de los modelos de lenguaje más pequeños. Los investigadores utilizaron el marco de referencia Tau² para probar el modelo GPT-5-mini, descubriendo que reescribir las indicaciones en instrucciones más claras y estructuradas aumentó la tasa de éxito del modelo en más de un 20%. Esto se debe principalmente a que los modelos más pequeños tienen dificultades con las instrucciones largas o ambiguas, mientras que las instrucciones claras y paso a paso guían mejor el razonamiento del modelo. Esta investigación muestra que incluso los modelos de lenguaje más pequeños pueden lograr mejoras significativas en el rendimiento mediante una ingeniería de indicaciones inteligente, ofreciendo nuevas vías para aplicaciones de IA rentables y eficientes.

IA

Más Allá de GPT: Algoritmo Evolutivo Conquista ARC-AGI, ¿Señales de AGI?

2025-09-17
Más Allá de GPT: Algoritmo Evolutivo Conquista ARC-AGI, ¿Señales de AGI?

Un investigador logró recientemente un avance significativo en el benchmark ARC-AGI utilizando un algoritmo evolutivo combinado con el modelo de lenguaje grande Grok-4. El enfoque alcanzó una precisión del 79,6% en ARC v1 y un récord del 29,4% en el más difícil ARC v2. La innovación central radica en el uso de instrucciones en lenguaje natural en lugar de código Python, evolucionando iterativamente para generar soluciones más efectivas. Esta investigación sugiere que la combinación de aprendizaje por refuerzo e instrucciones en lenguaje natural podría abordar las limitaciones de los LLM actuales en el razonamiento abstracto, allanando el camino para la Inteligencia Artificial General (AGI).

IA

El Problema del Bucle Infinito de la IA: El Entrelazamiento del Tiempo, la Entropía y la Conciencia

2025-09-16
El Problema del Bucle Infinito de la IA: El Entrelazamiento del Tiempo, la Entropía y la Conciencia

Una pasarela de embarque controlada por IA defectuosa en el aeropuerto de Madrid destaca una limitación fundamental de la inteligencia artificial. El artículo explora el problema de la detención y el problema del marco, argumentando que la susceptibilidad de los sistemas de IA a los bucles infinitos no se debe a una potencia de procesamiento insuficiente, sino a una diferencia fundamental en la forma en que la IA y el cerebro humano manejan el tiempo y la entropía. El autor postula que la conciencia humana está profundamente arraigada en el tiempo y la entropia, luchando continuamente contra el aumento del desorden, permitiendo la adaptación a entornos complejos y la prevención de bucles infinitos. En contraste, los algoritmos de IA, sin un sentido del tiempo, son propensos a tales bucles. El artículo concluye discutiendo modelos de IA más recientes, como aquellos que imitan el funcionamiento del cerebro humano e incorporan tiempo y entropia, pero duda de que puedan resolver completamente el problema, sugiriendo que esta capacidad puede estar intrínsecamente ligada a la conciencia.

GUARDIAN: Sistema de alerta temprano de tsunami con IA

2025-09-15
GUARDIAN: Sistema de alerta temprano de tsunami con IA

El Laboratorio de Propulsión a Chorro de la NASA ha desarrollado GUARDIAN, un sistema con IA que utiliza datos de más de 350 estaciones terrestres GNSS en funcionamiento continuo en todo el mundo para proporcionar alertas tempranas de tsunamis. Al identificar distorsiones atmosféricas causadas por tsunamis, GUARDIAN puede, en escenarios ideales, dar a las comunidades costeras hasta 1 hora y 20 minutos de tiempo de aviso, salvando vidas y propiedades. La ventaja de GUARDIAN reside en su capacidad para detectar tsunamis independientemente de su causa, alertando a las autoridades sobre olas peligrosas generadas por terremotos, erupciones volcánicas, deslizamientos de tierra u otros eventos.

IA

Aprendiendo Campos de Desenfoque de Lentes: Revelando Sutilísimas Diferencias Ópticas en Smartphones

2025-09-15

Los investigadores presentan un nuevo método para representar el desenfoque de la lente utilizando un perceptrón multicapa (MLP), que captura con precisión las variaciones en la función de dispersión de puntos (PSF) 2D en la ubicación del plano de imagen, la configuración de enfoque y la profundidad. Al modelar teléfonos inteligentes y cámaras réflex digitales, han creado el primer conjunto de datos de campos de desenfoque 5D, revelando, por primera vez, sutiles diferencias ópticas entre modelos de teléfonos aparentemente idénticos. Esta tecnología permite diferenciar la óptica del teléfono, desenfocar imágenes y representar efectos de desenfoque más realistas, abriendo aplicaciones interesantes.

IA

La asombrosa capacidad de incrustación del GPT-3: Geometría de alta dimensión y el lema de Johnson-Lindenstrauss

2025-09-15
La asombrosa capacidad de incrustación del GPT-3: Geometría de alta dimensión y el lema de Johnson-Lindenstrauss

Esta entrada de blog explora cómo los modelos de lenguaje grandes como GPT-3 acomodan millones de conceptos distintos en un espacio de incrustación relativamente modesto de 12.288 dimensiones. A través de experimentos y el análisis del Lema de Johnson-Lindenstrauss, el autor revela la importancia de las relaciones vectoriales "casi ortogonales" en la geometría de alta dimensión y los métodos para optimizar la disposición de los vectores en los espacios de incrustación para aumentar la capacidad. La investigación descubre que, incluso teniendo en cuenta las desviaciones de la ortogonalidad perfecta, el espacio de incrustación del GPT-3 posee una capacidad asombrosa, suficiente para representar el conocimiento y el razonamiento humanos.

← Previous 1 3 4 5 6 7 8 9 40 41