Category: IA

Gemma de Google: Una Familia de Modelos Multimodales Ligeros

2025-03-12
Gemma de Google: Una Familia de Modelos Multimodales Ligeros

Google presentó Gemma, una familia ligera de modelos multimodales basados en la tecnología Gemini. Los modelos Gemma 3 procesan texto e imágenes, cuentan con una ventana de contexto de 128K y admiten más de 140 idiomas. Disponibles en tamaños de parámetros de 1B, 4B, 12B y 27B, destacan en tareas como respuesta a preguntas, resumen y razonamiento, mientras que su diseño compacto permite su implementación en dispositivos con recursos limitados. Los resultados de evaluación muestran un rendimiento sólido en diversas tareas, particularmente en capacidades multilingües y multimodales.

Rompiendo el Techo Algorítmico: Preentrenamiento Generativo Eficiente con Correspondencia de Momentos Inductiva (IMM)

2025-03-12
Rompiendo el Techo Algorítmico: Preentrenamiento Generativo Eficiente con Correspondencia de Momentos Inductiva (IMM)

Luma Labs presenta Inductive Moment Matching (IMM), una nueva técnica de preentrenamiento que aborda el estancamiento en la innovación algorítmica dentro del preentrenamiento generativo. IMM supera significativamente a los modelos de difusión en calidad de muestra y eficiencia de muestreo, logrando un aumento de más de diez veces en esta última. Al incorporar el paso de tiempo objetivo, IMM mejora la flexibilidad de cada iteración de inferencia, superando las limitaciones de la interpolación lineal en los modelos de difusión. Los experimentos demuestran puntuaciones FID de vanguardia en ImageNet y CIFAR-10, junto con una estabilidad de entrenamiento superior. Esta investigación representa un avance significativo en los algoritmos de preentrenamiento generativo, allanando el camino para futuros avances en modelos de base multimodales.

El nuevo modelo OCR de Mistral decepciona; Google Gemini 2.0 toma la delantera

2025-03-11
El nuevo modelo OCR de Mistral decepciona; Google Gemini 2.0 toma la delantera

Pruebas recientes revelan que el nuevo modelo OCR específico de Mistral no cumple con sus afirmaciones promocionales. Los desarrolladores Willis y Doria destacan problemas al manejar diseños complejos y escritura manuscrita, incluyendo la repetición de nombres de ciudades, errores numéricos y alucinaciones. En contraste, Google Gemini 2.0 Flash Pro Experimental sobresale, procesando PDFs complejos que superan a Mistral, incluidos aquellos con contenido manuscrito. Su gran ventana de contexto es una ventaja clave. Si bien es prometedor, el OCR basado en LLM sufre problemas como la fabricación de información, la mala interpretación de instrucciones y la mala interpretación general de datos.

IA

Legion Health: Atención Psiquiátrica Impulsada por IA – ¡Estamos Contratando!

2025-03-11
Legion Health: Atención Psiquiátrica Impulsada por IA – ¡Estamos Contratando!

Legion Health, respaldada por YC, está contratando ingenieros de IA de alto nivel para construir un sistema de atención médica mental impulsado por IA. Centrándose en la eficiencia operativa en lugar de los diagnósticos de IA, están optimizando la telepsiquiatría mediante IA. Los ingenieros trabajarán en la optimización del flujo de trabajo de LLM, mejorando los modelos de IA para la programación, la evaluación de riesgos y la automatización del ciclo de ingresos, mejorando los bucles de retroalimentación e implementando el aprendizaje por refuerzo. Los candidatos ideales tienen más de 3 años de experiencia en ingeniería de IA/ML, sólidas habilidades en Python y ML (LLMs, NLP, PyTorch/TensorFlow) y un interés en la IA para la atención médica.

IA

Firefly: Retroalimentación de fitness en tiempo real con IA

2025-03-11

Firefly es una aplicación de entrenamiento única que ofrece retroalimentación de forma en tiempo real utilizando un rastreador de postura confiable y datos de entrenadores. A diferencia de las aplicaciones que solo sugieren rutinas, Firefly califica tu forma y proporciona correcciones instantáneas para cada repetición, asegurando la técnica correcta y la prevención de lesiones. Su velocidad y precisión superan a las de la competencia, utilizando datos de entrenadores propios en lugar de fuentes de terceros poco confiables. Firefly proporciona retroalimentación continua, ayudándote a mejorar incluso cuando cometes errores.

Decodificando la Actividad Cerebral del Lenguaje Humano con Whisper

2025-03-11
Decodificando la Actividad Cerebral del Lenguaje Humano con Whisper

Investigadores utilizaron el modelo Whisper para analizar señales de electrocorticografía (ECoG) y de habla de cuatro pacientes con epilepsia durante conversaciones naturales. Los resultados mostraron que las incrustaciones acústicas, del habla y del lenguaje de Whisper predijeron con precisión la actividad neuronal, especialmente durante la producción y comprensión del habla. Las incrustaciones del habla destacaron en áreas perceptivas y motoras, mientras que las incrustaciones del lenguaje tuvieron un mejor rendimiento en áreas del lenguaje de nivel superior. El estudio revela cómo la información del habla y el lenguaje se codifican en múltiples regiones cerebrales y cómo la información del habla influye en el procesamiento del lenguaje. También se descubrieron dinámicas temporales distintas del flujo de información durante la producción y comprensión del habla, y diferencias entre los modelos de aprendizaje profundo y los modelos simbólicos en la predicción de la actividad neuronal.

IA

Entorno de Aprendizaje Factorio: Un Nuevo Estándar para LLM

2025-03-11

Los Grandes Modelos de Lenguaje (LLM) están rápidamente saturando los puntos de referencia existentes, lo que requiere nuevas evaluaciones abiertas. Presentamos el Entorno de Aprendizaje Factorio (FLE), basado en el juego Factorio, que prueba a los agentes en planificación a largo plazo, síntesis de programas y optimización de recursos. El FLE ofrece desafíos abiertos y con escalado exponencial, desde la automatización básica hasta fábricas complejas que procesan millones de unidades de recursos por segundo. Ofrecemos dos configuraciones: un juego de laboratorio con 24 tareas estructuradas con recursos fijos y un juego abierto con la tarea ilimitada de construir la fábrica más grande desde cero en un mapa generado por procedimientos. Demostramos en ambas configuraciones que los modelos aún carecen de un razonamiento espacial sólido. En el juego de laboratorio, encontramos que los LLM exhiben habilidades prometedoras a corto plazo, pero no pueden operar eficazmente en entornos restringidos, lo que refleja las limitaciones en el análisis de errores. En el juego abierto, si bien los LLM descubren estrategias de automatización que mejoran el crecimiento (por ejemplo, perforación eléctrica), no logran alcanzar la automatización compleja (por ejemplo, fabricación de circuitos electrónicos).

IA

Desbloqueo de la Comprensión Semántica: Similitud de Coseno en IA

2025-03-10
Desbloqueo de la Comprensión Semántica: Similitud de Coseno en IA

Este artículo proporciona una explicación clara de la similitud de coseno y sus aplicaciones en IA, particularmente en la comprensión de las relaciones semánticas entre palabras. Comienza explicando los vectores, luego detalla el cálculo de la similitud de coseno con un ejemplo paso a paso. Se proporciona una implementación en TypeScript de la función de similitud de coseno, junto con una versión optimizada. El artículo luego explora casos de uso de aplicaciones web del mundo real, como recomendaciones de productos y búsqueda semántica, y muestra cómo utilizar los modelos de incrustación de OpenAI para mejorar la precisión. El artículo también destaca la implementación eficiente usando Math.hypot() y la importancia de precalcular las incrustaciones en entornos de producción.

¿Traerá la IA un 'Siglo XXI comprimido'? Las dudas de un investigador

2025-03-10

El autor cuestiona la idea de que la IA pronto traerá una ola rápida de avances científicos. Basándose en su experiencia personal y en ejemplos de genios científicos históricos, argumenta que el verdadero progreso científico no proviene del dominio del conocimiento existente, sino del cuestionamiento de las creencias establecidas y de la formulación de preguntas disruptivas. Los modelos de IA actuales sobresalen en 'rellenar los huecos' en lugar de generar ideas originales. El autor sugiere que se necesitan nuevas métricas de evaluación para medir la capacidad de la IA para formular preguntas desafiadoras e impulsar cambios de paradigma, en lugar de simplemente centrarse en su precisión para responder a preguntas conocidas.

LLM y humanos muestran sesgo: un experimento de clasificación de atractivo de voz TTS

2025-03-10

El año pasado, el autor usó LLM para clasificar usuarios de Hacker News y descubrió un sesgo donde los modelos siempre favorecían al primer usuario mencionado en el prompt. Este año, un nuevo experimento clasificando el atractivo de la voz TTS reveló un sesgo similar en participantes humanos, que favorecían las voces presentadas en el lado derecho de la pantalla. Esto refuerza los hallazgos anteriores del autor y destaca la importancia del tamaño de la muestra y la aleatoriedad al usar juicios de IA y humanos para mitigar sesgos.

Chatbot Graph RAG en el navegador usando Kuzu-Wasm y WebLLM

2025-03-10
Chatbot Graph RAG en el navegador usando Kuzu-Wasm y WebLLM

Esta publicación de blog muestra un chatbot completamente en el navegador construido con Kuzu-Wasm y WebLLM, utilizando la técnica de Generación Aumentada por Recuperación de Grafos (Graph RAG) para responder preguntas en lenguaje natural sobre datos de LinkedIn. La aplicación utiliza los beneficios de WebAssembly, permitiendo el procesamiento local de datos para una mayor privacidad y una implementación simplificada. Se detallan la arquitectura, la implementación, la ingestión de datos, las indicaciones de WebLLM y las observaciones de rendimiento. Si bien existen limitaciones actuales, como el tamaño del modelo y la velocidad, los avances en WebAssembly y la aparición de LLMs más pequeños y mejores sugieren un futuro brillante para este tipo de canalizaciones avanzadas que se ejecutan completamente en el navegador.

RTX 5090: Resultados iniciales de benchmark de IA con Llama.cpp

2025-03-10

Tras las pruebas de benchmark de CUDA, OpenCL y OptiX de la RTX 5090, el interés de los lectores llevó a una investigación sobre su rendimiento en IA, específicamente con Llama.cpp. Los benchmarks iniciales que comparan la RTX 5090, las tarjetas de la serie RTX 40 y RTX 30 usando Llama.cpp (con los modelos Llama 3.1 y Mistral 7B) muestran ganancias significativas de rendimiento para la RTX 5090 en la generación de texto y el procesamiento de prompts. Se realizarán más benchmarks exhaustivos posteriormente, en función del interés de los lectores.

¿El fin del ciclo de exageraciones de los LLM?

2025-03-10
¿El fin del ciclo de exageraciones de los LLM?

Este artículo presenta una perspectiva cautelosamente optimista sobre el progreso actual de los Modelos de Lenguaje Grandes (LLM). El autor argumenta que, si bien los LLM sobresalen en tareas específicas, la trayectoria tecnológica actual es improbable que conduzca a la Inteligencia Artificial General (AGI). Las mejoras son más incrementales, manifestándose en mejoras sutiles y mejoras en los puntos de referencia en lugar de saltos fundamentales en la capacidad. El autor predice que, en los próximos años, los LLM se convertirán en herramientas útiles, pero no conducirán a la AGI ni a la automatización generalizada. Los avances futuros pueden requerir enfoques totalmente nuevos.

IA

Autoencoders Variacionales con Pérdida: Cuando las RNN ignoran las variables latentes

2025-03-09
Autoencoders Variacionales con Pérdida: Cuando las RNN ignoran las variables latentes

Este artículo aborda el desafío de combinar Redes Neuronales Recurrentes (RNN) con Autoencoders Variacionales (VAEs). Mientras que los VAEs usan variables latentes para aprender representaciones de datos, las RNN como decodificadores a menudo ignoran estas variables latentes, aprendiendo directamente la distribución de datos. Los autores proponen Autoencoders Variacionales con Pérdida (VLAEs), que restringen el acceso de la RNN a la información, forzándola a utilizar variables latentes para codificar la estructura global. Los experimentos demuestran que los VLAEs aprenden representaciones latentes comprimidas y semánticamente ricas.

Marco de Agentes en Evolución: Ecosistemas de Agentes de IA Colaborativos

2025-03-09
Marco de Agentes en Evolución: Ecosistemas de Agentes de IA Colaborativos

El Marco de Agentes en Evolución es un sistema de producción para construir, gestionar y evolucionar agentes de IA con comunicación inteligente. Permite ecosistemas colaborativos de agentes que comprenden semánticamente los requisitos, aprenden de la experiencia y se comunican eficazmente para resolver tareas complejas. Las características principales incluyen la evolución del agente (reutilización, adaptación o creación), la comunicación entre agentes a través de un sistema de flujo de trabajo YAML, una biblioteca inteligente con búsqueda semántica alimentada por incrustaciones de OpenAI, la automejora a través del aprendizaje continuo y el soporte multi-framework (BeeAI, OpenAI, etc.). El marco utiliza un agente de sistema para decidir si debe reutilizar, evolucionar o crear nuevos agentes en función de la similitud semántica e incluye la gobernanza a través del firmware. Un ejemplo completo demuestra la colaboración y la evolución del agente para tareas como el análisis de facturas.

IA Marco

IA: Expectación vs. Realidad – Un Cambio Tecnológico, No un Escenario Skynet

2025-03-08
IA: Expectación vs. Realidad – Un Cambio Tecnológico, No un Escenario Skynet

El rápido avance de la IA ha generado preocupaciones generalizadas sobre el desplazamiento de empleos e incluso amenazas existenciales. Este artículo argumenta que la IA, en esencia, es un motor de reconocimiento de patrones, aprendiendo distribuciones de probabilidad a partir de datos para hacer predicciones, no pensando realmente. Si bien la IA obtiene resultados impresionantes en la generación de imágenes y la creación de texto, aún existen limitaciones, incluyendo alucinaciones y la falta de razonamiento lógico genuino. El autor traza paralelismos con cambios tecnológicos pasados, destacando la capacidad de adaptación de la humanidad. La IA automatizará tareas, pero también creará nuevas oportunidades, instando a una adopción proactiva del cambio y la redirección de la energía humana hacia esfuerzos más significativos.

IA descifra escritura cuneiforme de 3000 años, revolucionando estudios antiguos

2025-03-08
IA descifra escritura cuneiforme de 3000 años, revolucionando estudios antiguos

Investigadores de las universidades Cornell y Tel Aviv han desarrollado ProtoSnap, un sistema de IA que identifica y copia automáticamente caracteres cuneiformes de tablillas de 3000 años de antigüedad. Utilizando un modelo de difusión, ProtoSnap compara la similitud de píxeles entre una imagen de un carácter y un prototipo, recreando con precisión caracteres a pesar de las variaciones en los estilos de escritura y la edad. Esto acelera drásticamente la traducción e investigación cuneiforme, proporcionando conjuntos de datos masivos para el estudio de sociedades antiguas y ofreciendo nuevas perspectivas sobre su religión, economía, estructuras sociales y sistemas legales.

IA

Reflection AI: 130 millones de dólares en financiación para superinteligencia

2025-03-08
Reflection AI: 130 millones de dólares en financiación para superinteligencia

Reflection AI, una startup fundada por ex investigadores de Google DeepMind, ha obtenido 130 millones de dólares en financiación inicial (Seed y Serie A), alcanzando una valoración de 555 millones de dólares. Su ambicioso objetivo es crear una 'superinteligencia', una IA capaz de gestionar la mayoría de las tareas relacionadas con la informática. Su enfoque inicial es una herramienta de programación autónoma que utiliza modelos de lenguaje grandes (LLM) y aprendizaje por refuerzo, explorando arquitecturas novedosas más allá de los transformadores para aumentar la eficiencia. Esta herramienta automatizará tareas como el análisis de vulnerabilidades, la optimización de la memoria y las pruebas de fiabilidad, con el objetivo final de gestionar cargas de trabajo extensas de forma autónoma.

IA

Red de desinformación rusa infiltra chatbots de IA occidentales

2025-03-07
Red de desinformación rusa infiltra chatbots de IA occidentales

Una red de desinformación con sede en Moscú llamada "Pravda" (verdad en ruso) se está infiltrando en los datos de los chatbots de IA, inyectando afirmaciones falsas y propaganda para manipular sus respuestas a las noticias. Al inundar los resultados de búsqueda con falsedades pro-Kremlin, la red distorsiona cómo los modelos de lenguaje grandes procesan la información. Esto resultó en millones de artículos de propaganda rusa incorporados a los sistemas de IA occidentales, infectando sus salidas. Una auditoría de NewsGuard en 10 chatbots de IA líderes reveló que repitieron narrativas falsas de la red Pravda el 33% del tiempo. La red no crea contenido original, sino que actúa como una máquina de lavado de dinero para la propaganda del Kremlin, agregándola en varios sitios web aparentemente independientes. Esta operación a gran escala destaca la vulnerabilidad de los modelos de IA a las campañas de desinformación.

Reflection AI: Construyendo Superinteligencia a través de la Codificación Autónoma

2025-03-07
Reflection AI: Construyendo Superinteligencia a través de la Codificación Autónoma

Reflection AI está construyendo sistemas autónomos superinteligentes. Los miembros del equipo fueron esenciales en proyectos como AlphaGo y han encabezado avances en el aprendizaje por refuerzo y los modelos de lenguaje grandes. Creen que la codificación autónoma es la clave para una superinteligencia más amplia, planeando primero construir un sistema de codificación autónomo superinteligente y luego expandir ese plano a todas las demás tareas basadas en computadora. La empresa enfatiza la aplicación en el mundo real, iterando con la retroalimentación del usuario para garantizar que los sistemas satisfagan las necesidades del mundo real de manera confiable y den forma responsablemente al futuro de la IA.

Molécula natural rivaliza con Ozempic en la pérdida de peso, sin efectos secundarios

2025-03-07
Molécula natural rivaliza con Ozempic en la pérdida de peso, sin efectos secundarios

Investigadores de Stanford Medicine, utilizando un algoritmo de IA, han identificado una molécula natural, BRP, que rivaliza con la semaglutida (Ozempic) en la supresión del apetito y la reducción del peso corporal. Importantemente, las pruebas en animales mostraron que la BRP evita efectos secundarios como náuseas, estreñimiento y pérdida de masa muscular. La BRP actúa a través de una vía metabólica distinta, pero similar, dirigiéndose al hipotálamo para controlar el apetito. Se ha formado una empresa para lanzar ensayos clínicos en humanos. Este avance se basó en la IA para examinar miles de proteínas, ofreciendo una nueva y prometedora vía para el tratamiento de la obesidad.

Más Allá de los Modelos Autoregresivos: La Próxima Frontera de la IA

2025-03-07

La mayoría de los modelos de IA generativa actuales son autoregresivos, lo que significa que predicen el siguiente token, siendo la arquitectura Transformer la implementación dominante debido a su eficiencia computacional. Sin embargo, los modelos autoregresivos tienen limitaciones inherentes, como la falta de capacidad de planificación y razonamiento, la memoria a largo plazo limitada y la tendencia a "alucinar". El autor argumenta que el pensamiento humano no es puramente autoregresivo, abarcando el pensamiento no secuencial y la planificación. Para lograr una IA más cercana a la cognición humana, los investigadores están explorando paradigmas alternativos como JEPA y modelos de difusión, que generan contenido mediante el refinamiento iterativo o la eliminación de ruido, reflejando más fielmente los procesos de pensamiento humanos.

InstantStyle: Marco de Transferencia de Estilo con un Clic para la Generación de Imágenes de IA sin Esfuerzo

2025-03-07
InstantStyle: Marco de Transferencia de Estilo con un Clic para la Generación de Imágenes de IA sin Esfuerzo

InstantStyle es un framework simple pero potente para la transferencia de estilo de imagen, logrando un control preciso del estilo al separar inteligentemente la información de contenido y estilo de la imagen. Utiliza las características globales de CLIP y se centra en capas de atención específicas (up_blocks.0.attentions.1 y down_blocks.2.attentions.1) para manipular el estilo y el diseño. InstantStyle está integrado en herramientas populares como diffusers, admite modelos como SDXL y SD1.5, y ofrece demostraciones en línea y capacidades de generación de alta resolución, simplificando significativamente el flujo de trabajo y ofreciendo a los usuarios una experiencia conveniente para la generación de imágenes estilizadas.

Autómatas Celulares Lógicos Diferenciables: Del Juego de la Vida a la Generación de Patrones con Circuitos Recurrentes Aprendidos

2025-03-07

Este artículo presenta DiffLogic CA, una nueva arquitectura de autómatas celulares neuronales (ACN) que utiliza un estado celular totalmente discreto, actualizado mediante un circuito binario recurrente aprendido. Al reemplazar los componentes de red neuronal por Redes de Portas Lógicas Diferenciables Profundas, permite el entrenamiento diferenciable de puertas lógicas discretas. El éxito de la aplicación de puertas lógicas diferenciables a autómatas celulares se demuestra mediante la replicación del Juego de la Vida de Conway y la generación de patrones a través de dinámicas discretas aprendidas. Esto destaca el potencial de integrar la lógica discreta dentro de los ACN y demuestra que las redes de puertas lógicas diferenciables se pueden aprender eficazmente en arquitecturas recurrentes. Si bien es prometedor, el entrenamiento para formas más complejas sigue siendo un desafío, lo que sugiere trabajos futuros en arquitecturas jerárquicas y puertas especializadas para una mejor gestión del estado.

LLM de Difusión: Un cambio de paradigma en el modelado del lenguaje

2025-03-06

Inception Labs ha presentado un revolucionario Modelo de Lenguaje Grande de Difusión (dLLM) que desafía el enfoque autorregresivo tradicional. A diferencia de los modelos autorregresivos que predicen tokens secuencialmente, los dLLMs generan segmentos de texto simultáneamente, refinándolos iterativamente. Este método, exitoso en modelos de imagen y video, ahora supera a los LLM de tamaño similar en la generación de código, con una mejora de 5 a 10 veces en velocidad y eficiencia. La principal ventaja: reducción de alucinaciones. Los dLLMs generan y validan partes cruciales antes de continuar, crucial para aplicaciones que requieren precisión, como chatbots y agentes inteligentes. Este enfoque promete flujos de trabajo de agentes multietapa mejorados, previniendo bucles y mejorando la planificación, el razonamiento y la autocorrección.

IA

Modelo de Detección de Turno de Voz Abierto: Smart Turn

2025-03-06
Modelo de Detección de Turno de Voz Abierto: Smart Turn

El equipo de Pipecat ha lanzado Smart Turn, un modelo de detección de turno de voz de código abierto diseñado para mejorar los sistemas de IA de voz existentes basados en la detección de actividad de voz (VAD). Utilizando el Wav2Vec2-BERT de Meta AI como base, con una cabeza de clasificación simple de dos capas, el modelo actualmente admite inglés y se encuentra en una etapa inicial de prueba de concepto. Sin embargo, el equipo confía en que el rendimiento se puede mejorar rápidamente. Invitan a la comunidad a contribuir para mejorar el modelo y ampliar su soporte de idioma y capacidades.

IA

Koko: Organización sin fines de lucro de salud mental con tecnología de IA busca líder técnico

2025-03-06
Koko: Organización sin fines de lucro de salud mental con tecnología de IA busca líder técnico

Koko, una organización sin fines de lucro de tecnología para la salud mental fundada por antiguos ingenieros del MIT y Airbnb, está buscando un líder técnico. Están construyendo sistemas de IA escalables para brindar apoyo inmediato de salud mental en línea a los jóvenes, integrando sus intervenciones en plataformas como TikTok y Discord. Habiendo ayudado a más de 4 millones de jóvenes en 199 países, Koko enfatiza las decisiones de producto basadas en datos, las pruebas A/B y los estándares rigurosos de seguridad. Esta es una oportunidad para generar un impacto significativo utilizando la IA para el bien.

Modelos de razonamiento económicos superan a los gigantes: Conquistando rompecabezas lógicos con aprendizaje por refuerzo

2025-03-06
Modelos de razonamiento económicos superan a los gigantes: Conquistando rompecabezas lógicos con aprendizaje por refuerzo

Los investigadores utilizaron el aprendizaje por refuerzo para entrenar modelos de lenguaje de código abierto más pequeños y económicos que superaron a DeepSeek R1, OpenAI o1 y o3-mini, y casi igualaron a Anthropic Sonnet 3.7 en un juego de razonamiento complejo llamado "Pista temporal", siendo más de 100 veces más baratos en el tiempo de inferencia. Lo lograron mediante un diseño cuidadoso de las tareas, el ajuste de hiperparámetros y el uso del algoritmo de optimización de política relativa de grupo (GRPO) y la biblioteca torchtune. Esta investigación demuestra el potencial del aprendizaje por refuerzo para entrenar modelos abiertos de manera eficiente para tareas de deducción complejas, incluso con datos limitados, obteniendo ganancias significativas de rendimiento con tan solo 16 ejemplos de entrenamiento.

IA

Sesión de preguntas y respuestas con el experto en IA William J. Rapaport: El futuro de la IA y la Prueba de Turing

2025-03-06
Sesión de preguntas y respuestas con el experto en IA William J. Rapaport: El futuro de la IA y la Prueba de Turing

El 27 de marzo, tendremos una sesión de preguntas y respuestas con el profesor William J. Rapaport, un experto reconocido en IA de la Universidad de Buffalo, con nombramientos en Ciencias de la Computación, Ingeniería, Filosofia y Lingüística. El profesor Rapaport, autor del libro fundamental "Filosofía de la Ciencia de la Computación", y de varios artículos importantes, incluyendo trabajos recientes sobre el éxito de la IA y los Modelos de Lenguaje Amplios en relación con la Prueba de Turing, estará disponible para responder a sus preguntas. ¡Envíe sus preguntas a través de este formulario! Esta es una oportunidad única para interactuar directamente con un investigador líder en IA.

Mistral OCR: Una API de OCR revolucionaria que libera el poder de la información digitalizada

2025-03-06
Mistral OCR: Una API de OCR revolucionaria que libera el poder de la información digitalizada

Mistral OCR, una nueva API de Reconocimiento Óptico de Caracteres (OCR), establece un nuevo estándar en la comprensión de documentos. A diferencia de otras, comprende medios, texto, tablas y ecuaciones con una precisión y cognición sin precedentes. Tomando imágenes y PDF como entrada, extrae el contenido como texto e imágenes intercalados. Con un rendimiento de vanguardia en documentos complejos, soporte multilingüe y benchmarks de primer nivel, Mistral OCR es el modelo predeterminado para millones de usuarios en Le Chat. Ofrece funcionalidad de documento como indicador y salida estructurada (JSON), con auto-hospedaje selectivo para datos sensibles. La API está disponible en la Plateforme, con un precio de 1000 páginas por dólar (con inferencia por lotes que ofrece un valor aún mayor).

IA
1 2 30 31 32 34 36 37 38 39 40 41