Apple Presenta Nuevos Modelos de Lenguaje Base Multilingües y Multimodales
Apple presentó dos nuevos modelos de lenguaje base multilingües y multimodales que impulsan las funciones de inteligencia en sus dispositivos y servidores. Un modelo para dispositivos con aproximadamente 3 mil millones de parámetros, optimizado para silicio Apple, y un modelo de servidor escalable construido en un nuevo transformador Parallel-Track Mixture-of-Experts (PT-MoE). Ambos fueron entrenados en conjuntos de datos multilingües y multimodales masivos, refinados con ajuste fino supervisado y aprendizaje por refuerzo. Admiten más idiomas, comprensión de imágenes y llamadas a herramientas, igualando o superando modelos de código abierto comparables. Un nuevo framework centrado en Swift simplifica la integración para los desarrolladores.