Apple dévoile de nouveaux modèles linguistiques fondamentaux multilingues et multimodaux
Apple a présenté deux nouveaux modèles linguistiques fondamentaux multilingues et multimodaux qui alimentent les fonctionnalités d'intelligence sur ses appareils et serveurs. Un modèle embarqué d'environ 3 milliards de paramètres, optimisé pour la puce Apple Silicon, et un modèle serveur évolutif basé sur un nouveau transformateur Parallel-Track Mixture-of-Experts (PT-MoE). Les deux ont été entraînés sur des ensembles de données multilingues et multimodales massifs, affinés par apprentissage supervisé et par renforcement. Ils prennent en charge davantage de langues, la compréhension d'images et les appels d'outils, égalant ou surpassant les modèles open source comparables. Un nouveau framework centré sur Swift simplifie l'intégration pour les développeurs.