L'approche d'Apple pour l'amélioration de l'IA tout en préservant la vie privée

2025-04-14
L'approche d'Apple pour l'amélioration de l'IA tout en préservant la vie privée

Apple s'engage pour la confidentialité des utilisateurs, même lorsqu'elle améliore ses fonctionnalités d'IA telles que Genmoji, les outils de génération d'images et les outils d'écriture. Elle utilise la confidentialité différentielle, en anonymisant les données des utilisateurs pour ne collecter que des informations de tendance agrégées, telles que les invites populaires de Genmoji. Pour les fonctionnalités d'IA traitant des textes plus longs, comme les e-mails, Apple utilise des données synthétiques. Cela génère des données synthétiques imitant les schémas de données réelles des utilisateurs pour l'entraînement et les tests de modèles sans accéder au contenu réel des e-mails. Cela permet à Apple d'améliorer les expériences produit tout en garantissant que la confidentialité des utilisateurs reste primordiale.

Lire plus

La nouvelle percée d'Apple en IA : contrôle précis des modèles génératifs avec le transport d'activation (AcT)

2025-04-10
La nouvelle percée d'Apple en IA : contrôle précis des modèles génératifs avec le transport d'activation (AcT)

Des chercheurs en apprentissage automatique d'Apple ont développé le Transport d'activation (AcT), une nouvelle technique offrant un contrôle précis des grands modèles génératifs, notamment les LLM et les modèles de diffusion texte-image, sans l'entraînement coûteux du RLHF ou de l'ajustement fin. L'AcT dirige les activations du modèle à l'aide de la théorie du transport optimal, obtenant un contrôle agnostique de la modalité avec une surcharge de calcul minimale. Les expériences montrent des améliorations significatives de la mitigation de la toxicité, de l'induction de la véracité dans les LLM et du contrôle du style dans la génération d'images. L'AcT ouvre la voie à des modèles génératifs plus sûrs et plus fiables.

Lire plus

SeedLM : Une nouvelle méthode de compression des poids LLM utilisant des générateurs de nombres pseudo-aléatoires

2025-04-06
SeedLM : Une nouvelle méthode de compression des poids LLM utilisant des générateurs de nombres pseudo-aléatoires

Les grands modèles de langage (LLM) sont entravés par des coûts d'exécution élevés, limitant leur déploiement généralisé. Des chercheurs de Meta présentent SeedLM, une nouvelle méthode de compression post-entraînement utilisant des graines d'un générateur de nombres pseudo-aléatoires pour coder et compresser les poids des modèles. Pendant l'inférence, SeedLM utilise un registre à décalage à rétroaction linéaire (LFSR) pour générer efficacement une matrice aléatoire, combinée linéairement avec des coefficients compressés pour reconstruire des blocs de poids. Cela réduit l'accès à la mémoire et exploite les cycles de calcul inactifs, accélérant les tâches liées à la mémoire en échangeant du calcul contre moins d'accès à la mémoire. Contrairement aux méthodes de pointe qui nécessitent des données d'étalonnage, SeedLM est sans données et se généralise bien à diverses tâches. Des expériences sur le modèle Llama 3 70B, particulièrement difficile, montrent une précision zéro-shot à 4 et 3 bits de compression égale ou supérieure aux méthodes de pointe, tout en maintenant des performances comparables aux références FP16. Des tests FPGA montrent que SeedLM à 4 bits approche une accélération de 4x par rapport à une référence FP16 Llama 2/3 lorsque la taille du modèle augmente.

Lire plus
IA