Softmax : Pour toujours ? Une plongée profonde dans les fonctions log-harmoniques

2025-02-20

Il y a dix ans, lors d'un cours de PNL, l'auteur a été interrogé par un étudiant sur les alternatives au softmax. Un article récent propose une fonction log-harmonique en remplacement, ce qui a suscité une enquête plus approfondie. L'auteur analyse les dérivées partielles à la fois du softmax et de la fonction log-harmonique, révélant que le gradient du softmax est bien comporté et interprétable, tandis que le gradient de la fonction log-harmonique présente une singularité près de l'origine, ce qui pourrait causer des difficultés d'entraînement. Bien que des optimiseurs puissants puissent surmonter ces défis, l'auteur conclut que l'approche log-harmonique mérite encore une exploration supplémentaire et des améliorations possibles.

Lire plus

NeurIPS'24 : Anxiété et mutations sur le marché du travail de l'IA

2024-12-24

Lors de la conférence NeurIPS'24, de nombreux doctorants et post-doctorants sur le point de terminer leurs études ont exprimé leur anxiété et leur frustration concernant le marché du travail de l'IA. Cela découle du développement rapide de l'apprentissage profond au cours de la dernière décennie, où les grandes entreprises technologiques ont recruté activement des docteurs en IA, offrant des salaires lucratifs et une liberté de recherche. Cependant, avec la maturation et la production de technologies telles que les modèles de langage à grande échelle, la demande de docteurs a diminué, et les universités ont commencé à former des étudiants de licence et de master aux compétences pertinentes. Ce changement a laissé de nombreux doctorants se sentir à la traîne, leur orientation de recherche étant désynchronisée avec les demandes du marché, et leurs perspectives de carrière futures incertaines. L'auteur exprime sa compréhension et ses excuses, soulignant qu'il existe encore de nombreuses orientations de recherche importantes en IA, au-delà des modèles de langage à grande échelle.

Lire plus