Softmax:永遠に?対数調和関数の深堀り

2025-02-20

10年前、NLPの講義中に、受講生からSoftmaxの代替案について質問されました。最近の論文で、対数調和関数がSoftmaxの代替案として提案されており、より深い調査へと繋がりました。著者はSoftmaxと対数調和関数の偏微分を分析し、Softmaxの勾配は扱いやすく解釈しやすい一方、対数調和関数の勾配は原点付近で特異性を示し、学習が困難になる可能性があることを明らかにしました。強力な最適化アルゴリズムによってこれらの課題を克服できる可能性はありますが、著者は対数調和関数のアプローチはさらなる探求と改善の余地があると考えています。

続きを読む

NeurIPS'24:AI人材市場の不安と変化

2024-12-24

NeurIPS'24会議で、多くの博士課程修了間近の学生とポスドクが、AIの就職市場に対する不安とフラストレーションを表明しました。これは、過去10年間の深層学習の急速な発展に由来します。大企業はAI博士号取得者を積極的に採用し、高給と研究の自由を提供していました。しかし、大規模言語モデルなどの技術の成熟と製品化に伴い、博士号取得者への需要は減少し、大学では学部生や修士課程の学生に関連スキルを教育し始めました。この変化により、多くの博士課程の学生は取り残されたと感じ、研究テーマが市場のニーズと合致せず、将来のキャリアに不確実性を感じています。著者はこの状況を理解し、謝罪の意を表し、大規模言語モデル以外にもAIには多くの重要な研究分野があると指摘しています。

続きを読む