強化学習:2025年のエージェントAI台頭を支える力

2025-06-28
強化学習:2025年のエージェントAI台頭を支える力

2023年に登場したBabyAGIやAutoGPTなどのエージェントAIは、当初は注目を集めましたが、大規模言語モデル(LLM)が多段階推論に苦戦したため、失敗に終わりました。しかし、2024年半ば、状況は一変しました。強化学習の進歩により、複雑な多段階タスクを継続的に実行できる新世代のエージェントAIが登場しました。Bolt.newなどのコード生成ツールやAnthropicのClaude 3.5 Sonnetなどがその例です。強化学習は試行錯誤によるモデルのトレーニングを通じて、模倣学習に伴う累積誤差の問題を克服し、モデルが未知のデータに対しても堅牢性を維持できるようにします。OpenAIのRLHFやAnthropicのConstitutional AIなどの技術は、フィードバックの自動化により、強化学習の効率をさらに高めています。DeepSeekのR1モデルは、強化学習によってモデルが推論能力を「独習」する驚くべき可能性を示しました。要約すると、強化学習の進歩は、2025年のエージェントAIの急成長を支える重要な推進力となっています。

続きを読む
AI

MetaのLlama 3.1モデル、著作権のある書籍の大部分を記憶していることが判明

2025-06-15
MetaのLlama 3.1モデル、著作権のある書籍の大部分を記憶していることが判明

新たな研究によると、MetaのLlama 3.1 70B大規模言語モデルは、著作権のある書籍のかなりの部分を驚くほど記憶しており、「ハリー・ポッターと賢者の石」の42%を記憶していたことが判明しました。これは前身モデルであるLlama 1 65Bを大きく上回り、深刻な著作権上の懸念を引き起こしています。研究者らは、大量のテキストを生成するのではなく、特定のテキストシーケンスを生成する確率を計算することで、モデルの「記憶」を効率的に評価しました。この発見は、Metaに対する著作権訴訟に大きな影響を与える可能性があり、裁判所がAIモデルのトレーニングにおけるフェアユースの境界を再検討するきっかけとなるかもしれません。モデルはマイナーな書籍をあまり記憶していませんでしたが、人気のある書籍の過剰な記憶は、大規模言語モデルにおける著作権問題の課題を浮き彫りにしています。

続きを読む
AI

科学におけるAIブーム:物理学者の一つの幻滅

2025-05-20
科学におけるAIブーム:物理学者の一つの幻滅

プリンストン大学で物理学の博士号を取得したニック・マクグレイヴィーは、AIを物理学研究に応用した経験を共有しています。当初、AIが研究を加速させる可能性に楽観的でしたが、実際にはAI手法は宣伝されているほど効果的でなく、多くの論文がAIの利点を誇張し、データ漏洩などの問題を抱えていることが判明しました。彼は、科学におけるAIの急速な普及は、真の研究効率の向上ではなく、AIが科学者にもたらす高給や名声といったメリットによるものだと主張しています。彼は、より厳格なAI評価手法を要求し、AI研究における楽観的なバイアスに警鐘を鳴らしています。

続きを読む
AI

Waymo自動運転車の事故分析:真犯人は人間?

2025-03-26
Waymo自動運転車の事故分析:真犯人は人間?

この記事では、2024年7月から2025年2月までの間に発生したWaymo自動運転車による38件の重大な事故を分析しています。驚くべきことに、これらの事故の大部分はWaymo車両自体ではなく、スピード違反や赤信号無視など、他の車両の危険運転が原因でした。Waymoのデータによると、自動運転車の事故発生率は人間の運転手に比べてはるかに低くなっています。たとえすべての事故がWaymoの責任であったとしても、その安全記録は人間の運転手よりもはるかに優れています。人間の運転と比較して、Waymoは事故、特にけがにつながる事故の削減において大きな進歩を遂げています。

続きを読む
AI