GoogleのGemma:軽量なマルチモーダルモデルファミリー

2025-03-12
GoogleのGemma:軽量なマルチモーダルモデルファミリー

Googleは、Geminiテクノロジーを基盤とした軽量なマルチモーダルモデルファミリーであるGemmaを発表しました。Gemma 3モデルはテキストと画像を処理し、128Kのコンテキストウィンドウと140以上の言語をサポートしています。パラメータサイズは1B、4B、12B、27Bとあり、質問応答、要約、推論などのタスクで優れた性能を発揮します。コンパクトな設計により、リソースの限られたデバイスへの展開も可能です。ベンチマークの結果は、様々なタスク、特に多言語およびマルチモーダル機能において、高いパフォーマンスを示しています。

続きを読む

DeepSeek-R1:OpenAI-o1に匹敵する性能の推論モデルファミリー

2025-01-21
DeepSeek-R1:OpenAI-o1に匹敵する性能の推論モデルファミリー

DeepSeekは、OpenAI-o1に匹敵する性能を持つ最初の推論モデルファミリーであるDeepSeek-R1をリリースしました。このシリーズは、1.5Bから70Bパラメータまでの様々なサイズのモデルを含んでおり、Ollamaを使用して簡単に実行できます。DeepSeek-R1は、数学、コード、推論タスクで優れた性能を発揮し、AI分野における新たな競争力を生み出しています。

続きを読む
AI

マイクロソフト、140億パラメーターのオープンソース言語モデルPhi-4を発表

2025-01-12
マイクロソフト、140億パラメーターのオープンソース言語モデルPhi-4を発表

マイクロソフトは、140億パラメーターを持つ新しいオープンソース言語モデルPhi-4を発表しました。合成データ、フィルタリングされたパブリックドメインのウェブサイトデータ、学術書籍、Q&Aデータセットを組み合わせ、構築されています。Phi-4は厳格な強化と調整プロセスを経ており、正確な命令の遵守と堅牢な安全対策を保証しています。コンテキスト長は16kトークンで、メモリ/計算リソースが制限された環境、低レイテンシのシナリオ、推論と論理能力を必要とする汎用AIシステムおよびアプリケーション(主に英語)を対象としています。マイクロソフトは、開発者が言語モデルの一般的な制約を考慮し、特に高リスクのシナリオにおいて、精度、安全、公平性を評価し、軽減する必要があることを強調しています。

続きを読む
AI