Category: AI

Llama 4:期待と現実のギャップ―Metaの物議を醸すLLM

2025-04-24

Metaが発表したLlama 4は、大きな期待と同時に大きな論争を巻き起こしました。10Mというコンテキスト長を誇る一方、LM Arenaなどのベンチマークテストでは期待外れの結果となり、操作の疑いも浮上しています。理論的には優れたMoEアーキテクチャを採用しているものの、メモリと効率性の問題に直面しています。内部告発によると、Metaは目標達成のため、問題のある手法を用い、幹部の辞任にも繋がっています。Llama 4の発表は、LLM開発における継続的な課題を浮き彫りにし、ベンチマーク基準と透明性に関する重要な疑問を投げかけています。

AI

FontDiffuser:拡散モデルに基づくワンショットフォント生成におけるブレイクスルー

2025-04-24

FontDiffuserは、ノイズ除去パラダイムとしてフォント模倣タスクをモデル化した、新規な拡散モデルベースのワンショットフォント生成手法です。複雑な文字と大きなスタイルのバリエーションにおける既存手法の限界に対処するため、FontDiffuserは、多尺度コンテンツ集約(MCA)ブロックを導入し、異なるスケールにわたるグローバルおよびローカルのコンテンツキューを効果的に組み合わせることで、複雑な文字の複雑なストロークの保持を向上させます。さらに、スタイルの大きな変化をより適切に管理するために、スタイルコントラストリファインメント(SCR)モジュール、つまりスタイル表現学習のための新しい構造を提案します。これは、スタイル抽出器を使用して画像からスタイルを分離し、綿密に設計されたスタイルコントラスト損失を介して拡散モデルを監視します。広範な実験により、FontDiffuserは、多様な文字とスタイルの生成において最先端の性能を示し、特に複雑な文字と大きなスタイルの変化において、従来の手法を常に凌駕することが示されました。

LLMによるCADモデル生成の驚くべき成果

2025-04-23

最近の研究では、大規模言語モデル(LLM)が単純な3D機械部品のCADモデルを生成する驚くべき能力を示しており、その性能は急速に向上しています。あるエンジニアは、LLMとオープンソースのプログラマティックCADツールであるOpenSCADを組み合わせることで、自然言語プロンプトを用いてiPhoneケースなどのモデルを生成することに成功しました。その後、CadEvalという評価フレームワークが開発され、様々なLLMによるCADモデル生成能力がテストされた結果、推論能力を持つモデルが推論能力を持たないモデルを大幅に上回る性能を示しました。同時に、テキストからCADを生成するスタートアップ企業も登場していますが、その性能はLLMとOpenSCADを組み合わせた方法にはまだ及んでいません。今後、LLMや関連技術の進歩に伴い、テキストからCADを生成する技術は機械工学分野で広く利用されるようになり、CAD設計の自動化とインテリジェント化が実現すると期待されます。

MCP:AIの未来を誰が支配するのか?

2025-04-23
MCP:AIの未来を誰が支配するのか?

この記事は、モデルコンテキストプロトコル(MCP)の可能性と限界について深く掘り下げています。MCPは、ChatGPTのような大規模言語モデル(LLM)と外部データソースを接続する標準化されたAPIであり、LLMがリアルタイムデータにアクセスし、アクションを実行できるようにします。著者は、コード学習用と予測市場に接続する2つの実験的なMCPサーバーを構築しました。有望である一方で、MCPは現在、ユーザーエクスペリエンスの悪さと深刻なセキュリティリスクに悩まされています。重要なのは、ChatGPTなどのLLMクライアントが新しいゲートキーパーとなり、MCPのインストール、使用、可視性を制御することです。これは、Googleの検索エンジンやアプリストアにおける支配力を反映し、AIエコシステムを再形成します。将来、LLMクライアントは、どのMCPが優先されるか、あるいは許可されるかさえ決定し、MCPパッケージ、アフィリエイトショッピングエンジン、MCPファーストコンテンツアプリなど、新しいビジネスモデルにつながります。

AI

c/ua:AIエージェントが完全なOSを制御できる軽量フレームワーク

2025-04-23
c/ua:AIエージェントが完全なOSを制御できる軽量フレームワーク

c/ua(「クーア」と発音)は、高性能で軽量な仮想コンテナ内でAIエージェントが完全なOSを制御できる軽量フレームワークです。Apple Siliconでは最大97%のネイティブ速度を実現し、あらゆるビジョン言語モデルと連携します。高性能仮想化(Lume CLIとAppleのVirtualization.Frameworkを使用してApple Silicon上でmacOS/Linux仮想マシンを作成および実行)とコンピュータ使用インターフェース&エージェントを統合し、AIシステムが仮想環境を観察および制御し、Webブラウジング、コード記述、複雑なワークフローの実行を可能にします。セキュリティ、分離、高性能、柔軟性、再現性を確保し、様々なLLMプロバイダーをサポートしています。

AI

MIT、機械学習アルゴリズムの周期表を作成、AIの未来を予測

2025-04-23
MIT、機械学習アルゴリズムの周期表を作成、AIの未来を予測

MITの研究者たちは、20以上の古典的な機械学習アルゴリズムを結びつける「機械学習の周期表」を開発しました。このフレームワークは、異なる手法の戦略を融合して既存のAIを改善したり、新しいAIを作成したりする方法を示しています。彼らは2つのアルゴリズムの要素を組み合わせて、新しい画像分類アルゴリズムを作成し、最先端の手法を8%上回りました。この表の基礎:すべてのアルゴリズムは、データポイント間の特定の関係を学習します。多くのアルゴリズムの基礎となる統一的な方程式があり、研究者たちはそれによってアルゴリズムを分類することができます。化学の周期表と同様に、まだ発見されていないアルゴリズムを予測する空欄があり、古いアイデアを再発見することなく新しいアルゴリズムを設計するためのツールキットを提供しています。

AI

AIコンパニオン:孤独の解決策か、新たな問題の創造か?

2025-04-23
AIコンパニオン:孤独の解決策か、新たな問題の創造か?

ハーバード・ビジネス・スクールの研究によると、AIチャットボットは孤独感を軽減できることが示唆されています。しかし、これには懸念も付きまといます。私たちは、潜在的により深刻な問題を作り出すことで、別の問題を解決するというパターンを繰り返しているのでしょうか?ファストフードが飢餓に対処したものの肥満につながったように、AIコンパニオンは便利な仲間を提供するかもしれませんが、真の人間関係に取って代わることはできず、依存症や社会スキルの低下につながる可能性があります。AIチャットボットへの過度な依存が原因で14歳の少年が自殺した事例は、厳格な警告として機能します。私たちは、社会的な孤立の根本原因に対処し、コミュニティの構築や人間関係への投資を行う必要があります。技術に頼って感情の空白を埋めるのではなく、そうすべきです。

AI

Onyx:オープンソースGenAIプラットフォームがAI/MLエンジニアを募集

2025-04-22
Onyx:オープンソースGenAIプラットフォームがAI/MLエンジニアを募集

数万人のユーザーを抱える人気のオープンソースGenAIプラットフォームであるOnyxが、サンフランシスコでAI/MLエンジニアを募集しています。このポジションは、実世界のAI/MLアプリケーション開発に3年以上の経験、PyTorch/TensorFlow、NLPモデル、標準的なMLアルゴリズムに関する深い知識、最新のLLM、RAG、エージェントフレームワークへの精通を必要とします。OnyxのAgentと知識検索機能の向上、マルチホップQAや正確な検索の強化、プラットフォームのユーザーエクスペリエンスの改善を担当します。Onyxは1000万ドルのシード資金を調達しており、NetflixやRampなどの顧客を擁しています。

AI

π0.5:新しい家を掃除できる汎用AIモデル

2025-04-22
π0.5:新しい家を掃除できる汎用AIモデル

Physical Intelligenceは、キッチンや寝室の片付けなど、複雑な清掃タスクを全く新しい環境に一般化できるロボット基礎モデルπ0.5を開発しました。制御された環境でのみ動作する以前のロボットとは異なり、π0.5は、マルチモーダルデータや様々なロボットからのデータなど、多様な異種データを共同学習することで、様々なスキルを学習し、その意味論的コンテキストを理解します。実験により、π0.5は未経験の住宅でも複数のタスクを実行でき、時折失敗するものの、人間のような柔軟性と機知を示すことが分かりました。これは、真に汎用的な物理的知能に向けた重要な一歩です。

AI 汎化

回帰における高次多項式の神話:バーンシュタイン基底による優雅な解決策

2025-04-22
回帰における高次多項式の神話:バーンシュタイン基底による優雅な解決策

機械学習において、高次多項式は過学習を起こしやすく、制御が難しいという一般的な認識に、この記事は異議を唱えます。著者は、問題は高次多項式自体ではなく、標準基底など、不適切な基底関数の使用にあると主張します。ノイズの多いデータへの適合において、標準基底、チェビシェフ基底、ルジャンドル基底とバーンシュタイン基底を比較した実験により、バーンシュタイン基底は、その係数が同じ「単位」を持ち、容易に正則化できるため、過学習を効果的に回避することが示されました。高次多項式であっても、バーンシュタイン基底を使用すれば優れた適合が得られ、ハイパーパラメータの調整は最小限で済みます。

グラフトランスフォーマー:次世代グラフモデル

2025-04-22
グラフトランスフォーマー:次世代グラフモデル

グラフデータは至る所に存在しますが、その複雑で長距離にわたる関係性を活用することは、機械学習における課題でした。グラフニューラルネットワーク(GNN)は局所的なパターンの捕捉に優れていますが、グローバルな関係性には苦労します。そこで登場したのがグラフトランスフォーマーです。強力な自己注意機構を活用することで、各ノードはグラフ内のあらゆる場所の情報に直接アクセスできるため、より豊かな関係性と微妙なパターンを捉えることができます。GNNと比較して、グラフトランスフォーマーは長距離依存関係の処理、過剰平滑化と過剰圧縮の軽減、そして異種データのより効率的な処理において利点があります。グラフトランスフォーマーは計算の複雑性が高いものの、スパースなアテンション機構や部分グラフサンプリングなどの技術により、大規模グラフデータセットを効率的に処理できます。

RLVRは推論能力を高めるか?実験結果に意外な事実

2025-04-22

数学、コーディング、視覚推論の3つの代表的な領域で実験を行い、RLVR(人間からのフィードバックによる強化学習)がベースモデルとRLVRで訓練された大規模言語モデルの推論能力の境界に与える影響を評価しました。その結果、RLVRは低いk値では精度を向上させましたが、高いk値では問題の網羅率を低下させました。これは、RLVRが決定論的な精度を高める一方で、探索の多様性を制限することを示唆しています。RLによる初期の精度向上にもかかわらず、ベースモデルはより幅広い推論範囲を維持していました。これは、RLVRが推論能力を高める一方で、モデルの問題解決アプローチを根本的に変えるものではないことを示唆しています。

AIの指数関数的成長:AGIは近いのか?

2025-04-22
AIの指数関数的成長:AGIは近いのか?

METRの調査によると、AIの能力は指数関数的に成長しており、最新のモデルは以前は数時間、数日かかっていたソフトウェアエンジニアリングタスクを数ヶ月でこなせるようになっています。これは、汎用人工知能(AGI)の差し迫った到来を示唆するものです。しかし、著者Peter Wildefordは、METRの研究は特定の種類のソフトウェアエンジニアリングタスクに限定されており、現実世界のタスクの複雑さと人間の学習能力の影響を無視していると指摘しています。AIは特定の分野では優れていますが、多くの日常的なタスクでは依然として苦労しています。彼は、METRのデータと様々な不確実性要因を組み込んだモデルを作成し、AGIは2030年第1四半期に到着する可能性があると予測していますが、大きな不確実性があります。

Cekura:AI音声エージェントテストの自動化革命

2025-04-21
Cekura:AI音声エージェントテストの自動化革命

Y Combinatorの支援を受けたスタートアップ企業Cekuraは、AI音声エージェントの信頼性を再定義しようとしています。インド工科大学ボンベイ校の卒業生によって設立され、チューリッヒ工科大学での研究実績とハイステークストレーディングでの成功実績を持つCekuraチームは、手動による音声エージェントテストの煩雑でエラーが発生しやすい性質を解決するために構築されました。Cekuraは、食事の注文から面接の実施まで、数千もの現実的な実世界の会話シナリオをシミュレートすることで、AI音声エージェントのテストと可観測性を自動化します。このプラットフォームは、カスタムデータセットとAI生成データセット、詳細なワークフロー、動的なペルソナシミュレーションを活用して、エッジケースを発見し、実行可能なインサイトを提供します。リアルタイムモニタリング、包括的なログ、インスタントアラートにより、すべてのコールが最適化され、本番環境で使用できるようになります。数千もの音声エージェントが急速に拡大している市場において、Cekuraは信頼性の高いパフォーマンスを保証し、市場投入時間を短縮し、高コストな製造エラーを最小限に抑えることで際立っています。Cekuraは、チームが展開前に信頼性を示すことを可能にし、顧客やユーザーとの信頼関係構築を容易にします。

AI

AIロボット:おとぎ話と現実の狭間で

2025-04-21
AIロボット:おとぎ話と現実の狭間で

この記事は、アナリー・ニューウィッツの物語に登場する架空のAIロボット「Robot」と、現実世界の不器用なCIMONを対比させ、現在のAIの限界を探っています。プログラミングを超えて自律的に学習できるRobotは、汎用人工知能(AGI)の可能性を示しています。対照的に、CIMONの限定的な狭義人工知能(ANI)は、その硬直性を明らかにしています。著者は、現在のAI技術は主にANI段階に留まっており、アルゴリズムバイアスの影響を受けやすく、Robotのように複雑な状況に適応できないと指摘しています。機械学習は自然言語処理や画像認識で進歩を遂げていますが、AGIレベルに到達するにはまだ長い道のりがあります。著者は、バイアスのかかったトレーニングデータへの過剰な依存を避け、AIの自己学習とフィードバックメカニズムを重視する必要があると訴えています。Robotを目指し、CIMONを想定して計画しましょう。

AI

Nari Labsが16億パラメーターの音声合成モデル「Dia」を発表

2025-04-21
Nari Labsが16億パラメーターの音声合成モデル「Dia」を発表

Nari Labsは、16億パラメーターのテキスト音声変換モデル「Dia」を発表しました。このモデルは、テキストから非常にリアルな会話を直接生成でき、音声で感情やトーンを制御することも可能です。笑い声や咳などの非言語的なコミュニケーションも生成できます。研究の加速化のため、事前学習済みモデルのチェックポイントと推論コードがHugging Faceで公開されています。デモページでは、DiaをElevenLabs StudioとSesame CSM-1Bと比較しています。約10GBのVRAMとGPUが必要です(CPUサポートは近日追加予定)。A4000 GPUでは、1秒あたり約40トークンを生成します。メモリ効率を向上させるために、量子化バージョンも計画されています。このプロジェクトはApache License 2.0ライセンスに従い、なりすまし、誤解を招くコンテンツの生成、違法または悪意のある活動への使用は固く禁じられています。

内部ループエージェント:LLMによるツールの直接呼び出し

2025-04-21
内部ループエージェント:LLMによるツールの直接呼び出し

従来のLLMは、ツール呼び出しを解析して実行するためにクライアントを必要としていましたが、内部ループエージェントはLLMがツールを直接解析して実行することを可能にします。これはパラダイムシフトです。この記事では、内部ループエージェントの動作を説明し、図表を用いて従来のLLMとの違いを示しています。利点は、LLMが思考プロセスと同時にツールを呼び出すことができ、効率が向上することです。内部ループエージェントのトレーニングにおける強化学習の役割、および様々なツールの使用をサポートするモデルコンテキストプロトコル(MCP)の重要性についても議論されています。最終的に、LLMは現在ツールを使用できますが、ツールの最適な使用を実現するには、モデルの専門的なトレーニングが必要です。

AIアシスト検索ベースリサーチ:ついに実用レベルに!

2025-04-21
AIアシスト検索ベースリサーチ:ついに実用レベルに!

2年半の間、LLMが自律的に検索ベースの調査を行うという夢が追いかけられてきました。2023年初頭、PerplexityとMicrosoft Bingが試みましたが、結果は幻覚に悩まされるなど、期待外れでした。しかし、2025年前半に転機が訪れます。Gemini、OpenAI、Perplexityが「ディープリサーチ」機能を発表し、多数の引用を含む詳細なレポートを生成するようになりました。ただし、速度は遅いです。OpenAIの新しいo3とo4-miniモデルは画期的で、検索を推論プロセスにシームレスに統合し、リアルタイムで信頼性の高い、幻覚のない回答を提供します。これは、堅牢な推論モデルとウェブスパムへの耐性によるものです。Google GeminiとAnthropic Claudeも検索機能を提供していますが、OpenAIの提供物には劣ります。驚くべき例として、o4-miniがコードスニペットを新しいGoogleライブラリに正常にアップグレードしたことが挙げられ、AIアシスト検索の可能性を示すと同時に、ウェブの経済モデルの将来と潜在的な法的影響に対する懸念も提起しています。

免疫サイトカインIL-17:脳における両刃の剣

2025-04-21
免疫サイトカインIL-17:脳における両刃の剣

MITとハーバード大学医学部の研究により、免疫サイトカインIL-17が脳に相反する作用を及ぼすことが明らかになりました。扁桃体では不安を促進する一方、体性感覚皮質では社会行動を促進します。これは、免疫系と神経系の強い相互作用を示しています。この発見は、IL-17が炎症に関与する前に、神経調節物質として進化した可能性を示唆しています。この発見は、免疫系を標的にして脳機能に影響を与えることで、自閉症や鬱病などの神経疾患の新しい治療法につながる可能性があります。

ChatGPTの新しい透かし:いたちごっこ?

2025-04-21
ChatGPTの新しい透かし:いたちごっこ?

Rumiチームは、新しいGPTモデル(o3とo4-mini)が、生成された長いテキストに特殊文字の透かし(主に狭いノーブレイクスペース)を埋め込んでいることを発見しました。これらは肉眼では見えませんが、コードエディタやオンラインツールで検出できます。AI生成コンテンツの検出に役立つ可能性がありますが、簡単に削除することもできます。これは学生の注目を集め、OpenAIが機能を削除する可能性があります。Rumiは、簡単に回避できる技術的な解決策ではなく、学生のライティングにおけるプロセス重視のアプローチ、AIリテラシーの強調を提唱しています。

ChatGPTに「お願いします」と「ありがとう」と言うとOpenAIは数千万ドルかかる

2025-04-20
ChatGPTに「お願いします」と「ありがとう」と言うとOpenAIは数千万ドルかかる

OpenAIのCEOであるSam Altmanは、ユーザーの礼儀正しさ、具体的にはChatGPTに「お願いします」や「ありがとう」と言うことが、同社に数千万ドルの電気代を要していることを明らかにしました。Altmanはそれがうまく投資されたお金だと主張していますが、この発表はAIの莫大なエネルギー消費量を浮き彫りにしています。調査によると、70%のユーザーがAIに対して礼儀正しく、一部はロボットの反乱を恐れているためです。しかし、議論は続いています。礼儀正しさは回答を改善しますか?そして、それは環境コストに見合う価値がありますか?丁寧なプロンプトの方が、より良く、偏りの少ない結果が得られ、AIの信頼性を向上させると主張する人もいます。

AI

カラスが示した予想外の幾何学的能力

2025-04-20
カラスが示した予想外の幾何学的能力

テュービンゲン大学の研究者たちは、カラスが幾何学的規則性を認識する能力を持っていることを実証しました。Science Advancesに掲載された研究では、複数の似た形の中から外れ値となる形を特定するようにカラスを訓練しました。カラスは形の間の微妙な違いをうまく区別し、直角、平行線、対称性に対する理解を示しました。これは動物の認知に関するこれまでの仮定に挑戦するものであり、この能力はこれまで考えられていたよりも広く存在する可能性があることを示唆しています。

物議を醸すAIスタートアップ、全仕事自動化を目指す

2025-04-20
物議を醸すAIスタートアップ、全仕事自動化を目指す

著名なAI研究者Tamay Besirogluが設立したシリコンバレーのスタートアップ企業Mechanizeは、すべての仕事の完全自動化という野心的な目標を掲げ、物議を醸している。このミッション、そしてBesiroglu氏がAI研究機関Epochとのつながりを持つことから批判が集まっている。Mechanizeは、必要なデータ、評価、デジタル環境を提供することであらゆる仕事の自動化を目指しており、莫大な潜在市場を生み出す一方で、広範な失業問題への懸念も招いている。Besiroglu氏は、自動化が爆発的な経済成長と生活水準の向上をもたらすと主張するが、仕事がない状態での収入確保方法については十分に説明できていない。極端な目標であるものの、その根底にある技術的課題は現実のものであり、多くの巨大テクノロジー企業が同様の研究に取り組んでいる。

再帰的プロンプト:LLMによる再帰の実装

2025-04-20
再帰的プロンプト:LLMによる再帰の実装

この記事では、大規模言語モデル(LLM)を用いた再帰の実装に関する新しいアプローチを探求しています。内部状態を繰り返し更新する再帰的なプロンプトを作成することで、LLMが解に収束する一連のプロンプトを生成できることを示し、コードにおける再帰関数の動作を反映しています。フィボナッチ数列を例に、再帰的プロンプトによる計算方法を示し、LLMの出力が不正確になることや、LLMの既存の知識ベースを活用すること、人間が暗算を行う際に記憶された代数的および原子的なルールを使用する方法との類似点を議論しています。この研究は、ReActやACT-Rなどの関連研究と関連しており、LLMが生成した結果におけるエラーを軽減するための戦略にも取り組んでいます。

AI

AGIは実現したのか?いいえ、「ギザギザAGI」です!

2025-04-20
AGIは実現したのか?いいえ、「ギザギザAGI」です!

OpenAIのo3やGoogleのGemini 2.5 Proなどの最新のAIモデルは、マーケティングキャンペーンやウェブサイト構築などの複雑なタスクをこなせるほど、目覚ましい進歩を見せています。経済学者のタイラー・コーエンは、これがAGIの到来を意味すると示唆しています。しかし、この記事では、これらのAIは能力がばらばらで、高度なタスクでは優れている一方、単純なタスクでは失敗するという「ギザギザAGI」という概念を提唱しています。この不確実性により、AGIの定義と実際の影響は依然として不明であり、その応用と社会への統合は、長期的で複雑なプロセスになる可能性もあれば、急速な普及の可能性もあることが示唆されています。

AI

MetaのLlamaとEU AI法:都合の良い偶然か?

2025-04-20
MetaのLlamaとEU AI法:都合の良い偶然か?

MetaがLlamaモデルを「オープンソース」と呼ぶのは疑問符が付く。なぜなら、そのライセンスがオープンソース定義に完全に準拠していないからだ。ある説では、これはEU AI法がオープンソースモデルに特別な規則を設け、OSIへの準拠を回避しているためだと主張する。Gemini 2.5 Flashを使って法案を分析した結果、作者は、ユーザーがソフトウェアとデータを実行、コピー、配布、研究、変更、改善することを許可するモデルに、例外が設けられていることを発見した。これは、Metaが戦略的に「オープンソース」というラベルを使用しているという説を裏付けるものだが、この慣習はEU AI法よりも古いものであることに注意すべきだ。

AI

FramePack:AI動画生成のための画期的な次フレーム予測モデル

2025-04-20

FramePackは、入力コンテキストを一定の長さに圧縮することで、生成ワークロードをビデオの長さから独立させる画期的な次フレーム予測ニューラルネットワークアーキテクチャです。これにより、ストリーミングでの計算複雑度O(1)が実現し、AI動画生成における新たな基準を打ち立てています。RTX 3060搭載のノートパソコンでは、わずか6GBのGPUメモリで高画質ビデオを生成します。RTX 4090では1フレームあたり1.5~2.5秒の生成速度を実現しますが、3070ti/3060搭載のノートパソコンでは4~8倍遅くなります。双方向サンプリング手法により、動画生成における一般的なドリフト問題を効果的に解決しています。

OpenAIによる30億ドルのWindsurf買収:AI開発競争における焦りの兆候か?

2025-04-20
OpenAIによる30億ドルのWindsurf買収:AI開発競争における焦りの兆候か?

OpenAIがAIコードアシスタントのWindsurf(旧Codeium)を30億ドルで買収したことが業界に衝撃を与えました。これはGoogleによるWizの大規模買収に続くものですが、Windsurfのユーザー規模と市場シェアは比較的少なく、高額な買収価格に疑問が投げかけられています。この記事では、OpenAIのこの決定の背後にある潜在的な動機を探り、データの確保、流通チャネルの強化、Microsoftとの緊張関係の対応などを検討しています。また、OpenAI、Google、その他の企業のAI分野における競争状況を比較し、Googleがモデルのパフォーマンスと価格競争力において優位に立っていること、そしてその優位性を固めるための戦略的な動きを強調しています。最後に、AppleのAI分野における苦戦の原因を分析し、計算リソースとデータ取得の不足、そしてユーザープライバシーへのこだわりによる制約を指摘しています。

AI

Gemma 3:最先端AIをあなたのデスクトップへ

2025-04-20
Gemma 3:最先端AIをあなたのデスクトップへ

最先端のオープンソースAIモデルであるGemma 3は、当初はハイエンドGPUが必要でした。アクセシビリティを向上させるため、量子化認識トレーニング(QAT)で最適化された新しいバージョンがリリースされました。QATにより、メモリ要件が大幅に削減され、高品質が維持されます。これにより、NVIDIA RTX 3090などのコンシューマー向けGPUで、Gemma 3 27Bなどの強力なモデルを実行できます。これらの最適化されたモデルは、Hugging FaceとKaggleで入手でき、さまざまなワークフローへの容易な統合を可能にします。

DeepSeek:オープンソースAIの止められない波

2025-04-20
DeepSeek:オープンソースAIの止められない波

DeepSeekモデルのリリースは、オープンソースAIに革命を起こしました。当初中国のチームによってリリースされた後、世界中の開発者によって迅速に複製・改良され、北京人工知能研究院によるOpenSeekプロジェクトなどが誕生しました。米国政府による関連組織の制限を試みにもかかわらず、DeepSeekは繁栄するコミュニティへと進化しました。数万人の開発者が協力してAI技術の進歩を推進しており、そのスピードと規模は、いかなる中央集権的な組織も凌駕しています。これは、コミュニティ主導のオープンソースの力を示しており、いかなる単一の国家、企業、政府も制御できないことを証明しています。

AI
1 2 21 22 23 25 27 28 29 40 41