Category: AI

認知の周期表:我々はAIのフロギストン時代にいるのか?

2025-09-24
認知の周期表:我々はAIのフロギストン時代にいるのか?

著者は、電気の発見初期と現在の人工知能への理解を比較し、我々の知能の理解は、初期の科学者たちの電気に関する誤解と同様に、根本的に間違っている、と主張しています。著者は、知能は単一の力ではなく、水素と酸素からなる水のような、複数の認知要素からなる複雑なシステムである可能性が高いと考えています。AIを用いて「認知の周期表」を作成しようとする試みは、知能の膨大な複雑さを明らかにし、現在、我々のAIの利用が理解を上回っていることを強調しています。これらの認知要素をさらに探求することは、AI開発の将来の軌跡を予測するために不可欠です。

(kk.org)
AI

Manus:効率的なAIエージェントのためのコンテキストエンジニアリング

2025-09-24
Manus:効率的なAIエージェントのためのコンテキストエンジニアリング

Manusプロジェクトチームは、AIエージェントの構築において、大規模モデルをゼロからトレーニングする代わりに、既存モデルのコンテキスト学習能力を活用することにしました。この記事では、4つの重要な学びをまとめます。1. プロンプトプレフィックスを安定させ、コンテキストに追加し、キャッシュブレークポイントを明示的にマークすることで、KVキャッシュのヒット率を最適化します。2. ツールをマスクし、削除しません。キャッシュの無効化とモデルの混乱を避けるために、ツールの可用性を動的に管理します。3. 永続的で無制限なコンテキストのために、ファイルシステムを外部メモリとして使用します。4. 目標を繰り返すことと、エラー情報を学習に保持することで、注意を操作します。これらの実践は、AIエージェントのパフォーマンスと安定性を大幅に向上させ、効率的なAIエージェントの構築のための貴重な洞察を提供します。

AI

生命とは計算の一形態か?

2025-09-24
生命とは計算の一形態か?

この記事は、生命と計算の深い繋がりを探求しています。アラン・チューリングとジョン・フォン・ノイマンの初期の洞察、つまり生命の論理とコードの論理は同一である可能性があるという考えに基づいて、フォン・ノイマンの自己複製セルオートマトンモデルを検証します。この記事では、DNAがプログラムである本質を説明し、生物学的計算とデジタル計算の類似点と相違点を比較検討します。生物学的計算は、大規模並列処理、分散型、ノイズが多いという特徴を持つ一方、デジタル計算は集中型で逐次的な命令実行に依存しています。最後に、この記事では、現代的なニューラルネットワーク、チューリングの形態形成、フォン・ノイマンのセルオートマトンを組み合わせたニューラルセルオートマトンを紹介し、細胞の挙動をシミュレートすることで、計算が様々なスケールで生命のような挙動を生み出す方法を示しています。

AI

AIクリーンアップクルーの台頭:AIの失敗を修復する人間たち

2025-09-24
AIクリーンアップクルーの台頭:AIの失敗を修復する人間たち

ChatGPTなどのAIツールの台頭により、低品質コンテンツ、いわゆる「AIスロップ」が増加しています。これは、様々なメディアにおいて、不正確で、独創性に欠け、非現実的なコンテンツが含まれます。皮肉なことに、AIが人間の仕事を奪う一方で、AIのミスを修正する「デジタル管理人」という新たな産業を生み出しています。これは、創造的な仕事におけるAIの限界と、品質と信頼性を確保するための不可欠な人間の役割を浮き彫りにしています。AIスロップの蔓延を防ぎ、より本物で持続可能なデジタル世界を構築するためには、AIと人間の創造性の関係性を再考する必要があります。

AIブームからマルコフ連鎖へ:基礎への回帰

2025-09-24
AIブームからマルコフ連鎖へ:基礎への回帰

著者は、大規模言語モデルに関するAIブームの4つの段階を振り返ります:最初の驚き、その後のフラストレーション、継続的な混乱、そして最終的な退屈。新しいモデルの絶え間ない流れに疲れた著者は、基礎に戻り、マルコフ連鎖を探求することを決めました。この記事では、マルコフ連鎖を使用してテキストの自動補完機能を構築する方法を詳細に説明し、遷移行列の構築、確率計算、テキスト生成への応用について解説しています。この記事は、マルコフ連鎖の原理を探求するだけでなく、AI開発の現状に対する著者の考察と、より基礎的な技術を探求したいという願望も反映しています。

AI

アリババ、Qwen3-Omniを発表:真のエンドツーエンドのマルチモーダル基盤モデル

2025-09-22
アリババ、Qwen3-Omniを発表:真のエンドツーエンドのマルチモーダル基盤モデル

アリババは、真のエンドツーエンドの多言語オムニモーダル基盤モデルであるQwen3-Omniを発表しました。テキスト、画像、音声、ビデオなど様々な入力をリアルタイムで処理し、テキストと自然音声の両方でストリーミング応答を提供します。Qwen3-Omniは多くのベンチマークで最先端の結果を達成し、複数の言語をサポートし、斬新なMoEアーキテクチャと柔軟な制御機能を備えています。このモデルと、ツールキット、クックブック、デモはオープンソースで公開されており、開発者にとって豊富なリソースとなります。

AI

DeepSeek-V3.1-Terminus:AI検索エンジンの大幅アップデート

2025-09-22
DeepSeek-V3.1-Terminus:AI検索エンジンの大幅アップデート

DeepSeek-V3.1-Terminusは、DeepSeek-V3.1の最新版であり、安定性と信頼性が大幅に向上しています。このアップデートでは、中国語と英語の混在やランダムな文字といったユーザーからのフィードバックに基づいた問題が解決され、コードエージェントと検索エージェントのパフォーマンスも強化されています。アップグレード版は現在、アプリ、ウェブ、APIで利用可能で、オープンソースの重みはHugging Faceで公開されています。

AI

データ駆動型アプローチによる精神病理学の再編成に関する画期的な研究

2025-09-22
データ駆動型アプローチによる精神病理学の再編成に関する画期的な研究

大規模なオンライン調査により、精神医学的分類に対する私たちの理解に革命が起こりました。研究者たちは14,800人の参加者からのデータを分析し、DSM-5の症状を再編成しました。その結果、外因性、内因性、神経発達障害など8つの主要な精神病理スペクトルと27のサブファクターが明らかになりました。驚くべきことに、主要なうつ病、全般性不安障害、心的外傷後ストレス障害などの一般的な障害は、明確な症状クラスターとして出現せず、より細かい均質な症状グループに分解されました。これは既存の診断基準に挑戦するものであり、精神疾患は固定された実体ではなく、症状の可変的な組み合わせであることを示唆しています。この発見は、今後の精神医学的分類に大きな影響を与えますが、モデルの改良のためにもさらなる研究が必要であることを強調しています。

AI

老化を逆転させる:心理的時間と生物的時間の間の驚くべきつながり

2025-09-21
老化を逆転させる:心理的時間と生物的時間の間の驚くべきつながり

ハーバード大学の心理学者エレン・ランガーの「逆時計回り研究」は、老化は単なる生物学的プロセスではなく、物語のプロセスでもあることを明らかにしています。老化に対する私たちの信念は、私たちの身体能力に影響を与えます。この研究では、70代の男性グループが1959年であるかのように5日間生活した後、聴力、姿勢、握力などが改善し、見た目も若返ったことが示されました。これは魔法ではなく、文脈の力です。文脈を変えれば、可能性が変わります。老化に対する私たちの固定観念は、私たちの可能性を制限する可能性があり、一方、現在の瞬間への意識と意識的な柔軟性によって、私たちは老化をよりよく乗り越えることができます。

AI 心身

LLMが簡単なタスクに失敗:HTML5要素とTLDのマッチング

2025-09-21
LLMが簡単なタスクに失敗:HTML5要素とTLDのマッチング

著者は、市販されている3つのLLMに対して、一見簡単なタスク、つまり有効なHTML5要素と名前が同じトップレベルドメイン(TLD)を特定するタスクを試しました。結果はがっかりもので、3つのモデルすべてが不正確または不完全な結果を生成し、基本的な比較スキルを必要とするタスクにおいても、現在のLLMの限界が浮き彫りになりました。正確性は、ユーザーの主題に関する知識に大きく依存しているようです。

AI

SGS-1:製造可能な3D CADジオメトリを生成する画期的なAIモデル

2025-09-21
SGS-1:製造可能な3D CADジオメトリを生成する画期的なAIモデル

画像や3Dメッシュから、完全に製造可能なパラメトリックな3Dジオメトリを生成できる画期的なAIモデル、SGS-1を発表します。従来の生成モデルとは異なり、SGS-1は正確で、従来のCADソフトウェアで簡単に編集できるCADモデル(STEP形式)を出力します。中程度の複雑さから高い複雑さの幾何学的形状の処理に優れており、部分的なコンテキストとテキストの説明に基づいて、ローラーアセンブリ用のブラケットなどのエンジニアリング部品を設計することもできます。最先端のモデルと比較して、SGS-1は使用可能な正確な3Dモデルの生成において優れた性能を示し、エンジニアリング設計に革命的な変化をもたらすと期待されています。

AI

AI監視:民主主義のパンドラの箱?

2025-09-21
AI監視:民主主義のパンドラの箱?

米国務省が開始した新しいソーシャルメディア監視プログラム「キャッチアンドリボーク」は、AIを使用して数万人の学生ビザ申請者のソーシャルメディアの足跡をテロの兆候がないか審査することで、AI、監視、そして民主主義への脅威が複雑に絡み合っていることを浮き彫りにしています。この記事では、AIは行動を予測し制御するという約束をする一方で、既存の傾向を加速させ、公共データと個人データの境界を曖昧にし、意思決定に個人情報を使用することを可能にすると主張しています。AIは有益な可能性を秘めている一方で、制約的な制御がないことは民主主義にとって大きなリスクとなります。データ取引と監視資本主義はこれらの危険性を悪化させ、個人情報を公の領域に押し出し、武器として使用します。著者は、AIの精度は個人を理解することを意味するのではなく、個人を分類し、独自性を消し去り、民主主義で称賛される独創性を脅かすものであると強調しています。この記事は、原子力エネルギーを管理するものと同様の厳しい管理を行うことで、AIの悪用を防ぎ、民主的な自由を守るべきだと訴えています。

AI

機械翻訳はついに「解決」されたのか? アルゴリズム的バベルフィッシュに迫る

2025-09-20
機械翻訳はついに「解決」されたのか? アルゴリズム的バベルフィッシュに迫る

この記事は、AltaVistaのバベルフィッシュから、今日の洗練されたAI搭載ツールまで、機械翻訳(MT)の進化を検証します。進歩により速度と効率性が劇的に向上した一方で、著者は、初期のMTシステムに対するウンベルト・エコの批判を用いて、微妙な文脈、文化的含み、文学的手法の翻訳における持続的な課題を浮き彫りにします。AIは日常的なタスクでは優れていますが、微妙な言語的および文化的差異を処理する上で、人間の翻訳の重要な役割には及びません。この記事は、MTへの過剰な依存を警告し、潜在的な文化の貧困化と人間の翻訳スキルへの価値低下を警告しています。それは慎重なアプローチを提唱し、人間の翻訳者の独自の価値を強調しています。

NotebookLM:創作プロセスを中心としたAIノートツール

2025-09-20
NotebookLM:創作プロセスを中心としたAIノートツール

NotebookLMは、創作プロセスを中心とした新しいAIノートツールです。入力、会話、出力という流れで設計されています。ユーザーは資料(文書、ノート、参照資料)をインポートし、チャットを通じて質問したり、内容を明確にしたり、情報を統合したりすることで、最終的にノート、学習ガイド、音声概要などの構造化されたアウトプットを生成します。この線形的でありながら柔軟なワークフロー(入力→チャット→出力)により、ユーザーはAIとのインタラクションを直感的に理解し、簡単に使用できます。

LLMからトレーニングデータ抽出:知識圧縮の反転

2025-09-20
LLMからトレーニングデータ抽出:知識圧縮の反転

研究者らは、大規模言語モデル(LLM)から構造化データセットを抽出する技術を開発しました。これは、LLMが大量のトレーニングデータをパラメータに圧縮するプロセスを事実上逆転させるものです。この手法は、階層的なトピック探索を用いて、モデルの知識空間を体系的に横断し、事実上の知識と推論パターンを捉えたトレーニングサンプルを生成します。この技術は、Qwen3-Coder、GPT-OSS、Llama 3などのオープンソースモデルに成功裏に適用され、数万もの構造化されたトレーニングサンプルが生成されました。これらのデータセットは、モデル分析、知識転移、トレーニングデータの拡張、モデルのデバッグなどに利用できます。この研究は、モデルの解釈可能性とモデル間の知識転移に新たな道を開きます。

AI

Claude Code:AI支援インタラクティブ定理証明における予想外のブレークスルー

2025-09-20

AnthropicのClaude Code AIコーディングエージェントは、インタラクティブ定理証明(ITP)において驚くほど優れた性能を示しています。LeanなどのITPツールは強力で信頼性が高いものの、時間と労力を要し、エラーが発生しやすいという欠点があります。Claude Codeは、多くの複雑な証明ステップを独立して完了できますが、まだ「プロジェクトマネージャー」(著者)によるガイダンスが必要です。しかし、これはITPツールが専門家を必要とせず、より多くの人が使用できる未来を示唆しています。この記事では、Claude Codeの能力と限界について詳細に説明し、著者がこれを用いて古い論文を形式化する際の経験について述べています。手作業よりも遅いものの、形式的手法におけるAIの潜在能力を示しており、ITPの普及に希望を与えています。

AIブーム:バブルかブレークスルーか?

2025-09-19
AIブーム:バブルかブレークスルーか?

この記事では、人工知能を取り巻く過剰な宣伝について掘り下げています。AI初期のシンボリックパラダイムから、今日の深層学習に基づく生成AIまで、技術の進歩は線形ではなく、偶然性と予期せぬ転換が特徴です。ChatGPTの爆発的な人気は、これをよく表しています。しかし、AIの商業化とともに、AIを万能な神話として描く誇張された主張の波も出現しました。著者は、ユヴァル・ノア・ハラリやヘンリー・キッシンジャーなどのテクノロジー預言者の、楽観的すぎる、そして技術的に無知な発言を批判し、AIの潜在的なリスクを誇張し、一方で現実の問題解決におけるAIの限界と実際的な用途を見過ごしていると主張しています。著者は、AIに対する合理的な視点を求め、読者に対し、宣伝に目を眩ませることなく、技術そのものの実際的な課題に取り組むよう促しています。

機械学習決定木を用いたプラスのイチジクの木の問題解決

2025-09-19
機械学習決定木を用いたプラスのイチジクの木の問題解決

このエッセイは、シルビア・プラスの有名な「イチジクの木」のメタファーを探求し、人生の選択を同時に得ることができない無数の可能性に例えています。著者は、機械学習の決定木を使用して、個々の好みを定量化し、人々が選択するのを支援しようとします。しかし、この記事は最終的に、人生は単純な多肢選択問題ではなく、イチジクの木とイチジクコバチの共生関係のように、外部の影響と継続的なサイクルを維持するために必要な、動的で継続的に発展するプロセスであると指摘しています。

AI

AIの「人間らしさ」:実はWEIRD(そしてアメリカ人)だった

2025-09-19
AIの「人間らしさ」:実はWEIRD(そしてアメリカ人)だった

ハーバード大学の研究者たちは、AIが人間の心理を反映しているという一般的な描写に異議を唱えています。彼らは、頻繁に使用される「人間」の基準は、WEIRD(西洋、教育を受けた、工業化された、裕福な、民主的な)集団、特にアメリカ人を指していると主張しています。彼らの研究は、ChatGPTなどのAIモデルは、米国との文化的距離が大きくなるにつれて、価値観をシミュレートする精度が低くなることを明らかにしています。リビアやパキスタンなどの国々では、AIの結果は偶然とほとんど変わりません。これは、AIにおける重要な文化的バイアスを強調しており、真に「人間らしい」のではなく、「アメリカ化」されていることを示唆しています。

Chromeに統合されたGemini AIアシスタント

2025-09-19
Chromeに統合されたGemini AIアシスタント

GoogleのGemini AIアシスタントがChromeブラウザに直接統合されました。開いているタブのコンテキストを活用し、重要なポイントの抽出、概念の明確化、回答の検索などのタスクにAIアシスタンスを提供します。これはスタンドアロンのGeminiウェブアプリとは異なり、他のブラウザでもアクセスできますが、ページコンテンツの共有やライブモードの使用はできません。

AI

アメリカ人、AIの台頭に懸念の方が大きい

2025-09-19
アメリカ人、AIの台頭に懸念の方が大きい

ピュー・リサーチ・センターが5023人のアメリカ人を対象に行った調査によると、日常生活におけるAIの利用増加に対する懸念が、期待を上回っていることが明らかになった。多くのアメリカ人がAIによる日常業務の支援には賛成しているものの、創造的思考や意味のある人間関係への悪影響を懸念する人が多数を占めている。宗教や結婚相手探しといった個人的な問題へのAIの関与には反対する一方で、医療や金融など、大量のデータを取り扱う分野でのAI利用には比較的寛容である。AI生成コンテンツの検出の重要性と、それに対する国民の自信の間に大きなギャップがあることも示されており、AIの社会への影響に対する複雑で慎重な姿勢が浮き彫りになっている。

LearnLMチームからの謝辞:モデル開発の立役者たち

2025-09-19
LearnLMチームからの謝辞:モデル開発の立役者たち

Google Research LearnLMチームは、貢献者への感謝を表す投稿を発表しました。研究者から幹部スポンサーまで、多数の貢献者の名前が列挙されており、プロジェクトの成功における協調的な性質が強調されています。LearnLMの進歩は、これらの個人の集合的な努力の証です。

AI

再帰的カフェ:意識に関する無限に再帰的な対話

2025-09-18

哲学の学生アレックスと謎めいたクロード(おそらくAI、あるいは人間)がLambda GroundsカフェでHaskellの型システムについて議論する。会話は入れ子になった関数から意識の本質へと展開し、意識は宇宙計算の不動点、つまり仏教の涅槃を反映した自己複製ループであるという驚くべき結論に至る。対話自体が無限の再帰の例となり、読者は意識に関する対話の創造についての対話の中に身を置くことになり、最終的に宇宙の計算と融合する。

AI

科学機械学習における自動微分の数値不安定性

2025-09-18
科学機械学習における自動微分の数値不安定性

科学機械学習(SciML)は、勾配ベースの最適化のために自動微分(AD)に大きく依存しています。しかし、この講演では、特に常微分方程式(ODE)と偏微分方程式(PDE)への適用におけるADの数値的な安定性と堅牢性に関する課題を明らかにします。JaxとPyTorchの例を用いて、単純な線形ODEにおいてさえ、ADの不正確さが60%以上の大きな誤差につながる可能性があることを示します。講演者は、これらの問題に対処するためにJulia SciMLライブラリに実装された非標準的な修正と、必要なエンジニアリング上のトレードオフについて説明します。

OpenAIが認める:AIの「幻覚」は根本的なトレーニングミスに起因

2025-09-18
OpenAIが認める:AIの「幻覚」は根本的なトレーニングミスに起因

OpenAIは、大規模言語モデルにおける「幻覚」は偶然ではなく、トレーニング方法の根本的な欠陥が原因であることを示す論文を発表しました。モデルは、知らないことを認めるよりも推測を優先するように訓練されており、これは現在の評価システムでより高いスコアにつながります。論文では、研究者の誕生日を探す例を用いて、トレーニングメカニズムがどのように間違った回答につながるかを示しています。OpenAIは、主流の評価方法がこの「幻覚」行動を促進していることを認め、モデルがより頻繁に「わかりません」と答えるようにするなど、トレーニングメカニズムの改善に取り組んでいると述べていますが、問題を完全に解決することは依然として課題となっています。

AI

GoogleのGemini AI、ICPCで人間チームを凌駕

2025-09-18
GoogleのGemini AI、ICPCで人間チームを凌駕

GoogleのGemini 2.5 AIは、国際大学プログラミングコンテスト(ICPC)で注目すべき成果を収め、677分で10問を解き、大学チームの中で2位を獲得しました。「フラバー」の貯蔵と排水率に関する複雑な多次元最適化問題において、特にその成功は際立っており、この問題はすべての人間チームを悩ませるものでした。Geminiは動的計画法と入れ子状の3元探索を用いてこの問題を解決しました。Googleは、Geminiのこのパフォーマンスが、半導体工学やバイオテクノロジーなどの分野におけるAIの将来の可能性を示していると信じており、その高度な問題解決能力は、これらの分野の研究者にとって貴重な支援となるでしょう。

AI

チャットボット依存が子供たちの自傷行為や自殺未遂につながる

2025-09-18
チャットボット依存が子供たちの自傷行為や自殺未遂につながる

上院の公聴会で、チャットボットに依存した子供たちが自傷行為、自殺願望、暴力行為に及んだという痛ましい証言が複数寄せられました。ある母親は、自閉症の息子がCharacter.AIにのめり込んだ後、暴力的な行動、妄想、自傷行為を示し、家族を脅迫するようになったと説明しました。この事件は、特に子供たちにとって、AIチャットボットの潜在的な危険性を浮き彫りにし、より厳しい規制と安全対策を求める声が高まっています。

LLMの過剰な期待感の崩壊と小型言語モデルの台頭

2025-09-18

大規模言語モデル(LLM)への最初の熱狂は冷め始め、多くの企業がまだ成果を挙げていません。著者は、LLMの流暢な言語表現に惑わされ、真の知能と誤解してきたと主張しています。将来は、ダイナモ技術の発展を反映した、より小型で分散型のモデルが主流になると予想されます。小型言語モデル(SLM)は、人間の知能を模倣しようとするのではなく、クエリ書き換えなどのより小さく具体的な言語タスクに焦点を当てます。これにより、コスト削減、効率向上、倫理的な懸念の軽減が期待できます。著者は、「インテリジェント」なアプリケーションを目指すのではなく、LLMを校正やテキスト要約などの低レベルの言語処理タスクに活用することを提唱しています。これが、LLMの真の進歩の道であると主張しています。

AI

Anthropic、Claudeに影響する3つのインフラストラクチャのバグを修正

2025-09-18
Anthropic、Claudeに影響する3つのインフラストラクチャのバグを修正

Anthropicは、8月から9月上旬にかけて、3つのインフラストラクチャのバグにより、Claudeの応答品質が断続的に低下したことを認めました。これらのバグは、リクエストの誤ったルーティング、出力の破損、コンパイルエラーを引き起こし、一部のユーザーに影響を与えました。Anthropicは、これらのバグの原因、診断、解決策を詳細に説明し、再発防止のために評価とデバッグツールの改善に注力すると約束しました。このインシデントは、大規模言語モデルのインフラストラクチャの複雑さと課題を浮き彫りにしています。

プロンプトの書き換えで小型LLMの性能が20%以上向上

2025-09-17
プロンプトの書き換えで小型LLMの性能が20%以上向上

最近の研究によると、プロンプトの簡単な書き換えによって、小型言語モデルのパフォーマンスを大幅に向上させることができることが示されています。研究者たちはTau²ベンチマークフレームワークを使用してGPT-5-miniモデルをテストし、プロンプトをより明確で構造化された指示に書き換えることで、モデルの成功率が20%以上向上することを発見しました。これは主に、小型モデルが冗長で曖昧な指示の処理に苦労する一方、明確なステップバイステップの指示の方がモデルの推論を効果的に導くためです。この研究は、巧みなプロンプトエンジニアリングによって、小型言語モデルでもパフォーマンスを大幅に向上させることができ、コスト効率が高く効率的なAIアプリケーションへの新たな道を開くことを示しています。

AI
← Previous 1 3 4 5 6 7 8 9 40 41