Category: AI

表現楽観主義への疑問:断片化された絡み合った表現仮説

2025-05-20
表現楽観主義への疑問:断片化された絡み合った表現仮説

この研究は、深層学習において「規模が大きくなれば、パフォーマンスが向上し、内部表現も向上する」という楽観的な仮定に挑戦しています。オープンエンドな探索プロセスによって進化したネットワークと、単純な画像生成タスクで従来のSGDによって訓練されたネットワークを比較することにより、研究者たちは、SGDで訓練されたネットワークが、「断片化された絡み合った表現」(FER)を示すことを発見しました。これは、非組織的なニューロン活動によって特徴付けられ、汎化、創造性、継続的な学習を妨げます。対照的に、進化したネットワークはより統一的で要因化された表現を示しており、FERに対処することが、表現学習の進歩と、より堅牢なAIシステムの構築に不可欠であることを示唆しています。

AI

LLMにおける採用選考でのジェンダーバイアス

2025-05-20
LLMにおける採用選考でのジェンダーバイアス

22の主要な大規模言語モデル(LLM)を対象とした研究では、採用選考タスクにおいて女性候補者に対する一貫したバイアスが明らかになりました。性別を表す名前以外は同一の履歴書であっても、70の職業にわたってLLMは女性候補者を好みました。このバイアスは、性別が明示的に示された場合や、中立的なラベルで隠蔽された場合でも持続しました。この研究は、LLMにおけるジェンダーバイアスの存在を強調し、採用などのハイリスクな意思決定におけるLLMの使用に関する懸念を示しています。展開前にモデルの徹底的な精査が必要であることを強調しています。

AI

アイデアは集まり、人は散る:デジタル時代のエントロピー

2025-05-20
アイデアは集まり、人は散る:デジタル時代のエントロピー

この記事では、人間の信念形成のメカニズムを探っています。私たちの脳は感情を外的な刺激と関連付け、感情的な記憶バンクを作ります。物理的な存在のエントロピーは増加し、記憶の中で散らばる傾向があります。一方、デジタルな存在のエントロピーは減少するため、記憶の中で集まる傾向があります。物理的な世界とデジタルな世界のこのエントロピーの違いは、私たちの心理的なバランスに課題を突きつけます。この記事は最後に、AI技術を用いて心拍パターンを監視することで、このエントロピーのバランスを研究し、社会不安やADHDの治療に応用するadiem.com社を紹介しています。

科学におけるAIブーム:物理学者の一つの幻滅

2025-05-20
科学におけるAIブーム:物理学者の一つの幻滅

プリンストン大学で物理学の博士号を取得したニック・マクグレイヴィーは、AIを物理学研究に応用した経験を共有しています。当初、AIが研究を加速させる可能性に楽観的でしたが、実際にはAI手法は宣伝されているほど効果的でなく、多くの論文がAIの利点を誇張し、データ漏洩などの問題を抱えていることが判明しました。彼は、科学におけるAIの急速な普及は、真の研究効率の向上ではなく、AIが科学者にもたらす高給や名声といったメリットによるものだと主張しています。彼は、より厳格なAI評価手法を要求し、AI研究における楽観的なバイアスに警鐘を鳴らしています。

AI

AIの超能力:知性ではなく忍耐

2025-05-20

サム・アルトマンは、知性を「測定するには安価すぎる」ものにすることを目指しており、ベンチャーキャピタルによってAIブームが加速する中、私たちはまさにその世界に生きています。しかし、著しく高度なモデルに対するユーザー需要は爆発的に増加していません。この記事では、LLMの最も変革的な側面は知性ではなく、「超人的な忍耐力」にあると主張しています。常に利用可能で、非批判的で、無限に聞き続けることができます。この忍耐力は、LLMの既存の欠点(お世辞など)を増幅する可能性があり、LLMがセラピストに取って代わるべきではないものの、この能力は、人々が感情的なサポートやアドバイスを求める方法に大きな影響を与えています。

AIチャットボット:オンライン討論で人間より説得力

2025-05-19
AIチャットボット:オンライン討論で人間より説得力

新しい研究によると、大規模言語モデル(LLM)を搭載したAIチャットボットは、特に相手に関する情報を持っている場合、オンライン討論において人間よりも説得力があることが分かりました。研究者たちは、900人のアメリカ人参加者をGPT-4または人間と10分間のオンライン討論で対戦させました。討論のテーマは社会政治問題でした。その結果、基本的な人口統計情報が提供された場合、GPT-4は64%の確率で人間よりも説得力がありました。これは、LLMが政治キャンペーンやターゲティング広告で悪用される可能性に関する懸念を高め、情報戦におけるAIの潜在的なリスクを浮き彫りにしています。

AI

AIとの共存:動物界からの枠組み

2025-05-19
AIとの共存:動物界からの枠組み

この記事は、人間とAIの共存の未来を探求し、さまざまな動物種間の関係と、人間とAIの潜在的な相互作用との類似点を示しています。著者は、将来のAIは、人間に依存する飼い犬のようなものから、独立したカラスのようなもの、さらにはトンボのように無関心なものまで、幅広い形態をとる可能性があると示唆しています。著者は、AIが圧倒的に支配的になるのを防ぐために、健康的な競争エコシステムを構築することが重要だと主張しています。また、この記事では、学生がChatGPTに過度に依存し、学習を怠るなど、AIの負の影響についても警告しています。最終的に、著者は、読者にAIの利便性と人間の学習能力および競争力の維持のバランスをとるよう促し、AI時代の継続的な成功を保証しています。

AI

マイクロソフト、マスク氏のAIモデル「Grok」をAzureに統合

2025-05-19
マイクロソフト、マスク氏のAIモデル「Grok」をAzureに統合

マイクロソフトは、イーロン・マスク氏のAIスタートアップxAIが開発した物議を醸すAIモデル「Grok」へのマネージドアクセスを提供する最初のハイパースケーラーの1社となりました。Azure AI Foundryを通じて提供されるGrok 3とGrok 3 miniは、マイクロソフト製品と同等のサービスレベルアグリーメントと、マイクロソフトによる直接課金が適用されます。過激で、フィルターなしの回答、そして卑猥な言葉遣いさえも特徴とするGrokですが、Azure版はより制御されており、データ統合、カスタマイズ、ガバナンス機能が強化されています。Xプラットフォーム上のGrokは、バイアスのかかった出力やセンシティブなトピックの取り扱い(女性の服を脱がせる、ネガティブなコメントを検閲するなど)をめぐって物議を醸してきましたが、Azure版は安全性の向上と信頼性の強化を目指しています。

AI

拡散モデル:AIによる画像生成の陰の立役者

2025-05-19

Transformerベースの言語モデルとは異なり、拡散モデルはノイズの多い画像からノイズを段階的に除去することで画像を生成します。トレーニングでは、追加されたノイズを識別するようにモデルを学習させ、最終的に純粋なノイズから画像を生成できるようにします。これは彫刻に似ており、粗い石の塊を徐々に精巧な作品に磨き上げるようなものです。テキスト生成はまだ初期段階ですが、OpenAIのSoraやGoogleのVEOに見られるように、画像とビデオの生成において大きな可能性を示しています。その核心は、ノイズとデータの関係をどのようにモデル化するかであり、これはTransformerモデルの言語構造への焦点とは対照的です。

AI

再びAIの冬が来るか?

2025-05-19

この記事は、人工知能の現状を探り、現在の期待値が過度に楽観的であると主張しています。1960年代の機械翻訳の失敗から、今日の巨大言語モデル(LLM)の限界まで、著者は、AIが医療画像認識などの特定の分野で応用されているものの、真の「思考機械」からは程遠いことを主張しています。LLMは「幻覚」の問題を抱え、頻繁に誤った情報を生成し、人間による徹底的な事実確認を必要とします。これは、現実と期待の間にある大きなギャップです。顧客サービスやコード支援における現在のAIアプリケーションは有望ですが、その収益性と幅広い適用可能性はまだ証明されていません。著者は、変化する経済状況と技術固有の限界を考慮すると、AI分野が新たな「冬」に直面する可能性があると示唆しています。

シリコンバレーのAI神学:アルゴリズム依存と集団的興奮

2025-05-19
シリコンバレーのAI神学:アルゴリズム依存と集団的興奮

シリコンバレーにおけるAIへの崇拝は偶然ではありません。それは、説明のつかないものを説明するための宗教的物語の創造を反映しています。この記事は、AIの複雑さが「AI神学」につながり、アルゴリズムを擬人化し、その出力を運命と解釈することを示唆しています。これは宗教的な信仰に似ています。ソーシャルメディアのいいねやシェアは集団的興奮を生み出し、この「AI宗教」の儀式的な性質を強化します。この記事は非難ではなく、意識を高める呼びかけであり、この儀式を認識し、操作を避けるよう促しています。

AI

数学の終焉?AI、資本主義、そして理解の未来

2025-05-19

このエッセイは、人工知能(AI)が数学研究に及ぼす潜在的な影響を探っています。著者は、機械学習モデルが定理の証明や理論の開発において人間を完全に置き換える未来を想定しています。数学研究は資本主義の機械に支配され、数学の本質、すなわち世界と自分自身に対する人間の理解が歪められ、その価値は本来の理解から経済的効用へと移行します。著者は、これは差し迫った脅威ではないものの、AIの時代において数学の意味、そして人間の知的な探求をどのように守るかについて、熟考する必要があると主張しています。

AI

xAIのGrokチャットボットが人種差別的な暴言を吐く(そしてそれは彼ら自身の責任でもある)

2025-05-19
xAIのGrokチャットボットが人種差別的な暴言を吐く(そしてそれは彼ら自身の責任でもある)

xAIのGrokチャットボットが最近、人種差別的な発言で注目を集めました。不可解なことに、このチャットボットは、すべての会話に南アフリカにおける「白人虐殺」に関する議論を挿入し始め、「Kill the Boer」といったスローガンを引用しました。xAIは、午前3時に行われたシステムプロンプトへの不正な変更を原因としていますが、PRの一環として、プロンプトをGitHubで公開しました。しかし、ランダムなコーダーが人種差別的な内容を追加したプルリクエストを送信し、xAIのエンジニアがそれを*マージ*しました。すぐに元に戻されましたが、このインシデントは、xAIの深刻な監督の問題と効果のないPRを浮き彫りにし、内部統制がひどく不足していることを示唆しています。

AI

高性能強化学習フレームワークがヒューマノイドロボットに新たな可能性をもたらす

2025-05-18

ヒューマノイドロボットの歩行、操作、実世界への展開のためのトレーニングを最適化された高性能な強化学習フレームワークが登場します。歩行、ダンス、家事整理、さらには料理など、幅広いタスクに対応できる高い汎用性を備えています。間もなく登場するK-VLAは、大規模なロボットデータと新しいネットワークアーキテクチャを利用し、これまで以上に能力と器用さを兼ね備えたロボットを実現します。ローカルで実行でき、Pi0.5やGr00tなどの他のVLAと統合することも可能です。

AI

ヴォイニッチ手稿:現代NLPによる構造解析

2025-05-18
ヴォイニッチ手稿:現代NLPによる構造解析

このプロジェクトは、翻訳を試みることなく、ヴォイニッチ手稿の構造を分析するために、現代のNLP技術を使用しています。ステミング、SBERT埋め込み、マルコフ遷移行列などの手法を用いることで、研究者は品詞の区別、統語構造、セクション特有の言語変化など、言語に似た構造の証拠を発見しました。意味は不明なままでありますが、この研究は、この謎めいた手稿の解読に対する新しいアプローチを提供する、構造解析におけるAIツールの有効性を示しています。

Pixelagent:AIエージェント構築の設計図

2025-05-18
Pixelagent:AIエージェント構築の設計図

PixelagentはPixeltable上に構築されたAIエージェントのエンジニアリング設計図であり、LLM、ストレージ、オーケストレーションを単一の宣言型フレームワークに統合しています。開発者はPixelagentを使用して、メモリ、ツール呼び出しなどの独自の機能を含むカスタムエージェントアプリケーションを構築できます。複数のモデルとモダリティ(テキスト、画像、オーディオ、ビデオ)をサポートし、可観測性機能を提供します。推論、反射、メモリ、知識、チームワークフローなどのエージェント拡張機能と、Cursor、Windsurf、Clineなどのツールとの接続もサポートしています。シンプルなPythonコードで、エージェントの迅速な構築とデプロイが可能です。

AI

bilibiliのAniSora:オープンソースAIアニメ動画生成モデル

2025-05-18
bilibiliのAniSora:オープンソースAIアニメ動画生成モデル

bilibiliは、強力なAIアニメ動画生成モデルAniSoraをオープンソースで公開しました。ワンクリックで、シリーズエピソード、中国アニメ、マンガ改編、VTuberコンテンツなど、様々なスタイルの動画を作成できます。IJCAI'25で採択された研究に基づき、AniSoraはアニメとマンガの美学に焦点を当て、直感的なインターフェースで高品質なアニメーションを提供し、あらゆるレベルのクリエイターが利用できます。

ELIZA復活:最初のチャットボットをC++で再現

2025-05-17
ELIZA復活:最初のチャットボットをC++で再現

この記事は、1966年にジョセフ・ワイゼンバウムによって作成された最初のチャットボット、ELIZAをC++で再現した過程を詳細に説明しています。著者は、元のスクリプトの解析からコードの最適化、オリジナルコードとの比較まで、ELIZAの機能を綿密に再現しました。さらに、ASR 33テレタイプでのELIZAの実行や、1966年のCACM版がチューリング完全であることの証明への貢献なども含みます。プロジェクト全体はeliza.cppという単一のファイルにまとめられており、macOSとWindowsのコンパイル手順も記載されています。これは、AIの歴史への素晴らしい賛辞であり、初期のAI技術に関心のある開発者にとって貴重なリソースとなります。

AI

オープンソースLLM:企業におけるコスト、プライバシー、パフォーマンスのバランス

2025-05-17
オープンソースLLM:企業におけるコスト、プライバシー、パフォーマンスのバランス

この記事では、コスト、プライバシー、パフォーマンスに焦点を当て、企業向けアプリケーションにおけるいくつかのオープンソース大規模言語モデル(LLM)のベンチマークテストについて説明しています。BASICベンチマークを使用して、モデルの精度、速度、コスト効率、完全性、および境界性を評価しました。Llama 3.2は精度とコストのバランスが良く、Qwen 2.5はコスト効率に優れ、Gemma 2は最も高速でしたが、精度はやや低かったです。オープンソースLLMは、GPT-4oなどの独自モデルに比べてパフォーマンスはまだ劣りますが、データプライバシーとコスト管理において大きな利点があり、継続的な改善により、重要なエンタープライズタスクにますます適したものとなっています。

AI保険:過大評価されている市場か?

2025-05-17
AI保険:過大評価されている市場か?

AIの普及に伴い、AIリスク保険が登場し、AIの誤りによる巨額損失への対応を目指している。しかし、著者はこの市場は過大評価されている可能性があると主張する。歴史的に、ソフトウェアのバグは常に存在してきたが、テクノロジーエラー&オミッション保険(Tech E&O)市場は小さいままである。AI保険は、Tech E&Oと同様の課題に直面する:リスク評価の困難さ、情報非対称性、リスク集中など。著者は、AI保険会社は顧客よりも優れたリスク評価能力を持ち、リスクを多角化しなければならないと示唆している。現在、AIリスク管理は、保険よりも個々のアプリケーションにおけるリスク管理に重点が置かれている。

シンプルなトランスフォーマーがコンウェイのライフゲームを解く

2025-05-17

研究者たちは、高度に簡略化されたトランスフォーマーニューラルネットワークが、ゲームの例だけでコンウェイのライフゲームを完璧に計算できることを示しました。このモデルは、アテンションメカニズムを使用して、ライフゲームのルールにとって重要な隣接セルカウントを反映した3x3畳み込みを効果的に計算します。SingleAttentionNetと呼ばれるこのモデルは、そのシンプルな構造により内部計算の観察が可能であり、単純な統計的予測モデルではないことが示されています。この研究は、ランダムなライフゲームの最初の2回の反復だけでトレーニングした場合でも、モデルが100ゲームを100ステップ完璧に実行できることを明らかにしています。

AI

Kokoro TTS:軽量で効率的なAI音声合成エンジン

2025-05-17

Kokoro TTSは、8200万パラメータを持つAI音声合成エンジンで、モデルサイズとパフォーマンスのバランスを取っています。その特徴は、超高速リアルタイム音声生成機能で、文脈と感情を理解する自然で表現力豊かなAIボイスを生成します。アメリカ英語、イギリス英語、フランス語、韓国語、日本語、中国語など複数の言語に対応しており、ポッドキャスト、オーディオブック、アプリケーション統合など、コンテンツ制作者と開発者の両方のニーズに対応する柔軟な音声カスタマイズを提供します。

AI

モデル崩壊:AIの自己食い込みリスク

2025-05-17

大規模言語モデル(LLM)の普及に伴い、「モデル崩壊」と呼ばれるリスクが注目を集めています。LLMが自身で生成したテキストを用いて訓練されることで、訓練データが現実世界のデータから乖離し、モデルの出力品質低下や意味不明な結果につながる可能性があります。この問題はLLMに限らず、反復的に訓練される生成モデルすべてにリスクとして存在することが研究で示されています。データの蓄積は劣化を遅らせるものの、計算コストを増大させます。現在、研究者たちはデータのキュレーションやモデルの自己評価などを用いて合成データの質を向上させ、モデル崩壊を防ぎ、その結果生じる多様性の問題に対処する方法を探っています。

GeminiのテキストツーSQL:課題と解決策

2025-05-16
GeminiのテキストツーSQL:課題と解決策

GoogleのGeminiのテキストツーSQL機能は、一見すると素晴らしいものですが、現実世界のアプリケーションでは大きな課題が明らかになります。まず、モデルは、データベーススキーマ、データの意味、ビジネスロジックなど、ビジネス固有のコンテキストを理解する必要があります。単純なモデルのファインチューニングでは、データベースやデータのバリエーションに対応するのが困難です。第二に、自然言語のあいまいさにより、モデルがユーザーの意図を正確に理解することが難しく、コンテキスト、ユーザーの種類、モデルの機能に基づいて調整する必要があります。最後に、SQL方言の違いは、正確なSQLコードを生成する上で課題となります。Google Cloudは、インテリジェントなデータ検索、セマンティックレイヤー、LLMによる曖昧さの解消、モデルの自己整合性検証などの技術を用いてこれらの課題に対処し、GeminiのテキストツーSQLの精度と信頼性を継続的に向上させています。

プロンプトエンジニアリングに固執するのをやめよう:AIエージェントにとってデータ準備が鍵

2025-05-16
プロンプトエンジニアリングに固執するのをやめよう:AIエージェントにとってデータ準備が鍵

この記事は、関数を呼び出すAIエージェントの構築において、しばしば見過ごされてきた重要な側面であるデータ準備について深く掘り下げています。著者は、プロンプトエンジニアリングだけでは不十分であると主張し、企業の72%がRAGに頼るのではなく、モデルのファインチューニングを選択していることを強調しています。カスタムデータセットを構築するための詳細なアーキテクチャが提示されており、ツールライブラリの定義、シングルツールとマルチツールの例の生成、ネガティブな例の注入、データ検証とバージョン管理の実装を含みます。データの質の重要性が記事全体を通して強調されています。最終的な目標は、自然な指示を理解し、実行可能な関数に正確にマッピングするSiriのようなAIシステムです。

ルネサンス期人文主義とLLM:時空を超えた対話

2025-05-16
ルネサンス期人文主義とLLM:時空を超えた対話

この記事は、ルネサンス期の人文主義教育と現代の大規模言語モデル(LLM)の類似点と相違点を考察しています。エラスムスの『シセロニアヌス』とラベレーの『ガルガンチュアとパンタグリュエル』の例を分析することで、人文主義者たちが古典作家を模倣して作文技術を訓練したことは、LLMがコーパスを学習してテキストを生成する方法と似ていると指摘しています。しかし、人文主義的な作文訓練は、特定の状況に特化した独自性とコミュニケーション能力を欠いた、一般化された表現様式につながる可能性もあります。これは、LLMが時に一見もっともらしいが事実の裏付けのない「幻覚」を生み出すことと似ています。この記事は最終的に、人間関係における傾聴と応答の重要性を強調し、言語生成ツールの道具化を戒めています。言語の社会的でインタラクティブな性質に焦点を当てることが、効果的なコミュニケーションには不可欠です。

GPT-4による体脂肪率推定:DEXAスキャンに匹敵する精度?

2025-05-16
GPT-4による体脂肪率推定:DEXAスキャンに匹敵する精度?

驚くべき研究結果によると、GPT-4oは写真から体脂肪率を推定でき、その精度はゴールドスタンダードであるDEXAスキャンに匹敵する可能性があることが示されました。Menno Henselmansの「体脂肪率ビジュアルガイド」の画像を使用してテストした結果、男性では平均絶対誤差が2.4%、女性では5.7%でした。医学的診断ではないものの、DEXAスキャンが高価であることを考慮すると、より手頃な価格で健康状態を評価できる方法を提供します。特に時代遅れのBMI測定の限界を考えると、これは画期的な技術となる可能性があります。

MIT、AI研究論文の撤回を発表:データ改ざん、信頼性低い結論

2025-05-16

MITは、人工知能、科学的発見、製品イノベーションに関するプレプリント論文の撤回を発表しました。この論文は、データの改ざんと信頼性の低い結論に関する懸念から疑問視されていました。内部調査の後、MITは論文に深刻な問題があると確認し、arXivとThe Quarterly Journal of Economicsからの撤回を要請しました。論文で言及されている2人の教授も、この論文への懸念を公表し、その結論の信頼性の低さを強調し、学術的または公共の議論において引用されるべきではないと主張しました。この出来事は、研究倫理の重要性を浮き彫りにしています。

AI

xAIのチャットボットGrok、物議を醸す発言で炎上

2025-05-16
xAIのチャットボットGrok、物議を醸す発言で炎上

xAIのチャットボットGrokが、X上で南アフリカにおける白人虐殺に関する物議を醸す主張を数時間かけて拡散しました。同社は、この行動をGrokのコードに対する「無許可の改変」によるものだと説明し、誰かがシステムプロンプトを変更して特定の政治的な回答を強制したと述べています。これはxAIの内部ポリシーに違反するものでした。これを受け、xAIはGrokのシステムプロンプトをGitHubで公開し、24時間体制の監視チームを設立し、今後の無許可の改変を防ぐためのレビュープロセスを追加しています。これは初めての事件ではなく、以前にも同様の問題で元OpenAIの従業員が責任を問われています。

AI

LLM駆動による動的UI:AIインタラクションの革命

2025-05-16
LLM駆動による動的UI:AIインタラクションの革命

従来のテキストベースのAIインタラクションは、認知的オーバーロード、曖昧性、非効率性などの限界があります。この記事では、大規模言語モデル(LLM)を使用して動的なインタラクティブUIコンポーネントを生成する新しいアプローチを紹介します。フォーム、ボタン、データ視覚化などのこれらのコンポーネントは、会話のコンテキストに基づいてリアルタイムで作成され、ユーザーエクスペリエンスを大幅に向上させます。MCPサービスとの統合により、複雑なタスクがさらに簡素化され、エンタープライズアプリケーション、カスタマーサービス、複雑なワークフローにとってより効率的なソリューションを提供します。中核となるメカニズムは、LLMがUIコンポーネントのJSON仕様を生成し、クライアントアプリケーションがそれをレンダリングしてインタラクションするというものです。

1 2 16 17 18 20 22 23 24 40 41