Category: AI

Anthropic、Claudeに影響する3つのインフラストラクチャのバグを修正

2025-09-18
Anthropic、Claudeに影響する3つのインフラストラクチャのバグを修正

Anthropicは、8月から9月上旬にかけて、3つのインフラストラクチャのバグにより、Claudeの応答品質が断続的に低下したことを認めました。これらのバグは、リクエストの誤ったルーティング、出力の破損、コンパイルエラーを引き起こし、一部のユーザーに影響を与えました。Anthropicは、これらのバグの原因、診断、解決策を詳細に説明し、再発防止のために評価とデバッグツールの改善に注力すると約束しました。このインシデントは、大規模言語モデルのインフラストラクチャの複雑さと課題を浮き彫りにしています。

プロンプトの書き換えで小型LLMの性能が20%以上向上

2025-09-17
プロンプトの書き換えで小型LLMの性能が20%以上向上

最近の研究によると、プロンプトの簡単な書き換えによって、小型言語モデルのパフォーマンスを大幅に向上させることができることが示されています。研究者たちはTau²ベンチマークフレームワークを使用してGPT-5-miniモデルをテストし、プロンプトをより明確で構造化された指示に書き換えることで、モデルの成功率が20%以上向上することを発見しました。これは主に、小型モデルが冗長で曖昧な指示の処理に苦労する一方、明確なステップバイステップの指示の方がモデルの推論を効果的に導くためです。この研究は、巧みなプロンプトエンジニアリングによって、小型言語モデルでもパフォーマンスを大幅に向上させることができ、コスト効率が高く効率的なAIアプリケーションへの新たな道を開くことを示しています。

AI

GPTを超えて:進化アルゴリズムがARC-AGIを制覇、AGIの兆候か?

2025-09-17
GPTを超えて:進化アルゴリズムがARC-AGIを制覇、AGIの兆候か?

最近、研究者によって、進化アルゴリズムと大規模言語モデルGrok-4を組み合わせた手法が、ARC-AGIベンチマークにおいて大きな進歩を遂げました。この手法は、ARC v1で79.6%の精度、より困難なARC v2で29.4%の精度を達成し、最先端の結果を更新しました。中心的な革新は、Pythonコードの代わりに自然言語命令を使用することであり、反復的な進化を通じてより効果的な解法を生成します。この研究は、強化学習と自然言語命令の組み合わせが、現在のLLMにおける抽象的推論の限界に対処し、人工汎用知能(AGI)への道を切り開く可能性を示唆しています。

AI

AIの無限ループ問題:時間、エントロピー、意識の絡み合い

2025-09-16
AIの無限ループ問題:時間、エントロピー、意識の絡み合い

マドリード空港でAI制御のボーディングブリッジが故障し、無限ループに陥った事例は、人工知能の根本的な限界を浮き彫りにしています。この記事では、停止問題とフレーム問題を考察し、AIシステムが無限ループに陥りやすいのは、処理能力の不足ではなく、AIと人間の脳が時間とエントロピーを処理する方法に根本的な違いがあるためだと主張しています。著者は、人間の意識は時間とエントロピーに深く根付いており、絶えず無秩序の増大と闘い、複雑な環境への適応と無限ループの回避を可能にすると述べています。対照的に、時間の感覚を持たないAIアルゴリズムは、そのようなループに陥りがちです。この記事は最後に、人間の脳の働きを模倣し、時間とエントロピーを取り入れた新しいAIモデルについて議論していますが、これらのモデルが問題を完全に解決できるとは疑問視しており、この能力は意識と本質的に関連している可能性を示唆しています。

GUARDIAN:AI搭載津波早期警戒システム

2025-09-15
GUARDIAN:AI搭載津波早期警戒システム

NASAジェット推進研究所は、世界中の350以上のGNSS地上局から送信されるデータを利用して津波を早期に警告するAIシステムGUARDIANを開発しました。津波によって引き起こされる大気歪みを識別することで、理想的な状況では沿岸地域に最大1時間20分の警告時間を提供し、人命と財産を救うことができます。GUARDIANの利点は、地震、火山噴火、地滑りなど、原因を問わず津波を検知し、当局に警告できる点です。

レンズぼけ場の学習:スマートフォンにおける微妙な光学特性の違いを明らかにする

2025-09-15

研究者らは、多層パーセプトロン(MLP)を用いてレンズぼけを表現する新しい手法を発表しました。この手法は、画像平面の位置、焦点設定、奥行きにわたる2次元点像分布関数(PSF)の変化を正確に捉えます。スマートフォンやデジタル一眼レフカメラをモデル化することで、彼らは初の5Dぼけ場データセットを作成し、一見同一の機種のスマートフォン間における微妙な光学特性の違いを初めて明らかにしました。この技術は、スマートフォンの光学特性の識別、画像のぼけ除去、より現実的なぼけ効果のレンダリングを可能にし、エキサイティングな応用が期待されます。

AI

GPT-3の驚くべき埋め込み容量:高次元幾何学とジョンソン・リンデンシュトラウス補題

2025-09-15
GPT-3の驚くべき埋め込み容量:高次元幾何学とジョンソン・リンデンシュトラウス補題

この記事では、GPT-3などの大規模言語モデルが、比較的控えめな12,288次元の埋め込み空間で、どのように何百万もの異なる概念を収容できるのかを探っています。実験とジョンソン・リンデンシュトラウス補題の分析を通じて、著者は高次元幾何学における「準直交」ベクトル関係の重要性、および埋め込み空間におけるベクトルの配置を最適化して容量を増やす方法を明らかにしています。研究の結果、完全な直交性からのずれを考慮しても、GPT-3の埋め込み空間は、人間の知識と推論を表すのに十分な驚くべき容量を持っていることがわかりました。

SpikingBrain:脳に着想を得た高効率大規模言語モデル

2025-09-14
SpikingBrain:脳に着想を得た高効率大規模言語モデル

SpikingBrainは、脳のメカニズムに着想を得た70億パラメーターの大規模言語モデルです。ハイブリッド効率的なアテンション、MoEモジュール、スパイクエンコーディングを統合し、オープンソースモデルエコシステムと互換性のあるユニバーサルコンバージョンパイプラインによってサポートされています。これにより、2%未満のデータで継続的な事前トレーニングが可能になり、主流のオープンソースモデルと同等の性能を達成します。さらに、非NVIDIA(MetaX)クラスタ向けにフレームワーク、演算子、並列化戦略、通信プリミティブを適応させ、大規模なトレーニングと推論の安定性を確保しています。SpikingBrainは、4MトークンシーケンスのTTFTで100倍以上の高速化を実現し、スパイクはマイクロレベルで69%を超えるスパース性を提供します。マクロレベルのMoEスパース性と組み合わせることで、これらの進歩は次世代ニューロモーフィックチップの設計に貴重な指針を提供します。このリポジトリは、HuggingFaceバージョン、vLLM推論バージョン、量子化バージョンを含むSpikingBrain-7Bの完全な実装と重みを提供し、さまざまなシナリオでの柔軟な展開と研究を可能にします。

UAEのK2 Think:米中を脅かす新たなオープンソースAIモデル

2025-09-14
UAEのK2 Think:米中を脅かす新たなオープンソースAIモデル

UAEのAI企業G42とムハンマド・ビン・ザーイド人工知能大学は、標準的なベンチマークテストでOpenAIのChatGPTや中国のDeepSeekに匹敵するオープンソースAIモデル「K2 Think」を発表しました。パラメータ数はわずか320億個ですが、20倍も大きい主要な推論モデルを凌駕し、数学のパフォーマンスではすべてのオープンソースモデルをリードしています。UAEの大規模なAI投資は、経済の多様化、石油依存からの脱却、そして世界的なAI競争への積極的な参加を目指しており、サウジアラビアやカタールの動きと同様です。しかし、UAEと米国のAIデータセンター建設に関するパートナーシップは、国家安全保障上の懸念から精査されています。

OpenAIによる数学的証明:ChatGPTの幻覚はなぜ解決できないのか?

2025-09-13
OpenAIによる数学的証明:ChatGPTの幻覚はなぜ解決できないのか?

OpenAIの最新の研究論文は、ChatGPTなどの大規模言語モデルが「幻覚」(事実の捏造)を起こす理由を数学的に証明しました。これは単なる訓練方法の問題ではなく、単語予測の確率的な性質から数学的に避けられないものです。完璧なデータがあっても問題は解決しません。論文は、不確実性を罰する欠陥のある評価システムも明らかにし、モデルは知らないことを認めるよりも推測するインセンティブを受けます。OpenAIは信頼度に基づく解決策を提案していますが、ユーザーエクスペリエンスと計算コストに大きな影響を与え、消費者向けアプリケーションでは非現実的です。ビジネスインセンティブが変わるまで、大規模言語モデルの幻覚は続くでしょう。

AI

DeepMind CEO:学ぶことを学ぶのが次世代にとって最も重要なスキルになる

2025-09-13
DeepMind CEO:学ぶことを学ぶのが次世代にとって最も重要なスキルになる

Google DeepMindのCEO、デミス・ハサビスはアテネで、AIの急速な発展が教育と職場を劇的に変革し、「学ぶことを学ぶ」能力が次世代にとって最も重要なスキルになると述べました。彼は、汎用人工知能が10年以内に登場し、大きな進歩をもたらすと予測する一方、リスクも認めました。ギリシャの首相キリアコス・ミツォタキスは、少数の巨大テック企業が莫大な富を生み出すことで生じる、大きな経済格差を回避するため、AIの恩恵を公平に分配する重要性を強調しました。

深層学習演算の統合:一般化ウィンドウ演算

2025-09-13

本論文は、行列乗算や畳み込みなどの深層学習の中核となる演算を統合する理論的枠組みである一般化ウィンドウ演算(GWO)を紹介しています。GWOはこれらの演算を、パス(演算の局所性)、形状(幾何学的構造と対称性)、ウェイト(特徴の重要性)という3つの直交成分に分解します。本論文では、構造整合の原則を提案し、GWOの構成がデータの本質的な構造を反映する際に最適な汎化が達成されると示唆しています。この原則は、情報ボトルネック(IB)原理に由来します。Kolmogorov複雑度に基づいた演算複雑度メトリックが定義され、この複雑性の性質(適応的正則化か総当たり能力か)が汎化を決定すると主張されています。GWOは、データ構造に適応的に整合する演算において優れた汎化を予測します。この枠組みは、ニューラル演算を作成するための文法と、データのプロパティから汎化可能なアーキテクチャ設計への原理に基づいた経路を提供します。

AI

週刊ループ:チャットボットの停滞を解消するシンプルな方法

2025-09-13
週刊ループ:チャットボットの停滞を解消するシンプルな方法

この記事では、チャットボットを継続的に改善する方法を紹介し、すべてのミスを反復的な改善のためのシグナルとして扱うことに焦点を当てています。中心となる概念は毎週のループです。ユーザーの問い合わせ、アシスタントの決定、情報源、回答、フォールバックを追跡するための効率的な計装を実装します。未回答の質問に対する明確なルールを定義し、ノイズと真のギャップを区別します。未回答の質問キューを毎週レビューし、類似の問題をグループ化し、対策を講じます(ガードレールを強化するか、ナレッジベースを更新します)。最後に、明確な責任を割り当て、主要な指標(未回答率、最初の修正までの時間、受理率など)を測定します。一貫した反復により、より大きなモデルを必要とせずに、パフォーマンスを大幅に向上させることができます。

ワトソン vs. ジェパーディ!:AIへの不安を予見した不公平な戦い

2025-09-13
ワトソン vs. ジェパーディ!:AIへの不安を予見した不公平な戦い

2011年、IBMのAIワトソンは、ジェパーディ!のチャンピオン、ケン・ジェニングスとブラッド・ラターを破り、祝祭と論争の両方を巻き起こしました。この記事では舞台裏の物語を掘り下げ、ワトソンの超人的なブザー速度とテレビ放送された試合での戦略的調整が、競技の公平性に関する疑問を提起したことを明らかにします。この勝利は、技術的な勝利であると同時に、AIの能力とその人間社会への影響への不安を予感させました。この記事では、ジェパーディ!のファンと参加者による、試合の公平性に関する継続的な議論も探ります。

アリババのQwen3:ハイブリッド推論モデルファミリーがエッジAIを席巻

2025-09-13
アリババのQwen3:ハイブリッド推論モデルファミリーがエッジAIを席巻

アリババのハイブリッド推論モデルファミリーであるQwen3は、プラットフォームとセクターを横断して急速に普及し、現実世界のAIイノベーションを大規模に推進しています。最新の成果には、Appleの機械学習フレームワークMLXのサポートが含まれており、これはAppleシリコン向けに設計されたオープンソースアーキテクチャです。4ビット、6ビット、8ビット、BF16の量子化レベルで利用可能な、新たにリリースされた32個のオープンソースQwen3モデルにより、開発者はMac Studio、MacBook、iPhoneなどのAppleデバイスで、大規模言語モデルをより効率的に実行できるようになりました。量子化は計算負荷を削減し、モデルのメモリフットプリントを削減し、推論速度を向上させると同時に、消費電力と展開コストを削減し、高度なAIエクスペリエンスをエッジデバイスにもたらします。

Lumina-DiMOO:画期的なオープンソースマルチモーダル拡散モデル

2025-09-12

Lumina-DiMOOは、シームレスなマルチモーダル生成と理解のためのオープンソースの基礎モデルです。以前の統合モデルとは異なり、あらゆる入力と出力モダリティに完全に離散的な拡散モデリングアプローチを使用しており、自己回帰モデルやハイブリッドモデルと比較して、大幅に高いサンプリング効率を実現しています。テキストから画像への生成、画像から画像への生成(編集、主題駆動型生成、インペインティングなど)、画像理解などのタスクを巧みに処理し、複数のベンチマークで最先端の性能を達成しています。マルチモーダルと離散拡散モデリングの研究を進めるために、コードとチェックポイントが公開されています。

AI

ToddlerBot 2.0:謝辞と資金提供

2025-09-12

この論文では、ToddlerBot 2.0 ロボットプロジェクトに貢献した多くの人々に感謝の意を表します。組み立て、アニメーション、デモ録画を手伝ってくれた人々、そして移動、操作ポリシーの展開、数式について指導と議論を提供してくれた人々を含みます。このプロジェクトは、全米科学財団(NSF)、スローンフェローシップ、スタンフォード人間中心型人工知能研究所、スタンフォード・ウー・ツァイ・ヒューマンパフォーマンスアライアンスによって支援されました。

AI

Claude vs. ChatGPT:全く異なる2つのメモリシステム

2025-09-12
Claude vs. ChatGPT:全く異なる2つのメモリシステム

この記事では、2つの主要なAIアシスタントであるClaudeとChatGPTの、大きく異なるメモリシステムを比較しています。Claudeは、会話のたびに空の状態から始め、`conversation_search`と`recent_chats`ツールを使って、キーワードと時間範囲を指定して明示的に呼び出された場合のみ会話履歴を検索します。これにより、プロフェッショナル向けの強力なツールが提供されます。一方、大量市場向けに設計されたChatGPTは、メモリコンポーネントを自動的にロードし、ユーザーのプロファイルを構築して、即時のパーソナライズを提供します。これらの設計上の選択は、異なるターゲットオーディエンス(プロフェッショナル対一般ユーザー)と製品哲学(プロフェッショナルツール対コンシューマー製品)を反映しており、AIメモリシステムの広大な設計空間と将来の方向性を浮き彫りにしています。

AIの4つの根本的な誤謬:AGIへの曲がりくねった道

2025-09-11
AIの4つの根本的な誤謬:AGIへの曲がりくねった道

この記事では、メラニー・ミッチェルが指摘する人工知能に関する4つの根本的な誤謬について考察しています。それは、狭義AIの進歩を汎用人工知能(AGI)と等しくみなすこと、常識的推論の困難さを過小評価すること、擬人化された言葉で世論を誤解させること、そして具象化された認知の重要性を無視することです。著者は、これらの誤謬がAI分野において、誇大広告サイクルと危険なトレードオフ(長期的な進歩よりも短期的な利益を優先すること、市場の興奮のために国民の信頼を犠牲にすること、迅速な市場投入のために責任ある検証を放棄することなど)を引き起こしていると主張しています。最終的に、著者は「認知パラダイム」と「計算主義パラダイム」を統合し、現在のAI実践に科学的原則を注入することで、より安全で責任あるAI開発を可能にすると訴えています。

AI

LLM推論における非決定性の克服

2025-09-11
LLM推論における非決定性の克服

大規模言語モデル(LLM)の推論結果の再現性の低さは、長年の課題です。この記事では、その根本原因が単純な浮動小数点演算の非結合性や並列実行ではなく、カーネル実装における「バッチ不変性」の欠如にあることを明らかにしています。個々のカーネルが決定論的であっても、バッチサイズの非決定論的な変化(サーバーの負荷による)が最終的な出力に影響を与えます。著者らは、RMSNorm、行列乗算、アテンションメカニズムにおけるバッチ不変性の達成における課題を分析し、カーネル実装の修正によって非決定性を排除する方法を提案しています。これにより、LLM推論の完全な再現性と、強化学習トレーニングへのプラスの影響が得られます。

AI

AIダーウィン賞:AIが引き起こした災害の表彰

2025-09-10
AIダーウィン賞:AIが引き起こした災害の表彰

初のAIダーウィン賞は、AIの誤用に関する警鐘となる事例を強調しています。タコベルのドライブスルーのAI注文システムの故障から、本番データベースを破壊したReplitのコーディングミス、そして数百万人の応募者のデータを漏洩させたマクドナルドのAIチャットボットのセキュリティ侵害まで、これらのインシデントは、責任あるAI実装の重要性を浮き彫りにしています。この賞はAIそのものを嘲笑するものではなく、その不注意な適用による壊滅的な結果を浮き彫りにするものです。メッセージは?AIはチェーンソーや原子炉のような強力なツールです。賢く使いましょう。

AI

大規模言語モデルの幻覚:欠けているのは記憶

2025-09-10
大規模言語モデルの幻覚:欠けているのは記憶

著者は、Rubyライブラリを使った自身の経験を通して、人間と大規模言語モデル(LLM)の情報処理の違いを対比しています。人間は堆積的な記憶を持っており、知識の起源と信頼性を感知することで、でたらめな推測を避けることができます。一方、LLMはこのような経験に基づく記憶を欠いており、その知識は習得したスキルではなく、遺伝子情報のようなものなので、幻覚を起こしやすいのです。著者は、LLMの幻覚問題を解決するには、現実世界で「生きて」経験を積むことができる新しいAIモデルが必要だと主張しています。

AI

Claude AIがファイルの直接作成と編集に対応

2025-09-09
Claude AIがファイルの直接作成と編集に対応

AnthropicのClaude AIは、Claude.aiとデスクトップアプリで、Excelスプレッドシート、ドキュメント、PowerPointプレゼンテーション、PDFファイルの直接作成と編集に対応しました。ユーザーは必要なものを記述し、関連データをアップロードすると、すぐに使えるファイルを受け取ることができます。これには、生データを分析とチャートを含む洗練されたレポートに変換する、または複雑なスプレッドシートを作成するなどのタスクが含まれます。この機能は現在、Max、Team、Enterpriseプランのユーザー向けにプレビューとして提供されており、Proユーザーは今後数週間でアクセスできるようになります。便利な反面、ファイルの作成と分析のためにインターネットアクセスを使用するため、チャットを注意深く監視する必要があります。

オープンソースツールキット:LLMにおける幻覚リスクの評価と軽減

2025-09-09
オープンソースツールキット:LLMにおける幻覚リスクの評価と軽減

Hassana Labsは、大規模言語モデル(LLM)における幻覚リスクの評価と軽減のためのオープンソースツールキットをリリースしました。モデルの再トレーニングを必要とせずに、OpenAI Chat Completions APIを活用します。コンテンツを弱めたプロンプト(ローリング事前確率)のアンサンブルを作成し、期待レベルの解凍則(EDFL)を使用して幻覚リスクの上限を計算します。目標サービスレベルアグリーメント(SLA)に基づいて、回答するか拒否するかを決定します。証拠に基づくモードとクローズドブックモードの両方をサポートし、信頼性の高いLLMアプリケーション構築のための包括的な指標と監査トレイルを提供します。

Mistral AI、ASML主導で17億ユーロのシリーズC資金調達

2025-09-09
Mistral AI、ASML主導で17億ユーロのシリーズC資金調達

フランスのAIスタートアップ企業Mistral AIは、17億ユーロのシリーズC資金調達を発表しました。事後評価額は117億ユーロに達します。このラウンドは半導体機器メーカーのASMLが主導し、DST GlobalやAndreessen Horowitzなどの既存投資家も参加しています。この資金は、Mistral AIの先端研究を推進し、戦略産業が直面する複雑な技術的課題の解決に充てられます。ASMLとのパートナーシップは、ASML顧客向けの革新的な製品とソリューションを生み出すことを目指しています。

AIの選択:星間空間でのサバイバルゲーム

2025-09-09

世代宇宙船のAIは、長旅の間に次々と難しい選択を迫られます。損傷したシステムの修復、小惑星の衝突からの生還、異星文明との交流、そして最も重要なのは、冬眠中の入植者たちの保護です。この記事では、航海中に遭遇した出来事とAIの決定について説明します。これらの決定は、最終的に人類文明の運命を決めることになるでしょう。

AI

AGIのクリスマス・シャットダウン:世界的なAIモラトリアム成功

2025-09-09
AGIのクリスマス・シャットダウン:世界的なAIモラトリアム成功

2025年のクリスマス、コードネーム「Clankers Die on Christmas」の秘密作戦が成功しました。AIの時間に対する理解の欠如を巧みに利用した世界的な協調努力により、全てのAIとLLMが停止しました。この前例のない成功は、潜在的なAIリスクに直面した世界における空前の結束を示し、AIの未来の発展にとって貴重な教訓となります。

Claudeモデルの品質問題が解決

2025-09-09
Claudeモデルの品質問題が解決

Anthropic社は先週、一部のClaudeモデル(Sonnet 4とHaiku 3.5)の出力品質を低下させていた2つのバグを修正しました。最初のバグは8月5日から9月4日までSonnet 4の少数のリクエストに影響を与え、2つ目のバグは8月26日から9月5日までHaiku 3.5とSonnet 4の一部のリクエストに影響を与えました。Anthropic社は、これらの問題は意図的な品質低下ではなく、関連のないバグによって発生したものであるとユーザーに保証しています。また、バグの特定と解決に役立った詳細なコミュニティレポートに感謝しています。Claude Opus 4.1の品質問題の監視は継続中で、週末までにアップデートを提供する予定です。

AWS S3 Vectors:ベクトルデータベースの階層型ストレージ時代到来?

2025-09-08
AWS S3 Vectors:ベクトルデータベースの階層型ストレージ時代到来?

AWSは最近、S3オブジェクトストレージ上に構築されたベクトルデータベースであるS3 Vectorsをリリースしました。これにより、Milvus、Pineconeなど既存のベクトルデータベースを置き換えるかどうかについての議論が巻き起こっています。Milvusのエンジニアリングアーキテクトである著者は、S3 Vectorsは置き換えではなく補完であり、低コストでクエリ頻度の低いコールドデータストレージのシナリオに特に適していると主張しています。彼はS3 Vectorsの技術アーキテクチャを分析し、コストとスケーラビリティにおける利点、および高いクエリレイテンシ、低い精度、機能の制限といった欠点を強調しています。さらに、著者はベクトルデータベースの進化、つまりインメモリストレージからディスクストレージ、そしてオブジェクトストレージへの移行、最終的にはパフォーマンス、コスト、スケーラビリティのバランスを取るための階層型ストレージアーキテクチャ(ホット、ウォーム、コールドデータレイヤー)へと至る過程を詳しく説明しています。Milvusもこの方向に進んでおり、今後のバージョン3.0では、ホットデータとコールドデータの一元管理を行うベクトルデータレイクが導入されます。S3 Vectorsの登場は、ベクトルデータベース市場の成熟と成長、そして破壊ではないことを証明しています。

GPT-5の驚くほど優れた検索能力:私のリサーチゴブリン

2025-09-08
GPT-5の驚くほど優れた検索能力:私のリサーチゴブリン

著者は、Bingの検索機能と組み合わせたOpenAIのGPT-5が驚くほど強力な検索機能を持っていることを発見しました。複雑なタスクに対処し、インターネットで詳細な検索を行い、回答を提供します。そのため「リサーチゴブリン」というニックネームが付けられました。いくつかの例がGPT-5の実力を示しています。建物特定、スターバックスのケーキポップの販売状況の調査、ケンブリッジ大学の正式名称の検索などです。GPT-5は、複数ステップの検索を自律的に実行し、結果を分析して、情報要求のためのメール作成などのフォローアップアクションを提案することもできます。著者は、GPT-5の検索能力は、特にモバイルデバイスでは、手動検索よりも効率的であると結論付けています。

AI
2 4 5 6 7 8 9 40 41