ソース: CryptoNewsNet 原題: アメリカのオープンソースAIギャンビット: 2つの研究所, 1つの質問—アメリカは競争できるのか? オリジナルリンク: 今週、2つのアメリカのAIラボがオープンソースモデルをリリースしました。どちらも中国の公にアクセス可能なAIシステムの支配に競争する方法という同じ問題に対して、劇的に異なるアプローチを取っています。
Deep Cogitoは、創設者のDrishan Aroraが「米国企業による最高のオープンウェイトLLM」と呼ぶ、6710億パラメータの大規模モデルCogito v2.1を発表しました。
あまり急がないでください、と反論したのはアレンAI研究所で、彼らは「完全にオープンなベースモデル」としてOlmo 3を発表しました。Olmo 3は、トレーニングデータとコードを含む完全な透明性を誇っています。
皮肉なことに、Deep Cognitoのフラッグシップモデルは中国の基盤の上に構築されています。アローラは、Cogito v2.1が「2024年11月のオープンライセンスのDeepseekベースモデルからフォークしている」と認めました。
それは、中国のモデルを微調整することがアメリカのAIの進歩にあたるのか、あるいはそれがアメリカの研究所がどれほど遅れをとっているかを証明するだけなのかという批判と議論を引き起こしました。
それにもかかわらず、CogitoがDeepSeekに対して示す効率の向上は実際のものです。
Deep Cognitoは、Cogito v2.1がDeepSeek R1よりも60%短い推論チェーンを生成し、競争力のあるパフォーマンスを維持することを主張しています。
アローラが「反復蒸留と増幅」と呼ぶ手法を使用し—モデルが自己改善ループを通じてより良い直感を育むように教える—このスタートアップは、RunPodとNebiusのインフラを使用してわずか75日でモデルを訓練しました。
もしベンチマークが正しければ、これは現在アメリカのチームによって維持されている最も強力なオープンソースのLLMになるでしょう。
これまでのところ、中国はオープンソースAIにおいてペースを設定しており、米国企業は競争力を維持するために、中国のベースモデルにますます依存しています—静かに、または公然と。
そのダイナミクスはリスクがあります。中国の研究所が世界中のオープンAIのデフォルトのインフラになると、米国のスタートアップは技術的独立性、交渉力、および業界標準を形成する能力を失います。
オープンウェイトAIは、すべての下流製品が依存する生のモデルを誰が制御するかを決定します。
現在、中国のオープンソースモデル(DeepSeek、Qwen、Kimi、MiniMax)は、安価で迅速、高効率、かつ常に更新されているため、世界的な採用を支配しています。
多くの米国のスタートアップは、彼らの上にすでに構築しており、公然とそれを認めることを避けているにもかかわらず。
つまり、アメリカの企業は外国の知的財産、外国のトレーニングパイプライン、外国のハードウェア最適化の上にビジネスを構築しているということです。戦略的には、アメリカはかつて半導体製造で直面していたのと同じ立場に置かれています:ますます他の誰かのサプライチェーンに依存するようになっています。
Deep Cogitoのアプローチ—DeepSeekフォークから始まる—は、上昇(迅速な反復)と、下降(依存性)を示しています。
アレン研究所のアプローチ—完全な透明性を持ってOlmo 3を構築する—は、代替案を示しています:もしアメリカがオープンなAIのリーダーシップを望むなら、データからトレーニングレシピ、チェックポイントまで、自らスタックを再構築する必要があります。それは労働集約的で遅いですが、基盤となる技術に対する主権を守ります。
理論的には、DeepSeekが気に入っていてオンラインで使用している場合、Cogitoはほとんどの場合より良い回答を提供します。API経由で使用する場合、効率の向上により良い応答を生成するために支払う金額が少なくなるので、二倍幸せになります。
アレン研究所は逆のアプローチを取りました。オルモ 3 モデルの全ファミリーは、5.9兆トークンのトレーニングデータセットであるドルマ 3 と共に登場し、すべてのトレーニング段階からの完全なコード、レシピ、およびチェックポイントが含まれています。
その非営利団体は、70億および320億のパラメータを持つ3つのモデルバリアント—Base、Think、Instruct—をリリースしました。
「AIにおける真のオープン性は、単なるアクセスに関するものではなく、信頼、説明責任、そして共有された進展に関するものです」とその研究所は述べました。
Olmo 3-Think 32Bは、そのスケールで初の完全オープン推論モデルであり、Qwen 3のような同等のモデルの約6分の1のトークンで訓練されていますが、競争力のあるパフォーマンスを達成しています。
Deep Cognitoは、8月にBenchmark主導で$13 百万ドルのシード資金を確保しました。このスタートアップは、「はるかに優れたデータセットで、より多くのコンピュートを使用して」6710億パラメータまでのフロンティアモデルをリリースする計画です。
一方、NvidiaはOlmo 3の開発を支援し、副社長のKari Briskiは「開発者がオープンでアメリカ製のモデルでAIをスケールさせることが重要である」と述べました。
その研究所はGoogle CloudのH100 GPUクラスターでトレーニングを行い、MetaのLlama 3.1 8Bよりも2.5倍少ない計算要件を達成しました。
Cogito v2.1は無料のオンラインテストが可能です。このモデルはダウンロードできますが、高性能なカードが必要ですので注意してください。
Olmoはテスト用に利用可能です。モデルはダウンロードできます。これらは選択に応じてより消費者に優しいです。
73.33K 人気度
62.31K 人気度
64.76K 人気度
16.96K 人気度
16.43K 人気度
アメリカのオープンソースAIギャンビット:二つのラボ、一つの質問—アメリカは競争できるか?
ソース: CryptoNewsNet 原題: アメリカのオープンソースAIギャンビット: 2つの研究所, 1つの質問—アメリカは競争できるのか? オリジナルリンク: 今週、2つのアメリカのAIラボがオープンソースモデルをリリースしました。どちらも中国の公にアクセス可能なAIシステムの支配に競争する方法という同じ問題に対して、劇的に異なるアプローチを取っています。
Deep Cogitoは、創設者のDrishan Aroraが「米国企業による最高のオープンウェイトLLM」と呼ぶ、6710億パラメータの大規模モデルCogito v2.1を発表しました。
あまり急がないでください、と反論したのはアレンAI研究所で、彼らは「完全にオープンなベースモデル」としてOlmo 3を発表しました。Olmo 3は、トレーニングデータとコードを含む完全な透明性を誇っています。
皮肉なことに、Deep Cognitoのフラッグシップモデルは中国の基盤の上に構築されています。アローラは、Cogito v2.1が「2024年11月のオープンライセンスのDeepseekベースモデルからフォークしている」と認めました。
それは、中国のモデルを微調整することがアメリカのAIの進歩にあたるのか、あるいはそれがアメリカの研究所がどれほど遅れをとっているかを証明するだけなのかという批判と議論を引き起こしました。
それにもかかわらず、CogitoがDeepSeekに対して示す効率の向上は実際のものです。
Deep Cognitoは、Cogito v2.1がDeepSeek R1よりも60%短い推論チェーンを生成し、競争力のあるパフォーマンスを維持することを主張しています。
アローラが「反復蒸留と増幅」と呼ぶ手法を使用し—モデルが自己改善ループを通じてより良い直感を育むように教える—このスタートアップは、RunPodとNebiusのインフラを使用してわずか75日でモデルを訓練しました。
もしベンチマークが正しければ、これは現在アメリカのチームによって維持されている最も強力なオープンソースのLLMになるでしょう。
なぜ重要なのか
これまでのところ、中国はオープンソースAIにおいてペースを設定しており、米国企業は競争力を維持するために、中国のベースモデルにますます依存しています—静かに、または公然と。
そのダイナミクスはリスクがあります。中国の研究所が世界中のオープンAIのデフォルトのインフラになると、米国のスタートアップは技術的独立性、交渉力、および業界標準を形成する能力を失います。
オープンウェイトAIは、すべての下流製品が依存する生のモデルを誰が制御するかを決定します。
現在、中国のオープンソースモデル(DeepSeek、Qwen、Kimi、MiniMax)は、安価で迅速、高効率、かつ常に更新されているため、世界的な採用を支配しています。
多くの米国のスタートアップは、彼らの上にすでに構築しており、公然とそれを認めることを避けているにもかかわらず。
つまり、アメリカの企業は外国の知的財産、外国のトレーニングパイプライン、外国のハードウェア最適化の上にビジネスを構築しているということです。戦略的には、アメリカはかつて半導体製造で直面していたのと同じ立場に置かれています:ますます他の誰かのサプライチェーンに依存するようになっています。
Deep Cogitoのアプローチ—DeepSeekフォークから始まる—は、上昇(迅速な反復)と、下降(依存性)を示しています。
アレン研究所のアプローチ—完全な透明性を持ってOlmo 3を構築する—は、代替案を示しています:もしアメリカがオープンなAIのリーダーシップを望むなら、データからトレーニングレシピ、チェックポイントまで、自らスタックを再構築する必要があります。それは労働集約的で遅いですが、基盤となる技術に対する主権を守ります。
理論的には、DeepSeekが気に入っていてオンラインで使用している場合、Cogitoはほとんどの場合より良い回答を提供します。API経由で使用する場合、効率の向上により良い応答を生成するために支払う金額が少なくなるので、二倍幸せになります。
アレン研究所は逆のアプローチを取りました。オルモ 3 モデルの全ファミリーは、5.9兆トークンのトレーニングデータセットであるドルマ 3 と共に登場し、すべてのトレーニング段階からの完全なコード、レシピ、およびチェックポイントが含まれています。
その非営利団体は、70億および320億のパラメータを持つ3つのモデルバリアント—Base、Think、Instruct—をリリースしました。
「AIにおける真のオープン性は、単なるアクセスに関するものではなく、信頼、説明責任、そして共有された進展に関するものです」とその研究所は述べました。
Olmo 3-Think 32Bは、そのスケールで初の完全オープン推論モデルであり、Qwen 3のような同等のモデルの約6分の1のトークンで訓練されていますが、競争力のあるパフォーマンスを達成しています。
Deep Cognitoは、8月にBenchmark主導で$13 百万ドルのシード資金を確保しました。このスタートアップは、「はるかに優れたデータセットで、より多くのコンピュートを使用して」6710億パラメータまでのフロンティアモデルをリリースする計画です。
一方、NvidiaはOlmo 3の開発を支援し、副社長のKari Briskiは「開発者がオープンでアメリカ製のモデルでAIをスケールさせることが重要である」と述べました。
その研究所はGoogle CloudのH100 GPUクラスターでトレーニングを行い、MetaのLlama 3.1 8Bよりも2.5倍少ない計算要件を達成しました。
Cogito v2.1は無料のオンラインテストが可能です。このモデルはダウンロードできますが、高性能なカードが必要ですので注意してください。
Olmoはテスト用に利用可能です。モデルはダウンロードできます。これらは選択に応じてより消費者に優しいです。