インドのAI企業Sarvam、巨大モデルで挑む「小国の大戦略」
インドのSarvamが105Bパラメータの大規模言語モデルを発表。米中の巨大企業に対抗する「効率的なオープンソース戦略」の勝算は?
16兆のトークンで訓練された105BパラメータのAIモデル。インドのスタートアップSarvamが火曜日に発表したこの数字は、同社の野心的な挑戦を物語っている。OpenAIや中国の巨大企業が支配するAI市場で、「小さく効率的な」オープンソースモデルが勝機を見出せるのだろうか。
インドの「AI自立」戦略
Sarvamの新モデル発表は、ニューデリーで開催されたIndia AI Impact Summitで行われた。このタイミングは偶然ではない。インド政府が外国のAIプラットフォームへの依存を減らし、現地言語に特化したモデル開発を推進する政策と完全に一致している。
同社が発表したラインナップは多岐にわたる。30Bパラメータと105Bパラメータの大規模言語モデル、テキスト音声変換、音声テキスト変換、そして文書解析用の視覚モデルまで。2024年10月にリリースした2BパラメータのSarvam 1から、わずか4ヶ月で50倍以上の規模へと飛躍した。
特に注目すべきは、両モデルが採用する「Mixture-of-Experts」アーキテクチャだ。全パラメータの一部だけを同時に活性化することで、計算コストを大幅に削減する。30Bモデルは32,000トークンのコンテキストウィンドウでリアルタイム会話に特化し、105Bモデルは128,000トークンで複雑な多段階推論タスクに対応する。
「ゼロから」の挑戦
Sarvamが強調するのは、これらのモデルが既存のオープンソースシステムの微調整ではなく、「ゼロから」訓練されたことだ。30Bモデルは約16兆トークンで事前訓練され、105Bモデルは複数のインド言語を含む数兆トークンで訓練された。
この訓練は、インド政府支援のIndiaAI Missionの計算リソース、データセンター運営会社Yottaのインフラ支援、NVIDIAの技術支援を受けて実現した。政府、民間、外国企業の連携モデルは、インドのAI戦略の象徴的な事例と言える。
同社共同創設者のPratyush Kumar氏は発表会で、「スケーリングには慎重なアプローチを取りたい。無闇に拡大するのではなく、本当に重要なタスクを理解し、それに向けて構築したい」と述べた。この発言は、パラメータ数の競争に走りがちなAI業界への警鐘とも受け取れる。
日本企業への示唆
Sarvamのアプローチは、日本の企業にとって重要な示唆を含んでいる。ソニーやトヨタといった日本の大企業も、米中の巨大AI企業への依存を懸念している。特に、日本語に特化したAIモデルの必要性は高まっている。
Sarvamが計画する「Sarvam for Work」という企業向けツールや、「Samvaad」という対話AI エージェントプラットフォームは、日本企業が検討すべきB2B戦略のヒントを提供している。重要なのは、技術的な優位性よりも、実際のビジネス課題解決に焦点を当てることだ。
2023年創設のSarvamは、Lightspeed Venture Partners、Khosla Ventures、Peak XV Partners(旧Sequoia Capital India)から5000万ドル以上の資金調達を完了している。この投資額は、インドのAIスタートアップとしては大規模だが、OpenAIの数十億ドル規模と比較すれば、まさに「小さな巨人」の挑戦と言える。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
AIデータセンター特化スタートアップのFluidstackが$180億評価額で$10億調達交渉中。Anthropicとの$500億契約が示す、ハイパースケーラー依存からの脱却という新潮流を読み解く。
インドが外資クラウド企業に20年間の税優遇を付与する一方、GoogleやMicrosoftのデータセンター建設現場では農民との衝突が深刻化。AI infrastructure投資の裏側に潜む土地収用問題を読み解く。
OpenAIのCEOサム・アルトマン氏の自宅が、わずか数日間で2度にわたり襲撃された。モロトフカクテルから銃撃へ——シリコンバレーの技術リーダーへの暴力は、何を示唆しているのか。
イーロン・マスクが掲げた「超人的能力」の夢。ニューラリンクの脳コンピューターインターフェースは今どこにあるのか。科学的現実と壮大な野望の間で何が起きているのかを読み解きます。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加