1. トップ
  2. 新着ニュース
  3. 経済
  4. ビジネス

中華製AI「DeepSeek」はNVIDIAを駆逐するか 無料で性能はChatGPTにほぼ引けを取らない

東洋経済オンライン / 2025年1月28日 22時10分

これらの博士研究者らは、(前出の)中国国内の大学で高度なAI技術力を養った。

DeepSeekに採用された彼らは当初から、LLMの開発に必要な部品を十分に入手できないなど苦難の道を強いられた。が、こうしたハードウエアの不足が結果的に高度なソフトウエアの技術力を育むことにつながった。

アメリカのバイデン前政権の中国に対する輸出規制により、DeepSeekのような中国企業は(OpenAIなどアメリカ企業が機械学習に使っている)エヌビディア製GPU「H100」など最先端の半導体チップを使うことができない。

その代わりにDeepSeekは(中国への禁輸措置を免れた)「H800」と呼ばれるGPUを多数輸入して、LLMの機械学習に投入した。H800はH100など最先端商品の性能をあえて大幅にダウンさせた、言わば「格落ち製品」である(ちなみに現在では、このH800さえ中国への輸出が禁止されている)。

このように性能が落ちるGPUを多数使って、安くAIを作ることができた理由は開発手法の違いにある。

DeepSeekは「MoE(Mixture of Experts:専門家の集合)」と呼ばれる特殊な手法を採用している。これはLLMのようなAIモデルの全体を使うのではなく、必要に応じて特定のタスク(仕事)に最適化された「専門家(エキスパート)」と呼ばれる部分モデルだけを動かす仕組みだ。このようにしてAIモデルを効率化することで、開発コストを抑えながら性能を向上させることができるという。

ほかにも、DeepSeekは「Knowledge Distillation(知識蒸留)」と呼ばれる手法を採用することで開発コストを抑えている。これはOpenAIのGPT-4oなど同業他社の大規模言語モデルを言わば「教師役」として使い、その膨大な知識やパラメーター(AIの基本的性能を決める変数)をDeepSeekのような「生徒役」が直に受け継ぐことによって、より高速かつ効率的にAI製品を開発する手法だ。

東大入試の数学問題を解かせてみたら…

これらの創意工夫によって開発されたチャットボット「DeepSeek」(社名と製品名が同じ)は昨年12月と今月、それぞれ汎用型の「V3」と推論型の「R1」という個別のバージョン名でリリースされたが間もなく一体化された。この統合版DeepSeekの入出力画面はOpenAIのChatGPTとよく似ている。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください