ChatGPTに迫る勢い…Google China元社長の中国ユニコーンが手掛けた生成AIモデル「Yi-34B」が気になる
Techable / 2024年2月1日 18時0分
OpenAIの対話型AI“ChatGPT”が登場して早1年。昨今はさまざまな国で新たな生成AIが開発されているものの、いまだにChatGPTが完全独走の状態だ。
ところが、最近になって2023年に設立されたばかりの中国の生成AIスタートアップ“01.AI”の大規模言語モデル「Yi-34B」がChatGPTに迫る勢いでユーザー数を伸ばし続けている。
Google Chinaの元CEOが設立した01.AI01.AI(零一万物)は、中国・北京を拠点に、グローバルに展開している生成AI企業だ。2023年11月にユニコーンの仲間入りを果たし、注目を集めている。
創設者はGoogle Chinaの元社長の李 開復(リー・カイフ)氏。カーネギーメロン大学にてコンピューターサイエンスの博士号を取得した人物で、AIに関する書籍「AI Superpowers」の著者として知られている。
同社の使命は、LLMによって人間の生産性を向上させ、経済や社会に大きな変化をもたらす「AI 2.0時代」に貢献することだ。多くのAI企業が“人間を超えるAIの能力”をアピールするなか、あくまでも“人”を基盤にした「Human+AI」をモットーとしている。
中国発・オープンソースの大規模言語モデル「Yi-34B」そんな01.AIが提供している生成AIがYi-34Bだ。同モデルはゼロからトレーニングされたオープンソース型の大規模言語モデル。英語・中国語に対応しており、個人・学術・商用(とくに中小企業)の目的に適しているという。
Yi-34Bは、Meta AIの大規模言語モデル“LLaMA”と同じく「Transformer 構造」を採用。Transformer構造に基づいたLLaMAは優れた安定性、信頼性の高いコンバージェンス、堅牢な互換性を誇り、オープンソース モデルの新たな基盤として注目されている。
LLaMAと同じTransformer構造を採用することで、Yi-34BはLLaMA エコシステム内の既存のツール、ライブラリ、リソースを活用することが可能に。新しいツールを作成する必要がなくなり、開発効率が向上する。
より多様な応答を生成するチャットモデルYi-34Bのチャットモデルは、Supervised Fine-Tuning(SFT)を使用した専用のトレーニングを受けている。ほかの標準的なチャットモデルと比較して、より多様な応答を生成するため、クリエイティブ・シナリオなどのさまざまなタスクで役立つだろう。
さらに、この多様性により高品質の応答が生成される可能性が高まり、その後の強化学習トレーニングが有利になると期待されている。
評価サイトで「Yi-34B」がChatGPTの次にランクインYi-34Bの注目すべき点は、比較的に少ないパラメーター数でありながらも高評価を得ていることだ。
トップを走るChatGPTはパラメーター数3550億、競合となるFalcon-180Bがパラメーター1800億、LlaMa2‐70Bが700億だが、Yi-34Bは340億である。
ほかの言語モデルよりもバロメータ数が少ないものの、2023年10月には中国の言語モデルのベンチマークサイトSuperCLUEで、Yi-34B(中国語機能)がBaidu ERNIE、Qwen、Baichuanなどを上回り、GPT-4に次いで2位にランクイン。
その後12月には、言語モデルのベンチマークサイトAlpecaEvalで、Yi-34B(英語機能)は競合を追い抜きChatGPTの次にランクインした。
どうやら、パラメーター数が多ければいいというわけではないらしい。ちなみに、NVIDIAのサイトからYi-34Bのお試し版が利用可能だ。英語と中国語がメインだが、日本語でも答えてくれた。気になる方は試しみてはいかがだろう。
今回のYi-34Bのように、ChatGPTの地位を脅かすAIは度々登場している。たとえば、中国科学院・清華大学研究者らが開発した“Xwin-LM”もその1つだ。
中国のLLM系の生成AIは現在130もあり、世界全体の40%を占めるという。米国が世界シェア50%でリードするなか、今後もますます熾烈な戦いが予想されている。
参考・引用元:01.AI公式サイト
(文:MI001YOU)
外部リンク
この記事に関連するニュース
-
ストックマーク LLM組織の高橋が執筆した日本語LLMの分析論文が LLM領域の査読付き国際学会「PACLIC 38」に採択
PR TIMES / 2024年11月3日 23時40分
-
オルツの「LHTM-OPT2」、日本語RAG(検索拡張生成)で軽量型LLMとして世界最高の精度と推論速度を実現
PR TIMES / 2024年10月29日 14時45分
-
オルツの「LHTM-OPT2」、日本語RAG(検索拡張生成)で軽量型LLMとして世界最高の精度と推論速度を実現
共同通信PRワイヤー / 2024年10月29日 11時0分
-
押さえておきたいLLM用語の基礎解説 第3回 学習率・事前学習・クリーニング・ファインチューニング・インストラクションチューニング・プレファレンスチューニング
マイナビニュース / 2024年10月29日 9時0分
-
ELYZA、Llama 3.1ベースの日本語モデルを開発
PR TIMES / 2024年10月25日 12時45分
ランキング
-
1【最新】Wi-Fiルーターだけはいいものを買え、今ならこれでキマリだ
ASCII.jp / 2024年11月23日 17時0分
-
2Switchで遊べるヴァンサバ系ゲーム5選!強化しまくって大量の敵を一掃する「俺TUEEE!」が超気持ちいい
インサイド / 2024年11月23日 15時0分
-
3ただの古いパイプ椅子だと思ったら…… JR東日本が販売している“鉄道古物”にツッコミ殺到 「この商品が刺さる層いるのか」「嘘ではない」
ねとらぼ / 2024年11月23日 20時40分
-
4プロが教える「PCをオフにする時はシャットダウンとスリープ、どっちがいいの?」 理想の選択肢は意外にも…… 「有益な情報ありがとう」「感動しました
ねとらぼ / 2024年11月20日 22時0分
-
5「しぬwww」「怖すぎ」 かわいいカメを“絵文字ミックス”したら…… 爆誕した“バケモノ”が2200万表示 衝撃ビジュアルに「笑いすぎて涙」
ねとらぼ / 2024年11月23日 20時20分
記事ミッション中・・・
記事にリアクションする
記事ミッション中・・・
記事にリアクションする
エラーが発生しました
ページを再読み込みして
ください