オルツの「LHTM-OPT2」、日本語RAG(検索拡張生成)で軽量型LLMとして世界最高の精度と推論速度を実現
共同通信PRワイヤー / 2024年10月29日 11時0分
さらに、RAG評価においては、国内の全ての軽量型LLM(パラメータ数が10B以下のLLM)を上回る高い精度を達成し、「JGLUE(Japanese General Language Understanding Evaluation)」ベンチマークや「Japanese MT-Bench(MTベンチ)※3」でも、軽量型LLMとしての最高スコアを記録しました。
推論速度に関しては、SambaNova社の協力を得て、日本語推論において平均速度500TPS(トークン/秒)、最大速度796TPSを確認しました。この速度は、日本語LLM推論速度の最高記録※4 です。
※1 世界最高精度・最高スコア:
「弊社が独自に開発した日本語WikipediaデータによるRAGデータセット」というLLM・RAGベンチマークによる評価で、軽量型LLMとして、パラメータ数が10B以下のモデルの中での比較として国内トップスコアを達成。
(2024年10月15日時点。自社調べ)
※2 これまでの東京大学入学試験問題及び解答等:https://www.u-tokyo.ac.jp/ja/admissions/undergraduate/e01_04.html
※3 「Japanese MT-Bench」はStability AI社が提供しているベンチマークテストです。2024年10月15日に性能評価した結果、軽量型LLMとして最高点の評価を得ました。ベンチマークテストとは、定められた基準を元にその性能を測定する方法で、「Japanese MT-Bench」はGPT-4を評価者としたものです。
※4 最高記録:
ArtificialAnalysis.ai によると、既存のLLMでは、Cerebrasが最速の2148 TPS で、SambaNovaが2番の速度(462 TPS)。ただし、日本語専用のLLM超高速推論は、オルツとSambaNova社が初めて実現しました。
(2024年10月15日時点。自社調べ)
https://artificialanalysis.ai/#providers
オルツは、今後も「LHTM-OPT」シリーズの開発と提供を通じて、より高精度で効率的な言語モデルの開発を進め、世界水準の技術で "アジアにおけるOpenAI” の地位確立を目指します。そして、顧客へ最高品質のソリューションを提供することで、日本企業の労働生産性向上に資する取組みを推進してまいります。
この記事に関連するニュース
-
オルツ、AI Singaporeと提携し、アジア圏主導の生成AI分野の成長を目指して技術提供を開始
PR TIMES / 2024年11月8日 18時15分
-
オルツ、AI Singaporeと提携し、アジア圏主導の生成AI分野の成長を目指して技術提供を開始
共同通信PRワイヤー / 2024年11月8日 16時0分
-
オルツ、SambaNovaとのパートナーシップを発表
PR TIMES / 2024年11月6日 11時0分
-
オルツ、SambaNovaとのパートナーシップを発表
共同通信PRワイヤー / 2024年11月6日 11時0分
-
オルツの「LHTM-OPT2」、日本語RAG(検索拡張生成)で軽量型LLMとして世界最高の精度と推論速度を実現
PR TIMES / 2024年10月29日 14時45分
ランキング
-
1相鉄かしわ台駅、地元民は知っている「2つの顔」 東口はホームから300m以上ある通路の先に駅舎
東洋経済オンライン / 2024年11月22日 6時30分
-
2ジャパネット2代目に聞く「地方企業の生きる道」 通販に次ぐ柱としてスポーツ・地域創生に注力
東洋経済オンライン / 2024年11月22日 8時0分
-
3日本史の偉人「意外と二面性ある」驚きのトップ3 戦国時代や幕末の偉人も、どんな二面性?
東洋経済オンライン / 2024年11月22日 9時20分
-
4会社員が考える“テレワークのデメリット” 「会話不足」「公私の切り替えが曖昧」を超えた1位は?
ITmedia ビジネスオンライン / 2024年11月22日 7時0分
-
5「ドラクエIII」最新リメイク、世代と国境の壁に挑む 「おじさんのRPG」を超えられるか
東洋経済オンライン / 2024年11月22日 13時30分
複数ページをまたぐ記事です
記事の最終ページでミッション達成してください