マーク・ザッカーバーグ氏インタビュー「なぜAIを無料公開するのか」
ニューズウィーク日本版 / 2024年5月14日 16時0分
(24:57)
興味深いのは、70Bのモデルを15兆トークンで学習させたところ、精度が上がり続けたということ(湯川解説:トークンとはデータ量を示す単位で、英語の場合1つの単語が約1トークン)。それだけ学習させれば、さすがにそれ以上学習させても性能の向上は見込めないと思っていたのだが、それでも学習させればさせるほど性能は向上した。性能向上が鈍化する兆しがなかった。もっと70Bの学習を続けたかったんだけど、さすがにLlama4の学習にも取り組みたかったので、仕方なく70Bの学習はいったん打ち切った。(湯川解説:中小規模のモデルでも学習データを増やすことで性能が向上し続ける可能性があるということ。Llama3の中規模モデルはLlama2の大規模モデルと同等の性能が出ると言われるが、今後学習データを増やすことで、より高性能な中小モデルが登場する可能性がある)
【AIの指数関数的な進化はいつまで続くのか】
(26:20)
誰にも分からない。多分今100億ドル、1000億ドルを投資してもスケール則(AIモデルの規模を大きくすればするほど、性能が向上するというのではないかという仮説)が十分続くのではないかと思っている。でもその先は分からない。この先もこのペースで指数関数的にAIが進化するのかどうか、誰にも分からないと思う。
ただ歴史的に見ても技術はいつか何らかの壁にぶつかる。今はすごいペースで技術が進化しているので、少々の壁なら超えることができているけれど、それがいつまで続くのか誰にも分からない。
過去1、2年はGPU不足が壁になった。その壁もかなり解消されたので、さらに多くの資本が投入されようとしている。それがどこまでいくのか。でも投資対効果が行き着くところまで行くまでに、エネルギー不足の壁にぶつかると思う。電力供給は政府によって規制されている。発電所や送電施設の建設など、政府によって多くが規制されているので、実現するまでに長い時間が必要になる。
今のデータセンターは50メガワットから150メガワット規模。まだだれも1ギガワットのデータセンターを構築していない。いずれだれかが建設するだろうけど、何年も先になるだろう。
【なぜオープンソースにするのか】
(1:06:01)
すべてのソフトをオープンソースで公開しているわけではない。Instagramのコードはオープンにしていない。オープンソースにしているのは、もっと基本的なインフラ部分のコード。サーバーや、ネットワークスイッチ、データセンターなどのデザインをオープンソースにしている。そのおかげでわれわれのサーバーデザインが業界標準になった。そのデザインをベースに周辺パーツも安価で大量生産されるようになり、多くの人がその恩恵を受けたし、われわれにとっても何十億ドルものコスト削減につながった。
この記事に関連するニュース
-
そもそも「Copilot+ PC」とは何なのか?
ASCII.jp / 2024年7月14日 10時0分
-
New Relic、オブザーバビリティプラットフォーム「New Relic」とNVIDIA NIMの統合により、企業のAI導入とROIの向上を加速
PR TIMES / 2024年7月11日 13時45分
-
Google、オープンな生成AIモデル「Gemma 2」リリース 270億パラメータモデル追加
ITmedia NEWS / 2024年6月28日 9時33分
-
Google、オープンLLM「Gemma 2」公開、2倍以上のサイズのモデルに匹敵する効率性
マイナビニュース / 2024年6月28日 9時22分
-
オンプレミス導入も可能な高性能日本語LLM「Llama 3 neoAI 8B Chat v0.1」を公開
PR TIMES / 2024年6月26日 16時45分
ランキング
-
1米副大統領候補のバンス氏、台湾へのパトリオット供与遅れを批判「ウクライナのせい」
産経ニュース / 2024年7月17日 14時38分
-
2トランプ氏は「神の手に守られた救世主」 暗殺未遂、個人崇拝に拍車
AFPBB News / 2024年7月17日 16時29分
-
3「将軍」最多25ノミネート=主演の真田広之さん候補―米エミー賞
時事通信 / 2024年7月18日 4時53分
-
4百貨店で大規模火災 16人死亡 中国・四川省
日テレNEWS NNN / 2024年7月18日 10時25分
-
5韓国でLINEユーザーが急増した理由 日本への反発?
ニューズウィーク日本版 / 2024年7月17日 15時55分
複数ページをまたぐ記事です
記事の最終ページでミッション達成してください