ChatGPTよりも安全を掲げる"憲法AI"の可能性 AIをトレーニングし安全・無害・誠実な出力を行う
東洋経済オンライン / 2024年7月1日 11時30分
オープンAIの独走状態に待ったをかける動きとなるのか。6月21日、AIスタートアップ企業Anthropicは、同社の生成AIモデルClaude(クロード)の最新版となるClaude 3.5 Sonnetをリリースした。このAIは一部の機能において、OpenAIの最新AIモデルであるGPT-4oを凌ぐ性能を持つと同社は主張している。
2021年に設立されたAnthropic(アンスロピック)は、OpenAIでGPT-3などの開発に関わった幹部を含む元従業員7人が共同で設立した、スタートアップ企業兼パブリック・ベネフィット・コーポレーション(公共利益を重視し、社会貢献を目的とする法人)だ。
現在はGoogleとアマゾンから支援を受けて生成AIチャットボットのClaudeファミリーを開発している。Claudeという名は、情報理論の考案者で、電気工学者・数学者のクロード・シャノンに敬意を表してつけられたという説が有力だが、Anthropicは由来を明確にはしていない。
人ではなく「憲法AI」がAIをトレーニング
Claudeは、特に安全性を重視して開発されている。その目標としては、人の役に立つこと、無害であること、誠実であることを掲げ、文脈の理解力が高く倫理的な応答を生成するAIチャットボットとして評価されている。
たとえば、2023年7月にリリースされたClaude 2.0の開発からは、上に挙げた3つの目標を実現するためにConstitutional AI(憲法AI) と呼ばれるアプローチが取り入れられた。
Constitutional AIのアプローチでは、有用で、無害で、誠実であることを保証する倫理原則を「憲法」としてClaudeのAIモデルに学習させ、これに遵守するように強化学習を施している。
ClaudeのAIモデルは自己監査機能を持ち、出力が倫理原則に違反していないかをチェックする。その結果、敵対的な質問文に対しても適切に(つまり無害な)応答を返すようになる。さらにAIはチャットを通じて継続的に学習するため、自身の応答を調整し、常により高度で安全になるよう改善される。
Constitutional AIの学習に使われた倫理原則は、Anthropicが独自に構築した原則に加え、国連の世界人権宣言やアップルの利用規約などの外部情報源を組み合わせて作成されている。
スピード感ある開発体制
この記事に関連するニュース
-
最新の高性能LLM「Claude 3.5 Sonnet」を「Tachyon 生成AI」に搭載
PR TIMES / 2024年6月28日 10時45分
-
企業向けAIサービス ChatSense が Claude 3.5 Sonnet (クロード)に対応予定。Anthropic社の最新AIを安全な環境で法人利用可能。
PR TIMES / 2024年6月27日 14時45分
-
Anthropicの新機能「Artifacts」 会話しながら成果物を改良するワークスペース
ITmedia NEWS / 2024年6月21日 8時49分
-
Anthropic、無料の「Claude 3.5 Sonnet」リリース 先代のOpusを上回る性能
ITmedia NEWS / 2024年6月21日 7時16分
-
GPT-4oを上回る? Anthropicが「Claude 3.5 Sonnet」をリリース
マイナビニュース / 2024年6月21日 6時17分
ランキング
-
1上海の伊勢丹が営業終了、中国で日系百貨店の閉店相次ぐ…高島屋は売上高が減少傾向
読売新聞 / 2024年6月30日 20時56分
-
2マツダ、ヤマハ、ホンダ、スズキの「認証不正」どうなった? 調査結果を国交省が公表! マツダは同日にコメント発表
くるまのニュース / 2024年6月30日 22時10分
-
3日経平均「再度の4万1000円突破」は十分に可能だ 「米国利下げ後ずれ」「中国減速」のリスクは?
東洋経済オンライン / 2024年7月1日 9時30分
-
4毎回"完売"続出。築地銀だこの「ぜったいお得な回数券」は、PayPay併用でさらにお得!
東京バーゲンマニア / 2024年6月30日 9時3分
-
5「押しボタン式信号」なぜ“押してすぐ青”にならないケースが? 納得の理由があった!
乗りものニュース / 2024年6月29日 16時42分
複数ページをまたぐ記事です
記事の最終ページでミッション達成してください