1. トップ
  2. 新着ニュース
  3. 経済
  4. プレスリリース

SAS、信頼できるAI製品にモデルカードとAIガバナンスサービスを追加

Digital PR Platform / 2024年4月22日 11時10分

PZUの情報、データおよびアナリティクス管理担当マネージングディレクター(チーフデータオフィサー兼チーフアナリティクスオフィサー)であるマレック・ウィルシェフスキ(Marek Wilczewski)氏は、次のように述べています。「当社のAIガバナンスについてSASと会話することで、顧客と当社のビジネスにとって問題になり得る、潜在的要素について検討することができました。AIプロジェクトを開始するにあたって、より幅広い視野を持つことが重要であると理解するようになりました」

この業界のベテランでAI倫理のエキスパートであるスティーブン・ティール(Steven Tiell)がAIガバナンス・グローバルヘッドとして、SASに加わりました。ティールはこれまでアクセンチュアのグローバルデータ倫理のリーダーとしてイノベーションプラクティスを担当してきたほか、DataStaxでAI戦略担当バイスプレジデントを務めました。

新たな政府基準の構築
昨年、米国国立標準技術研究所(NIST)は、AIリスクマネジメントフレームワーク(AI RMF)を構築しました。これは法規制が定められていない分野で組織が信頼できる、責任あるAIの設計・管理を行うための重要なツールとなりました。

SASは個々の役割や期待値を明確化し、必要なドキュメントを収集し、検討すべき項目をまとめ、自動化を活用して容易に導入できるようにすることで、NISTの推奨事項を組織に適用しやすくできる「信頼できるAIのライフサイクル・ワークフロー」を作成しました。組織は最終的に、モデルが公平でありプロセスが何ら危害を生じさせるものではないことを保証するためにデューデリジェンスを行ったことを示す文書を備えた本番用モデルを構築することができます。

このワークフローによって、組織はAIシステムが人間の生活に与える影響について、検討事項を文書化することができます。この中には、トレーニングデータが影響を受けた人々を代表するものであり、モデルの予測とパフォーマンスが保護されたクラス間のパフォーマンスと類似していることを保証するためのステップが含まれます。このステップが、モデルが特定の集団に差別的な影響や危害を生じさせるものではないことを確約するために役立ちます。また、さらに注意が必要な場合、人間参加型のHuman-in-the-loopタスクを作成して行動することで、時間が経過してもモデルの正確性が確実に維持されるようにすることができます。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください