2024年5月17日 NISTが生成型 AI のリスクを考慮したガバナンスを、AI RMFに基づいて表現したガイダンスを公表した。生成 AI リスクを管理するための行動を、AI リスク管理フレームワーク (AI RMF) の4つのサブカテゴリーに分類している。これらの4つのサブカテゴリーは、以下の通り:(1) ガバナンス (AI ポリシーの開発と実装、役割の明確化、監督の強化)、(2) マッピング (タスク、制限、相互作用の文書化、リスク管理活動の優先順位付け、関連する AI アクターとの関わり)、(3) 測定 (継続的な効果の評価、データの信頼性の検証、多様な視点の関与、構造化されたフィードバックプロセスの開発)、(4) 管理 (出力のフィルタリング、監視と管理策の適用、AI システム適用を文書化、コラボレーション、インシデントとエラーのコミュニケーション)
[yuryowaku]
有料会員になって頂くと、以下のコンテンツをご覧いただけます。
- 【What’s Happening】 ・・・概要
- 【At a Glance】・・・要点
- 【In Depth】・・・情報の詳細
- 【情報ソース】・・・情報の出所(オリジナル情報へのリンク)