「AI推進法」に見るAIリスクマネジメントに関する事業者の責務

  • 経営・マネジメント

コラム

2025/6/10

 2025年5月28日、参議院本会議で、「人工知能関連技術の研究開発及び活用の推進に関する法律案」(いわゆるAI推進法案、AI法案)が賛成多数で可決・成立しました。本法律は、人工知能関連技術の研究開発及び活用の推進に関する施策の総合的かつ計画的な推進を図り、もって国民生活の向上及び国民経済の健全な発展に寄与することを目的とするものです。

 本稿では、AI推進法を受け、事業者におけるAIガバナンス・AIマネジメント上考慮すべき点についてご紹介します。

AI推進法の基本理念とポイント

 AI推進法の基本理念とポイントは下表のとおりです。

 
基本理念

●  AIを「経済社会の発展基盤であり、安全保障の観点からも重要な技術」と位置づけ、国際競争力の向上を図る。

●  国民の権利利益の保護のため、AIの研究開発及び活用の過程の透明性の確保その他の必要な施策を講じる。

ポイント

●  新たに首相をトップに、全閣僚が参加する「人工知能戦略本部」が設置され、本法律の公布後3か月以内(2025年夏又は秋ごろ)に策定される人工知能基本計画のもと、AI政策が省庁横断的に推進される

●  今後、AI研究開発及び活用の推進に関する施策を実施するため必要な法制上又は財政上の措置その他の措置が講じられる

●  今後AIによる国民の権利利益の侵害事案が発生した場合は、国が調査し、必要に応じて事業者への国による指導や助言が行われる

●  AI製品・サービスを開発・提供・利用する事業者は、基本理念にのっとり、AI活用による事業活動の効率化・高度化、新産業の創造に努めるとともに、国・地方公共団体が本法律に関連して実施する施策に協力しなければならない

AI推進法を基に弊社作成

AIリスクマネジメントを考える上での事業者の責務

 本法律の第7条において、AI活用した製品・サービスを開発・提供・利用する事業者は、本法律の基本理念にのっとった事業活動の実施に努めるとともに、国や地方自治体が本法律にのっとって実施する施策に協力することとされています。この点、AIリスク対応の面から事業者に生じる責務は2点あります。

 1点目は、本法律第3条第4項に規定される基本理念に基づき、AI研究開発・活用に当たってその過程の透明性の確保に努めることです。第3条第4項の内容は次のとおりです。

 

第三条
4 人工知能関連技術の研究開発及び活用は、不正な目的又は不適切な方法で行われた場合には、犯罪への利用、個人情報の漏えい、著作権の侵害その他の国民生活の平穏及び国民の権利利益が害される事態を助長するおそれがあることに鑑み、その適正な実施を図るため、人工知能関連技術の研究開発及び活用の過程の透明性の確保その他の必要な施策が講じられなければならない。

  

 従来、AIの社会実装・社会受容に関しては、AIシステムの安全性や信頼性の確保が重要な課題となっており、AI製品・AIサービスの設計・開発・運用においては透明性の確保が求められています。

 AIの透明性とは、AIがどのようなデータをどのように取得・活用し、どのように動き、どのようにしてその判断をしたのかが人が理解・説明できる状態のことを言います。AIの透明性確保にあたっては、そのAIの開発・提供・利用が倫理的・法的・社会的文脈を踏まえて、ステークホルダーから信頼を得られるものか否かを追求していく視点を取り入れることが必要です。「企業の経営理念、フィロソフィー、大切にしたい倫理観に照らして、AI活用が適切かを判断すること」、「AIの開発・運用・利用が既存の規則や法律にのっとったものであるか精査すること」、「AIが活用するデータが適切に取得されたものであるか、バイアス等を含んだものではないか評価すること」「AIが個人や社会全体の日常生活にどのような影響を与えうるかを評価すること」をAI開発・提供・利用におけるルール・業務フローとして定型化し、運用していくことが求められます。

 透明性の確保のための実務的・技術的施策としては、AIモデルの性能評価、バイアス検出、脆弱性分析、堅牢性テスト等を行い、その結果について必要かつ可能な範囲でステークホルダーに情報提供を行うことが考えられます。あるいは、説明可能AI(XAI)技術の活用により、AIモデルの内部構造が不明でも入出力結果から判断根拠を可視化し、AIを活用した意思決定プロセスをステークホルダーに対して説明するという対応も考えられます。自主的に、社内で活用する生成AIのプロンプト監査ログを保存する、利用履歴を記録するといった対応をとることも考えうるでしょう。

 2点目は、国による調査研究等(第16条)への協力です。第16条の内容は次のとおりです。

 

(調査研究等)
第十六条 国は、国内外の人工知能関連技術の研究開発及び活用の動向に関する情報の収集、不正な目的又は不適切な方法による人工知能関連技術の研究開発又は活用に伴って国民の権利利益の侵害が生じた事案の分析及びそれに基づく対策の検討その他の人工知能関連技術の研究開発及び活用の推進に資する調査及び研究を行い、その結果に基づいて、研究開発機関、活用事業者その他の者に対する指導、助言、情報の提供その他の必要な措置を講ずるものとする。

  

 仮に事業者が開発・提供・利用するAIに起因して個人の権利利益の侵害を伴うインシデントが発生した場合、国への情報提供を行うことが期待される可能性があります。また、情報の提供だけでなく、国から事業者に対して指導・助言がなされる可能性もあります。悪質な事案については事業者名の公表を行うことも検討されているとの報道もなされており、本法律施行後の運用次第ではこれらの措置が積極的に実施される可能性があります。そのため、適切なインシデントレスポンスの実施のため、やはり透明性の確保には十分に取り組むことが必要です。

まとめ

 AI推進法の施行により、明示的に、日本においてもAI研究開発・活用についての透明性の確保が求められることになります。

 弊社ではAIの透明性確保に関するAIガバナンス・AIマネジメント体制の構築支援等サービスの提供を行っております。以下のリンクから詳細をご確認ください。

関連サービスページ

執筆コンサルタントプロフィール

牛島 康晴
CDOユニット 主任研究員

コラムトップへ戻る