StrategyTec Consulting Recruitment ストラテジーテック・コンサルティング 採用サイト

戦略コンサルティングの知見を、テクノロジーで拡張し、
持続的なイノベーションを創出し続けます。

KNOWLEDGE

AIガバナンスとは? 企業がAI時代に整備すべきリスク管理と規程策定の実例

2025.11.30
  • #DX国内
ChatGPTをはじめとする生成AIがビジネスに浸透する一方、その運用リスクやルール整備は追いついているでしょうか。 AIガバナンスは、AIの利活用を推進しながらリスクを制御するための枠組みです。 本記事では、国や企業がどのようにAIガバナンスに取り組んでいるか、事例を通じて解説します。

AIガバナンスとは

ChatGPTなどの生成AIが登場し、ビジネスにおいて急速に利用が進む中で、リスク管理や利用方法のルールづくりが進んでいます。

しかし、AIの用途は幅広く、多くの業種で活用されていることから、画一的なルールでは対応しきれません。

国や自治体、各企業がどのようにルールを定めているのか、各事例を見ていきましょう。

AIガバナンスとは、AIを開発したり、利用・提供したりする際に、法令や社会規範に則り、適切に行う運用体制のことです。

AIは誤った情報を生成する可能性があるため、利用に際してルール作りやトラブル発生時の責任の所在など、様々な観点から規程を用意しておくことが必要です。

一方、生成AIの用途は幅広く、利用する業界や職種などによって定めるべき内容が異なることから、企業ごとに必要なルール作りを行わないといけません。

経済産業省が令和3年に公開した報告書においても、「様々な分野や用途に応用可能であるAIは応用ごとに留意点が異なりうるため、それぞれの分野や用途ごとの対応が必要になる可能性もある」と記載されています。

しかし、規制を強化するあまり、イノベーションを阻害してしまっては本末転倒であるとも触れられており、ルール作りは簡単ではありません。

参照

AIガバナンスで規制を検討する必要のある主な内容

次にAIガバナンスで規制を検討する必要がある主な内容について解説します。

AI利用に関してどのような観点でルールを作ればよいのか、参考にしてみてください。


プロンプト入力時の規制

AIを利用する際、プロンプトに入力してもよい情報と、入力してはいけない情報を明確にしておくことで、利用する際に誤って個人情報や企業の機密情報などを入力する可能性を抑えられます。

特に一般に公開されているAIを利用する際は、プロンプトに入力した内容がAIの学習に利用され、第三者への回答に用いられる可能性があるため、禁止しておく方がよいでしょう。

この点は、情報漏えいに配慮されたAIを利用する際であっても一定の注意が必要です。

また、著作権侵害のリスクを避けるため、著作物を入力することや著作権侵害にあたる指示についても規制しておくとよいです。

参照

利用するAIツールの規制

業務で利用してもよいAIツールを明確にしておくことで、予期せぬトラブルが発生する可能性を抑えられます。

自社で開発したり、個別に契約を行ったりしたAIのみ利用可能とすることで、一定程度動作確認や安全性の検証が済んだツールで業務を行えます。

また、文章生成や画像生成など、用途ごとに利用可能なAIツールを指定するのも、品質を担保する上では有効です。


参照

生成物の利用に関する規制

AIの生成物には誤りが含まれていたり、ビジネスにおいてそのまま利用することに適さなかったりする場合があるため、人間がチェックを行うことを義務付けるなどのルールがあるとよいでしょう。

また、自社の内部文書やマニュアルなどを学習させたAIを利用する場合、生成物の利用範囲を社内・社外のどこまでとするか制限を設けることで、機密情報の流出を防ぎやすくなります。

制限を設ける際は同時に、利用可能な部門や業務まで設定しておくことも重要です。

他にも、生成物の著作権が誰に帰属するのかのルールや、生成物が著作権侵害にあたらないかのチェック体制についても定めておくとよいでしょう。

参照

AIガバナンスの国や企業の策定事例

ここからはAIガバナンスについて、国や企業の策定事例を4つ紹介します。

実際にどのような考え方や内容を策定しているのか、具体的に知りたい方は参考にしてみてください。

デジタル庁

デジタル庁では、国の各府省におけるAIの利活用促進とリスク管理を表裏一体で進めるため、ガイドラインを策定しました。大きな枠組みとしては、各府省においてAI統括責任者(CAIO)を設置し、生成AIの利活用促進とAIガバナンスの構築・実践の両方を推進します。これと同時にデジタル庁内に「先進的AI利活用アドバイザリーボード」を設置し、AI相談窓口として各府省からの相談を受け付けます。

また、AI統括責任者はその府省内におけるAIの利活用ルールをデジタル庁が作成したひな形に基づき作成しなければなりません。

デジタル庁の作成したひな形に盛り込まれた内容は、ルールの目的、生成AI利用に係るルール、問い合わせ先の3つです。

このうち生成AI利用に係るルールは利用前のルールと利用中のルールに分かれています。

さらに、利用中のルールについては入力データとプロンプトに関するルールと、生成物の利用におけるルールに細分化されています。

ひな形に基づいたルールに則った生成AI運用を各府省で実施することがAI統括責任者の担当業務です。

参照

東京都

東京都では、職員向けに文章生成AI利活用ガイドラインを策定しました。

これと合わせて約5万人の職員にAIを利用できる体制を整備し、効率的な行政運営を目指しています。

ガイドラインでは、Azure OpenAI Serviceを利用可能なツールとして設定し、AIを利用する職員はe-ラーニングを受講して正しい利用方法の学習と、利用開始前に申請フォームから利用申請を行うことが義務付けられています。

これに加えて次の4つのルール順守が必要です。

  • 個人情報等、機密性の高い情報は入力しないこと
  • 著作権保護の観点から十分注意し、確認を行うこと
  • 回答の根拠や裏付けを利用者自らが確認すること
  • 回答を対外的にそのまま使用する場合は、その旨を明記すること

さらに、同ガイドラインでは、規制するだけでなく、AIに立場を与えることや目的を明確にすることなど、AIを利用する際の効果的な活用方法も併せて示しています。

参照

NTTグループ

NTTグループでは、同社独自の生成AI「tsuzumi」を利用するなど、AIの研究開発と実用化に向けた取り組みを進めています。

利活用を促進するだけでなくリスクにも目を向ける必要があるとして、AIガバナンス規定類の策定とAIガバナンスの推進体制を定めています。

AIガバナンス規程類としては、NTTグループAI憲章、NTTグループAIガバナンスポリシー、NTTグループ生成AI利用ガイドラインの大きく3つです。

AI憲章では、NTTグループおよびその社員が常に心掛けるべき基本方針を定めています。

基本方針は、持続的発展の追求や人間主体の活用、セキュリティの確保、プライバシーの遵守などです。

ガバナンスポリシーでは、AIの適切な利用を推進するためのリスク定義やルールをどのように整備し、また運用するかを定めています。

そして、AI利用ガイドラインでは、適切なデータ管理とセキュリティ対策を講じることや、モデルの透明性と動作の説明可能性、モデルのパフォーマンス評価といった積極的なAI活用とそのリスクの認識、対策の考え方を示しています。

参照

富士通

AIを開発・提供する富士通グループでは、AI技術が適切に世の中へ普及していくことを目指し、AI倫理室を設置しています。

同室では、AI倫理ガバナンスや生成AI利活用ガイドラインなどの策定を行っています。

AI倫理ガバナンスでは、AIへのコミットメントを掲げており、その内容は社会への価値提供・人間を中心に考える・持続可能な社会の追求・人の意思決定を尊重するAIを目指すこと・AIの透明性と説明責任を重視することの5つです。

また、同社では生成AI利活用ガイドラインを一般公開しており、その中で生成AIのリスクを5つ挙げています。

ここで挙げられたリスクは正確性・公平性・著作権侵害・情報管理・悪用の5つです。

同ガイドラインでは、それぞれのリスクへの対策を詳しく明示し、リスク低減策を十分に講じた上で、AI活用の推進に向けて取り組みを進めていくとされています。

参照

まとめ

今回はAIガバナンスとは何を定めたものか、AIを利用する際のルール作りはどのような点について規程を設けるかを解説した上で、国や自治体、企業の策定事例を紹介しました。

AIのビジネス活用が進む中で、法令違反や著作権侵害などの問題を防ぐため、事業体ごとに利用形態に応じたルール作りが求められています。