第3章 AIガバナンスと主権|信頼を「設計」する時代

  • URLをコピーしました!

Innehållsförteckning

Inledning.

AIが便利になるほど、経営にとって厄介な問いが前に出てきます。「その判断は誰がしたのか」「なぜそうなったのか」「後から説明できるのか」。この問いに答えられないままAIが基幹業務を動かし始めると、便利さは一気にリスクへ変わります。

数字もそれを物語っています。AI関連のセキュリティ侵害を受けた企業の97%が、適切なアクセス管理や正式なガバナンス実践を備えていませんでした。つまり問題は、AIが賢すぎたことではなく、管理が追いつかなかったことにあります。さらに、従業員の68%がIT部門の承認なしにAIツールを使っているという調査もあり、「シャドーAI」はすでに現場の現実です。

そこへ規制の波が重なります。EU AI法は2024年8月1日に発効し、2026年8月2日には高リスクAIシステムへの義務が本格的に動き出します。日本でも2025年6月にAI推進法が施行されました。もう「ガバナンスは後で考える」という時代ではありません。

本章では、AIガバナンスがなぜ必要なのかをやさしく整理しながら、企業が実際に何を整えるべきかを具体的に見ていきます。あわせて、日本の規制環境と「AI主権」という重要テーマにも踏み込みます。


3-1 AIガバナンスとは何か——透明性・説明可能性・監査可能性の三角形

「ガバナンスがない」とはどういう状態か

AIガバナンスという言葉を聞くと、面倒なルール作りを想像するかもしれません。ですが本質はもっとシンプルです。AIを、事故なく、無理なく、長く使い続けるための土台をつくること。それがガバナンスです。

ガバナンスが欠如した状態を具体的に想像してください。

採用選考にAIを使っている。そのAIが特定の大学出身者を高く評価する傾向がある。なぜそうなっているか、誰も説明できない。候補者から「差別だ」と訴えられた時、企業は何を示せるか。

融資審査AIが、特定の地域の申請者を一貫して低く評価している。学習データに過去の地域差別が反映されている可能性がある。それを誰も検知していない。規制当局から調査が入った時、何を提出できるか。

これらは想定上の問題ではありません。Amazon、Goldman Sachs、HireVueを含む多くの大企業がすでに直面してきた現実の問題なのです。

ガバナンスを支える3つの柱

では、何を押さえれば「ガバナンスがある」と言えるのでしょうか。核になるのは、次の3つです。

透明性(Transparency) AIがどのように動いているかを、組織の内外に適切に開示できること。「このシステムはAIを使っています」「何のデータで学習させました」「どんな目的で使っています」という情報が整理されていること。

透明性は企業内部だけでなく、消費者・顧客・規制当局への開示を含む。EU AI法の透明性義務は2026年8月から本格適用され、AIが生成したコンテンツには原則として明示が義務付けられます。

説明可能性(Explainability) 「なぜそのAIはその判断をしたか」を説明できること。特に人の権利・利益に影響する判断(採用・融資・医療診断・保険審査)では必須です。

ディープラーニングの多くは「ブラックボックス」と呼ばれ、判断過程が不透明だった。これに対して「説明可能AI(XAI:Explainable AI)」の研究が急速に進み、複雑なモデルの判断根拠を人間が理解できる形で示す技術が実用化されつつあります。

監査可能性(Auditability) AIの動作を事後的に検証・追跡できること。「いつ・誰が・どのデータで・どんな判断をしたか」の記録が残っており、問題が発生した際に原因を特定できること。

2026年のAIアーキテクチャ選択は、精度や効率だけでなく「規制当局の審査に耐えられるか」によって決まります。EU AI法のもとで企業はデータの完全な来歴追跡、ヒューマン・イン・ザ・ループのチェックポイント、各モデルのリスク分類タグを実証できなければならなりません。


3-2 EU AI法——世界初の包括的AI規制が日本企業にも影響する理由

EU AI法とは何か

EU AI法は、AIを本格的にルール化した世界初の包括法として注目されています。しかも厄介なのは、EUの中だけの話では終わらないことです。GDPRと同じく、EUに影響を及ぼすなら域外企業にも届いてきます。日本企業にとっても、決して対岸の火事ではありません。

「EUには事業所がないから関係ない」は通用しません。欧州の顧客にサービスを提供する日本企業は、そのAIシステムがEU AI法の適用範囲に入る可能性があるのです。

リスク分類の4段階

EU AI法の特徴は、「AIは全部危険」とは見ないことです。用途や影響の大きさに応じて、4つのリスク水準に分けて考えます。

禁止リスク(Unacceptable Risk) 使用が完全に禁止されるAI。中国式の社会スコアリング、リアルタイムの公共空間での生体認証(一部例外あり)、無意識の操作を行うサブリミナルAIなどが該当する。禁止されるAI実践への義務は2025年2月から適用開始されました。

高リスク(High Risk) 厳格なコンプライアンス義務が課される。2026年8月2日が最も多くの企業にとって重要なコンプライアンス期限で、Annex IIIに列挙された高リスクAIシステムへの要件がこの日から執行可能になる。高リスクに分類されるのは次のような用途です。

  • 採用・人事評価(CVスクリーニング・面接評価・業績評価)
  • 与信審査・ローン承認
  • 重要インフラの管理
  • 医療機器・医療診断への使用
  • 教育機関での学習評価
  • 法執行・国境管理への使用

限定リスク(Limited Risk) 透明性義務が課される。チャットボットはAIであることを開示する義務、ディープフェイクコンテンツには明示が必要になる。

最小リスク(Minimal Risk) 自由に使用できる。スパムフィルター・AIゲームなど。大多数のAIシステムはこのカテゴリに入る。

高リスクAIへの具体的な義務

高リスクと判定された瞬間、企業に求められる責任は一気に重くなります。主な義務は次の通りです。

リスク管理システムの構築:AIのライフサイクル全体を通じてリスクを特定・評価・軽減する継続的な仕組みの構築と維持。

技術文書の整備:AI設計の決定過程・学習データの来歴・テスト方法論の記録。アジャイル開発で文書化が最小限だった組織は、これを遡及的に作成することに苦慮している。

ヒューマン・オーバーサイトの設計:高リスク判断には人間の確認・介入の仕組みを組み込む。

データガバナンス:学習・検証・テストに使用するデータセットの品質管理と偏り評価。

インシデント報告:深刻な事故・誤作動の当局への報告義務。

罰則

EU AI法の罰則は重い。禁止リスクに関する違反は最大3,500万ユーロまたは世界年間売上の7%の高い方。高リスク・その他の違反は最大1,500万ユーロまたは年間売上の3%。虚偽情報提供は最大750万ユーロまたは年間売上の1.5%

GDPRのペナルティが実際に課された事例が相次いだように、EU AI法の罰則も絵に描いた餅ではありません。


3-3 日本のAI規制——「世界一AI推進」路線の実情と課題

AI推進法の制定——「規制せず、推進する」という選択

日本はEUのような厳格規制とは少し違う道を選びました。2025年5月に成立したAI推進法は、AIを強く縛るというより、開発と活用を後押しする色合いが濃い法律です。

この法律は日本政府の「世界一のAIフレンドリー国家になる」という野心を体現しており、開発を妨げる厳格なルールや罰則を意図的に避けることで、投資と実験を促進する環境を作るよう設計されています。

この姿勢はEUとは対照的だ。EUが義務・禁止・罰則という「規制のスティック」を振るうのに対し、日本は推進・支援・自主的な取り組みという「インセンティブのニンジン」で進もうとしているのです。

日本のAIガバナンスの4つの原則

AI推進法は4つの中核原則に基づいている。AIを戦略的資産として位置づけること、産業活用の推進、透明性を通じたリスク軽減、そして国際的なAI規範への積極的貢献です。

具体的な施策として、AI研究開発・コンピューティングインフラ・人材育成・AI普及教育への国家的支援が含まれます。

ソフトロー・アプローチの強みと弱み

日本のスタンスは、いわば「硬く締める」より「柔らかく導く」です。イノベーションを止めず、国際的な整合性も保ちながら、ガイドラインや自主的な枠組みで運用していこうという発想です。

この強みは明確です。規制の硬直性がなく、技術の急速な進化に機動的に対応できます。産業界との協調によって実効性のあるガイドラインを作りやすい点も有用です。

一方で弱みもあります。ソフトロー・アプローチはガイドラインが中小企業に届きにくく、悪意ある行為者は自主的なガイドラインに従わないという限界が存在します。

また、グローバルに事業展開する日本企業は「日本では任意」「EUでは義務」という二重基準の中で対応を迫られることになります。EU AI法の域外適用が現実になるにつれ、日本国内向けと欧州向けで別々のAIガバナンス体制を維持するコストが発生するでしょう。

日本企業が今すべき現実的な対応

たとえ自社が今すぐEU AI法の直撃を受けないとしても、ガバナンス整備を後回しにする理由にはなりません。むしろ今のうちに備えるべき理由が、はっきり3つあります。

第一に、リスク管理として:ガバナンスのないAI運用はインシデントリスクを高める。問題が起きてから対応するより、事前に体制を整える方がコストが低い。

第二に、取引先・投資家への説明責任として:欧州・米国のパートナー企業や機関投資家がAIガバナンス体制を取引条件・投資基準に組み込み始めている。

第三に、将来の規制への先行対応として:日本でもセクター別のAI規制(医療・金融・自動運転など)が整備される方向に動いている。今から体制を作っておくことで、規制が来た時に慌てない。


3-4 企業に求められるガバナンス体制の実務設計

ガバナンス体制の3層構造

実務で回るガバナンスは、気合いやスローガンでは作れません。役割分担のある体制が必要です。基本形は、次の3層構造で考えると整理しやすくなります。

戦略層(ボードレベル) AIガバナンスの最終的な責任を持つ層。取締役会または経営会議がAI利用に関する方針・リスク許容度・倫理的原則を定める。

執行層(CxOレベル) CIO・CISO・CDOが核となり、職場・ビジネスITチーム・クラウドFinOpsチームを加えた横断ガバナンス体制が機能する。どのチームも単独では全体像を持てないが、連携することで持てる。

具体的には次のような役割分担が有効です。

役職AIガバナンスにおける役割
CIOAI技術インフラと全社的AI戦略の統括
CISOAIシステムのセキュリティ・プライバシーリスク管理
CDO学習データの品質・倫理性・コンプライアンスの管理
CFOAI投資のROI測定とコスト管理の枠組み整備
法務部門規制対応・契約条件・知的財産の管理
HRAI導入に伴う人材への影響・リスキリング計画

運用層(現場レベル) 日常的なAI運用の品質管理・モニタリング・インシデント対応を担う。

「AIインベントリ」の構築——まず自社のAIを把握する

AIガバナンスの出発点は、壮大な規程集ではありません。まずは「自社でどんなAIが使われているのか」を把握することです。これが見えていないと、管理も評価も始まりません。

AIガバナンスの第一歩は、社内のAIシステムの棚卸しだ。インベントリは製品・機能・プロセス・プロジェクトにわたるAIと機械学習の使用を網羅し、内製・購入を問わず追跡すべきです。プライバシーのデータマッピング・ベンダーリスク管理・セキュリティアーキテクチャレビューがすでに存在するなら、それらを活用して並行組織を作らないようにします。

棚卸しで把握すべき情報はシステム名・用途・開発元(内製/外部ベンダー)・学習データの種類・影響を受けるステークホルダー・リスク分類・担当部門・最終レビュー日時です。

シャドーAI問題——見えないAIをどう管理するか

厄介なのは、公式導入されたAIだけではありません。現場が勝手に使い始める「シャドーAI」が、すでに多くの企業で広がっています。禁止して終わる話ではなく、見える化して安全な受け皿を用意する発想が欠かせません。

シャドーAIは「禁止すれば解決する」問題ではありません。禁止しても使われ続け、むしろ問題が可視化されなくなる。有効なアプローチは次の3つです。

公式な代替手段を提供する:従業員がシャドーAIを使う理由は「業務が楽になるから」だ。公認の安全なAIツールを提供し、正規チャンネルを使うインセンティブを作る。

モニタリングを整備する:どのAIサービスに社内ネットワークからアクセスがあるかを可視化する。異常なデータ転送を検知するセキュリティツールを整備する。

AIリテラシー教育を実施する:EU AI法ではAIリテラシー義務が2025年2月から適用されており、従業員が適切なAI活用判断を下せるよう教育することが義務化されている。これは同時に、「なぜシャドーAIがリスクなのか」を従業員が理解するための機会でもあります。


3-5 AIガバナンス・フレームワークの国際標準——NIST・ISO/IEC 42001

NIST AIリスク管理フレームワーク(RMF)

AIガバナンスを感覚論で終わらせないために、世界では標準フレームワークの整備が進んでいます。その代表格が、米国のNIST AI RMFです。

フレームワークは4つのコア機能で構成されます。

Govern(統治):AIリスクに関する組織全体の方針・プロセス・説明責任の確立

Map(特定):AIシステムが生み出すリスクの識別・分類・優先付け

Measure(測定):特定されたリスクの評価・分析・優先度付け

Manage(管理):リスクへの対応(軽減・回避・受容・移転)の実施と継続モニタリング

NISTのRMFは欧州でのEU AI法と並んで、米国でのAIガバナンスを規定するデファクト標準に進化しており、両者は2030年に向けて収束するグローバルなガバナンスモデルを形成しつつあります。

ISO/IEC 42001——AIマネジメントシステム規格

もう一つ重要なのが、ISO/IEC 42001です。これは、AIを「ちゃんと管理している会社か」を組織レベルで示すための型を与えてくれる規格です。

ISO 9001(品質管理)・ISO 27001(情報セキュリティ)を運用している企業にとって、ISO/IEC 42001は馴染みのある体系で導入しやすい。第三者認証を取得することで、顧客・取引先・投資家へのAIガバナンスの信頼性証明にもなります。

コンプライアンス成熟度モデル——自社の水準を測る

先進的な組織は5段階のコンプライアンス成熟度スケールで自己評価を行っています。

レベル状態Funktioner
1初期AIインベントリなし。場当たり的な対応
2発展中一部のAIシステムが把握され、基本方針が文書化
3定義済みAIリスク分類が完了し、ガバナンス体制が確立
4管理済み継続的モニタリングと定量的管理が機能
5最適化継続改善サイクルが回り、EU AI法・NIST RMF・ISO 42001への監査対応が完了

多くの日本企業は現在レベル1〜2にあると考えられます。2026年中にレベル3への到達を目標として取り組むことが現実的な方針でしょう。


3-6 AIバイアス対策——「公平なAI」はどう作るか

バイアスはなぜ生まれるか

AIモデルのバイアスは主に2つの源泉から生まれます。

データバイアス:学習データに過去の社会的偏見が反映されている。例えば、過去の採用データを使って「採用確率が高い候補者」を学習すると、過去の採用基準のバイアス(性別・年齢・出身大学の偏り)がモデルに継承されます。

設計者バイアス:モデルを設計・評価する人たちの偏り。均質なチーム(例:男性エンジニアのみ)が設計したシステムは、多様なユーザーに対して盲点を持つことが多い。

採用AIへの実務的影響

採用・人事評価は、EU AI法で「高リスク」に分類される用途です。CVをスクリーニング・ランキング・マッチングするAIを使う場合、EUはそれを高リスクシステムとして規制しています。

日本企業がAIを採用選考に使う場合、現時点では法的義務は限定的だが、次の実務対応が推奨されます。

バイアス監査の定期実施:性別・年齢・学歴・居住地域といった属性ごとに採用率・スコア分布を定期的に分析し、不当な差別が生じていないかを確認する。

多様性データの管理:学習データに多様な候補者の記録が含まれているかを検証する。

「人間が最終決定する」仕組みの維持:採用の最終決定はAIではなく人間が行う体制を明示的に設計する。

バイアス検出・軽減の技術

フェアネス指標の測定:統計的な公平性(等化確率・等化オッズ・個人公平性など)を測定するツールが整備されつつある。IBM AI Fairness 360、Google What-If Toolなどが代表的です。

differentierad integritet:個人を特定できる情報をデータセットから保護しながらAIをトレーニングする手法。統計的なプライバシー保護と学習効率を両立する。

連合学習(Federated Learning):データを一箇所に集めず、分散したまま学習させる手法。医療機関間でデータを共有せずにAIモデルを改善できる。患者データの主権を守りながら学習できる点で医療分野で特に重要です。


3-7 「自動化できること」と「人間が保持すべきこと」の判断基準

全自動化は危険なのか

「AIに任せれば任せるほどよい」——この誤解が、ガバナンス上の大きなリスクを生む。

AIへの委任が許容できる判断と、人間が保持すべき判断は明確に区別しなければなりません。この境界線の設計が、AIガバナンスの最も重要な実務的作業の一つです。

委任の判断基準——4つの問い

AIへの判断委任を検討する際、4つの問いで評価する。

① 可逆性:この判断の結果を取り消せるか? 取り消せない・取り消しにコストがかかる判断(採用・解雇・融資承認・医療診断)ほど、人間の確認を要する。

② リスク水準:誤判断が生む損害の大きさはどのくらいか? 高リスクな判断は人間のオーバーサイトを維持する。

③ ルールの明確性:判断基準がルールとして完全に明文化できるか? 暗黙知・文脈判断・人間関係への配慮が必要な判断はAIには難しい。

④ 説明責任:この判断に対して誰が責任を持つか? 法的・社会的責任が明確に必要な判断(契約・法的拘束力のある決定)は、人間が保持する。

具体的な「委任マップ」の例

完全自動化が適する判断

  • ルールが完全に明文化されている定型処理(税率の適用・帳票の転記)
  • 人への影響が間接的で低い判断(在庫補充量の計算・レポート生成の自動化)
  • 即座に人間が確認できる下書き生成(メール草稿・資料の初稿)

AIが判断し、人間が承認する判断

  • 一定金額以上の発注・支出
  • 新規顧客・取引先の与信評価
  • 法律・規制上の要件との整合性チェック

人間が判断し、AIが補佐する判断

  • 採用・評価・昇進などの人事判断
  • 患者の治療方針
  • 契約条件の最終合意
  • 重大なセキュリティインシデントへの対応

AIの関与を避けるべき判断

  • 刑事司法・量刑への関与(EU AI法で禁止に近い用途)
  • 宗教・思想的な見解への判断
  • 政治的な意思決定

3-8 AI主権——外部依存からの脱却戦略

「AI主権」とは何か

AI主権とは、外部組織に依存せずにAIシステム・データ・インフラを管理する能力であり、経営幹部の93%が2026年のビジネス戦略に組み込むことを必須と考えています。

具体的に何を意味するか。ChatGPTのAPIに全業務を依存している企業は、OpenAIがAPIポリシーを変更する・料金を変更する・サービスを終了すると、業務が止まる。これが「AI主権を持たない」状態です。

AI主権は個企業の問題だけでなく、国家安全保障・経済主権の問題でもあるのです。

企業レベルのAI主権戦略

ベンダーロックインリスクの管理 単一のAIプロバイダーへの過度な依存を避けるために、マルチクラウド・マルチモデル戦略を採用する。重要なAIシステムには代替プロバイダーへの切り替えシナリオを準備しておく。

データ主権の確保 機密データ・顧客データ・企業秘密を含む学習・推論は、自社管理のインフラ(オンプレミスまたはプライベートクラウド)で行う。日本国内のデータを完全に日本国内で管理・運用するソブリンクラウドへの需要が高まっており、SoftBankがOracleのAlloy技術を使って2026年に国内ソブリンクラウドを東西に展開する。

AIモデルの内製化 全てのモデルを自社開発する必要はないが、コアとなる業務知識を組み込んだドメイン特化モデルは内製化するか、専門パートナーと共同開発することで、競争優位の源泉を外部依存から守れる。

国家レベルのAI主権戦略——日本の選択

日本のAI主権戦略は、選択的なフォールバック能力と規制影響力の確保を中心に据えています。国内のコンピューティングとモデリングエコシステムへの投資を行いながら、同盟国のサプライチェーンに深く組み込まれることで、グローバルな技術能力が国内に根ざすよう確保しているのです。

日本政府の動きとして、FugakuNEXT(次世代スパコン)への投資、国内AI人材育成プログラム、グローバルAIガバナンスフォーラム(広島AIプロセス)における議題設定への積極的な関与が挙げられます。

鹿児島のAIファクトリーへの120億ドル・1ギガワット規模の主権AIインフラ投資が発表されるなど、民間レベルでも国内AI計算基盤の整備が加速しています。


3-9 ガバナンス体制の構築ロードマップ——90日で始める実践手順

フェーズ1(最初の30日):現状把握

AIインベントリの作成 社内のAI活用実態を棚卸しする。「当社はAIを使っていない」と思っている企業でも、クラウドサービスに組み込まれたAI機能・外部委託先が使うAI・従業員が個人的に使うAIツールを考慮すると、相当数の「AI」が存在します。

リスク分類の実施 各AIシステムを用途・影響範囲・データの種類によってリスク分類する。人の権利・利益・安全に直接影響するものを高リスクとして優先対応の対象とします。

ガバナンスギャップの特定 現状のガバナンス体制と、目標とするレベルのギャップを文書化します。

フェーズ2(31〜60日):体制整備

AIガバナンス委員会の設置 AIガバナンス委員会を90日で構築するプロセスが標準化されつつあります。委員会のメンバーはCIO・CISO・法務・コンプライアンス・各業務部門の代表で構成する。月次または四半期でのレビュー会議を設定する。

AIポリシー文書の整備 最低限、次の4つのドキュメントを作成する。

  1. AI利用方針(何を目的にAIを使うか、禁止事項は何か)
  2. AIリスク評価手順(新規AIシステム導入時の評価プロセス)
  3. インシデント対応手順(AIが問題を起こした時の対応フロー)
  4. データ取扱い規程(AI学習・推論に使うデータの管理基準)

AIリテラシー教育の開始 EU AI法のAIリテラシー義務は2025年2月から適用されており、全従業員がAIの基本的なリスクと適切な使い方を理解することが義務となっています。日本でも先行して教育を実施することが推奨されます。

フェーズ3(61〜90日):運用の確立

モニタリング体制の確立 高リスクAIシステムのパフォーマンス・バイアス・異常動作を定期的に監視する仕組みを作る。「設置して終わり」ではなく「継続的に見守る」体制が必要です。

サードパーティAIのデューデリジェンス 外部AIサービスの契約に、ガバナンス要件(データの扱い・モデルの変更通知・インシデント報告義務)を盛り込む。既存契約の見直しも進める。

定期レビューサイクルの確立 AIガバナンスは「一度作れば終わり」ではありません。規制環境・技術・ビジネス環境が変化するたびに更新が必要です。最低でも年1回の包括的な見直し、四半期での運用状況確認のサイクルを設定します。


sammanfattning

AIガバナンスは「コンプライアンスのコスト」ではない——これが2026年の重要な認識転換です。

**コンプライアンスを証明できるベンダーと企業が、規制対象産業において優位に立ちます。**バイヤーはすでに自社のロードマップをEU AI法の施行タイムラインに合わせて調整し始めています。つまりガバナンス体制の整備は、規制遵守のためだけでなく、ビジネス機会の獲得のためでもあるのです。

AIが基幹業務に深く組み込まれ、エージェントが自律的に動き、マルチモーダルモデルが膨大な量のデータを処理する世界では、「何が起きているかを説明できる状態」を意図的に維持することが、組織の存続条件になります。

ガバナンスは制約ではなく、信頼の基盤だ。信頼なしに、AIは社会に根付きません。

次章では、AIが「スクリーンの中」から「現実世界」へ飛び出す——フィジカルAIとロボティクスが産業と社会に何をもたらすかを解説します。


参考資料:EU AI Act Official Text(EU機関)、Sombra Inc「An Ultimate Guide to AI Regulations and Governance in 2026」、OneTrust「Responsible AI in 2026」、Orrick「The EU AI Act: 6 Steps to Take Before August 2026」、ITECS「Agentic AI Governance Framework 2026」、CSIS「Japan’s Agile AI Governance in Action」、WEF「What Japan’s Path to Responsible AI Can Teach Us」、IBM「AI Tech Trends 2026」、AI Sovereignty Report(Tony Blair Institute、2026)

Dela med dig om du gillar det!
  • URLをコピーしました!
Innehållsförteckning