COLUMNS コラム

コンフィデンシャルAIとは?Microsoftや業界団体が示す定義と、日本企業への示唆

はじめに

「コンフィデンシャルAI(Confidential AI)」という言葉を耳にする機会が増えています。生成AIの急速な普及を背景に、MicrosoftやLinux Foundationが主導する業界標準化団体「Confidential Computing Consortium(CCC)」が定義を整備し、グローバルに注目が高まっている概念です。
本記事では、こうした外部の権威ある定義・フレームワークに基づきながら、コンフィデンシャルAIとは何か、なぜ今重要なのかを解説します。

 

コンフィデンシャルコンピューティングとは:CCCの定義から理解する

コンフィデンシャルAIを理解するには、まずその基盤技術である「コンフィデンシャルコンピューティング」の定義を押さえる必要があります。
Confidential Computing ConsortiumCCC) は、Linux Foundation傘下のコンソーシアムであり、Alibaba、Arm、Google Cloud、Intel、Microsoft、Red Hatなどが2019年に創設した、業界横断の標準化団体です。
CCCはコンフィデンシャルコンピューティングをこのように定義しています。
「ハードウェアベースのTrusted Execution Environment(TEE)において計算処理を行うことにより、使用中のデータを保護する技術」

CCCが定めるTEEが保証すべき特性は3つです。
  • データ機密性:TEE内で使用中のデータを、権限のない主体が参照できない
  • データ完全性:TEE内で使用中のデータを、権限のない主体が改ざんできない
  • コード完全性:TEE内で実行中のコードを、権限のない主体が改ざんできない
     

従来、データのセキュリティは「保存中(at rest)」と「転送中(in transit)」の暗号化によって守られてきました。コンフィデンシャルコンピューティングはこれに「使用中(in use)」の保護を加え、データライフサイクル全体を網羅するものとして位置づけられています。

 

コンフィデンシャルAIとは:Microsoftの定義

Microsoftは、コンフィデンシャルコンピューティングをAIに適用した概念として、コンフィデンシャルAIを次のように定義しています(Microsoft Azure ドキュメントより)。
「AIのライフサイクル全体を通じて、データとモデルに対して暗号学的に検証可能な保護を提供するハードウェアベースの技術群」
特筆すべきは、その保護対象が「データが使用中である場合を含む」と明示されている点です。つまり、AIがデータを実際に処理・推論している最中においても、データが暗号化・保護された状態を保つことを目指しています。
Microsoftはコンフィデンシャルコンピューティングコンソーシアム(CCC)の共同創設メンバーであり、Azure Confidential Computingを通じてこれを実装。NVIDIAとの協業によりGPUへのコンフィデンシャルコンピューティング対応も進めており、生成AIの推論処理に対してもこの保護を拡大しています。


コンフィデンシャルAIが対象とするAIライフサイクルの各フェーズ

Microsoftのフレームワークによれば、コンフィデンシャルAIは以下のAIライフサイクル全般をカバーします。

Confidential Training(機密学習)

学習データ・モデルアーキテクチャ・モデルの重みを、悪意ある内部者や不正な管理者から保護します。クラウド上でAIを学習させる際にも、学習データや中間成果物(チェックポイント等)がTEE外部に露出しないよう保証します。

Confidential Fine-tuning(機密ファインチューニング)

汎用AIモデルを企業固有のデータでファインチューニングする際、その独自データと学習後のモデルを保護します。金融機関が独自の財務データで言語モデルを特化させるようなケースで特に有効です。

Confidential Multi-party Training(機密マルチパーティ学習)

複数の組織がデータやモデルを互いに開示することなく、共同でAIモデルを学習できる新しいクラスのシナリオを実現します。参加者間の成果物の共有ポリシーも強制的に適用可能です。

Confidential Federated Learning(機密連合学習)

データを集約できないシナリオ(データレジデンシー要件やセキュリティ上の懸念がある場合)に対応する連合学習と、コンフィデンシャルコンピューティングを組み合わせたアプローチです。各クライアントが生成する勾配更新情報を、モデル構築者からも秘匿した状態で処理できます。

Confidential Inferencing(機密推論)

推論時においても、モデルのIPをサービス事業者・クラウドプロバイダから保護しつつ、利用者のプロンプトや個人情報を含む入力データの機密性も同時に保護します。TEE内でのみ復号されるエンドツーエンドのプロンプト保護が実現されます。

 

普及を後押しする規制と市場動向

CCCがIDCに委託した2025年12月の調査では、世界15業界・600人以上のITリーダーを対象に、コンフィデンシャルコンピューティングの採用動向が明らかになっています。

  • 75%の組織がコンフィデンシャルコンピューティングを採用しており、ニッチな技術からメインストリームへの移行が進んでいます。

  • 欧州の金融規制であるDORAデジタル・オペレーショナル・レジリエンス法)が使用中データの保護を具体的に要求しており、77%の組織がDORAを理由にコンフィデンシャルコンピューティングの採用検討を進めています。

  • GDPRをはじめとするプライバシー規制への対応としても、コンフィデンシャルコンピューティングはEUサイバーセキュリティ機関(ENISA)によって「State of the Art(最先端技術)」として分類されています。

同調査でCCCの議長Nelly Porter氏は次のように述べています。「コンフィデンシャルコンピューティングはニッチなコンセプトから、データセキュリティと信頼性の高いAIイノベーションに不可欠な戦略へと成長した」と。

 

日本企業への示唆

グローバルでの標準化・規制強化の動きを踏まえると、日本企業にとっても無視できない潮流です。特に金融・医療・製造業など機密データを扱う業界では、以下のような観点でコンフィデンシャルAIへの対応を検討する価値があります。

  • 越境データ規制への対応:データの国内保管・処理要件が強化される中、コンフィデンシャルコンピューティングはクラウド活用と規制遵守を両立する手段として注目されています。

  • 企業間データ連携の推進:AIの精度向上には多様なデータが不可欠ですが、企業間でのデータ共有にはセキュリティ・競争上の懸念が伴います。コンフィデンシャルAIは、この壁を技術的に乗り越えるアプローチを提供します。

  • AI基盤への信頼確保:AIサービスの提供者・利用者の双方が、モデルやデータが不正に利用されていないことを暗号学的に証明・確認できる「信頼の技術基盤」として機能します。

 

まとめ

コンフィデンシャルAIは、CCC(Confidential Computing Consortium)が定義したコンフィデンシャルコンピューティングを基盤に、AIのライフサイクル全体にわたってデータとモデルを保護する概念です。Microsoftはじめグローバルのテクノロジーリーダーがこの分野に大規模な投資を行い、規制当局もその重要性を認める、いまや産業レベルの取り組みとなっています。

EAGLYSは、このグローバルな潮流を踏まえ、準同型暗号・TEE・連合学習といった秘密計算技術を組み合わせたコンフィデンシャルAIの実装支援を行っています。日本企業がこの技術をどのように自社の文脈に取り込むか、ぜひご相談ください。

参考情報

※本記事に記載されている会社名・製品名・サービス名は、各社の商標または登録商標です。

一覧に戻る