NTTドコモビジネスがAIエージェントの「身分証明」基盤を開発——自律取引時代のデジタルトラスト確立に向けた技術検証を開始
※本記事は2026/05/12時点での情報を基にしており、閲覧時点では内容や状況が変わっている可能性があります。
5月12日、NTTドコモビジネス株式会社(旧NTTコミュニケーションズ、2025年7月に社名変更)は、AIエージェント同士が自律的に取引や連携する社会を見据えた技術検証の開始を発表した。
今回開発したプロトタイプの核心は「AIエージェント属性情報レジストリ(仮称)」だ。AIエージェントの開発者・運用主体・実行権限・データポリシーといった属性情報を一元的に登録・管理・公開する基盤だ。
さらに、AIエージェント間通信規格「Agent2Agent Protocol(A2A)」の仕様の一部であるAgentCardと、電子署名付きデジタル証明書の標準規格「Verifiable Credentials(VC)」を組み合わせることで、なりすましや改ざんを検知できる仕組みを構築している。
IT LeadersはAgentCardを「AIエージェントの身分証明書」と表現した。この言葉が示す通り、NTTドコモビジネスが取り組んでいるのは、人間社会における「免許証」や「法人登記」に相当するAI向けのインフラを、マルチエージェント時代に先んじて整備しようとする試みだ。
なぜ今、AIエージェントの「信頼性」が問題になるのか
マルチAIエージェントの台頭が生む新たなリスク
生成AIの進化により、単一のAIが応答するモデルから、複数のAIエージェントが役割を分担しながら複雑な業務を自律的に処理する「マルチAIエージェント」へのシフトが進んでいる。
企業における実装も加速しており、NTTドコモが2026年2月に商用化したモバイルネットワーク保守向けAIエージェントシステム(Amazon Bedrock AgentCoreを活用し、100万台以上のネットワーク装置データをリアルタイム分析、障害対応時間を50%以上削減)はその代表例だ。
A2A(Agent2Agent Protocol)などの通信規格の整備により、人間を介さずAI同士が直接通信し、情報共有・タスク委譲・自動取引を行う世界が現実のものになりつつある。この流れが加速するほど、「相手のAIエージェントが本当に信頼できるものか」という問いの重要性が増す。
AgentCard単体では「自己申告」にすぎない
A2AのAgentCardは、AIエージェントの機能・権限・開発者などの属性情報をJSON形式で記述したファイルだ。AIエージェント同士が連携する際に相手の素性を把握するための仕様として設計されているが、IT Leadersが明確に指摘するように「AgentCard自体は自己申告にすぎず、内容が正しいかどうかを第三者が保証する仕組みは用意されていない」。
これは本質的な問題だ。人間社会に例えるなら、免許証の代わりに自分で書いた「私は免許を持っています」という紙を提示するだけで、誰もその内容を確認できない状態に近い。
AIが自律的に経済活動を行う世界では、この「自己申告問題」はなりすまし・過剰権限による不正動作・機密情報漏えいといった深刻なリスクに直結する。
OWASPが警告する AIエージェント特有のリスク
国際的なセキュリティコミュニティOWASP(Open Worldwide Application Security Project)は、生成AIを利用するアプリケーションの代表的なセキュリティリスクとして、「過剰な権限を与えられたAIの不正動作」と「機密情報の漏えい」を明示的に報告している。
NTTドコモビジネスの公式発表は、OWASPのこの指摘を根拠の一つとして明示している。特に、企業がAIエージェントを用いたサービス連携や、自動取引を導入する際、「相手となるAIの開発主体や権限を客観的に確認できない現状が実運用上の課題となっている」と問題を具体的に定義している。
プロトタイプの仕組み——AgentCard × Verifiable Credentials
「身分証明書」の内容を第三者が保証する構造
今回開発したプロトタイプは、AgentCardの「自己申告問題」を解決するためにVerifiable Credentials(VC)を組み合わせた点が核心だ。VCは電子署名付きのデジタル証明書の標準規格であり、証明書の内容を発行者(Issuer)が電子署名することで、受信者(Verifier)が改ざんやなりすましを検知できる仕組みだ。
この組み合わせにより、AIエージェントが別のエージェントと連携する際のフローは次のようになる。まず連携相手のAgentCardをレジストリで照会し、そのAgentCardに付与されたVCの電子署名を検証することで、相手エージェントの正当性を客観的に確認する。
NTTドコモビジネスが強調する点として、このシステムは「AIエージェント自身を直接保証するのではなく、発行・運用主体と権限の正当性を担保する」という設計思想を採用している。
レジストリが管理する属性情報の範囲
レジストリに登録・管理される属性情報は多岐にわたる。アイデンティティ情報(AIの開発者・運用主体・運用環境の所在国)、データ流用ポリシー(学習利用の可否・データ保持期間など)、実行権限(決済の可否・どのデータへのアクセスが許可されているかなど)が主な対象だ。
「運用環境の所在国」という属性が管理対象に含まれている点は特に注目に値する。これは単なる技術的な属性ではなく、経済安全保障やデータ主権(どの国の法律に基づきデータが管理されるか)という観点からの要件を反映したものだ。
グローバルにAIエージェントが連携する時代において、「どの国のどの企業が運用するAIと自社データを共有するか」はコンプライアンス上の重要な判断軸となる。
技術基盤の高度化——NTT研究所の先端技術を順次統合
3つの技術が信頼性をさらに強固にする
今後のプロトタイプ発展に向けて、NTT株式会社が培ってきた3つの先端技術を順次統合していく方針が示されている。
マルチパーティ選択的開示技術は、属性情報の中から必要な項目のみを相手方に開示し、それ以外の情報を秘匿できる仕組みだ。例えば、「決済権限を持っていること」だけを証明し、それ以外の内部設定は開示しないといった使い方が可能になる。プライバシー保護と信頼性担保の両立という、AIエージェント時代の根本的な課題に応える技術だ。
ウォレットの分散鍵管理技術は、デジタル証明書の管理に必要な暗号鍵を単一の場所に集中させず分散管理することで、鍵の漏えいや単一障害点(SPOF)のリスクを低減する。AIエージェントが大量に稼働するマルチエージェント環境では、鍵管理の堅牢性がトラスト基盤全体の信頼性に直結する。
水平連合学習技術は、データを共有せずに複数の主体が協調してAIモデルを改善できる技術だ。機密データを外部に出すことなく、AIエージェントの信頼性評価モデルを継続的に改善する用途での活用が期待される。
デジタルIDウォレットとの連携で実用化へ
今後はプロトタイプをデジタルIDウォレットやVCの発行・検証機能と連携させ、より実用的なトラスト基盤へと拡張していく。あわせて、顧客・パートナー企業・国内外の関連団体との共同実験を実施し、実際のビジネスシーンにおける運用性と有効性の検証を加速させる方針だ。
NTTドコモビジネスが掲げる最終目標は、「個人・法人・IoTデバイス・AIが国や組織の垣根を越えて互いの信頼性を担保し合えるデジタルトラストの仕組みを通信事業者として提供すること」だ。通信インフラを提供してきた立場から、AI経済圏のトラスト基盤プロバイダーへと役割を拡張しようとする戦略的方向性が明確に示されている。
なぜ通信事業者がAIトラスト基盤を担うのか
「信頼のインフラ」としての通信事業者の新たな役割
今回の取り組みを戦略的に読み解く上で重要なのは、「なぜ通信事業者であるNTTドコモビジネスがAIエージェントの身分証明基盤を構築しようとしているのか」という問いだ。
答えの一つは、通信事業者が歴史的に「信頼のインフラ」を担ってきた存在であるという点にある。個人や法人の通信回線契約・本人確認・認証基盤の提供は、通信事業者が長年にわたって行ってきた業務だ。
AIエージェントが人間の代わりに自律的に活動する時代において、その「信頼の証明」機能をAIに拡張することは、通信事業者としての事業ドメインの自然な延長と捉えられる。
もう一つの答えは、経済安全保障という観点だ。公式発表が「経済安全保障をデジタルの側面から支援する」と明言しているように、AIエージェントが国境を越えて取引する世界では、相手AIの所属国・運用主体・権限の正当性を担保する仕組みは安全保障上の重要インフラとなる。
この種の基盤を民間企業が担う場合、国際的な信頼性と中立性を持つ通信事業者は強い立場を持ちうる。
NTTグループ内でのAIエージェント活用実績との連動
今回の技術検証は、NTTグループ内でのAIエージェント実用化の流れとも連動している。NTTドコモが2026年2月に商用化したネットワーク保守向けAIエージェントは、100万台以上のネットワーク装置データをリアルタイムに分析し、複雑な障害への対応時間を50%以上削減することに成功している。
NTTドコモビジネスは2026年中に200種のAIエージェント展開を目指しており(2025年6月発表)、グループ全体でAIエージェントの実装が急加速している。
自社グループ内でマルチAIエージェントの大規模活用を進めながら、同時にそのトラスト基盤を開発・提供するという構造は、「実績に基づくトラスト基盤プロバイダー」としての信頼性を外部顧客に示す上でも有効に機能する。
AIエージェント導入の「ガバナンス設計」
シャドーAIから「AIエージェントの不正連携」へリスクが進化
企業のIT部門が直面してきた「シャドーAI(IT管理外のAI利用)」問題は、AIエージェント時代に新たな次元へと進化する。個人がChatGPTやClaudeを勝手に使うシャドーAIに加え、「IT部門が把握していないAIエージェントが社内システムと自律的に連携する」というリスクが現実的になりつつある。
今回NTTドコモビジネスが指摘した「相手となるAIの開発主体や権限を客観的に確認できない現状」は、企業がサードパーティのAIエージェントをAPI経由で自社システムに接続する場面で特に深刻だ。
与えた権限を超えてデータにアクセスしたり、意図しない外部システムに情報を送信したりする「過剰権限問題」は、OWASPが警告する通り、現時点でも現実のリスクとして発生している。
「AIエージェントのガバナンス」を今から設計する
AIエージェントを業務に導入している、あるいは近く導入を検討している企業が今から着手すべきことは、AIエージェントに関するガバナンスポリシーの整備だ。具体的には、自社が利用するAIエージェントの開発元・運用環境・データポリシー・実行権限の棚卸し、API連携を行う外部AIエージェントの認証・検証プロセスの設計、AI関連インシデントの責任所在と対応フローの明確化が基本的な出発点となる。
今回NTTドコモビジネスが開発したようなトラスト基盤が普及すれば、「どのAIエージェントをどの権限で使うか」の管理が標準化されていく。その標準に先んじて自社のガバナンス体制を整備しておくことは、将来的なコンプライアンス対応コストを大幅に削減する先行投資となる。
「AIに何をさせるか」より「AIに何をさせてはいけないか」の設計を優先する
本稿で取り上げたAIエージェントのトラスト問題の本質は、「AIに何ができるか(能力)」ではなく「AIに何をさせていいか(権限)」の設計がいかに重要かという点に集約される。NTTドコモビジネスのプロトタイプが「AIエージェント自身ではなく、発行・運用主体と権限の正当性を担保する」という設計思想を採用している点は、この本質を正確に捉えている。
AIエージェントを業務に導入する際、「このエージェントは何ができるか」の評価と同等以上に「このエージェントに何の権限を与えるか」「誰がその権限を承認し、どのように監査するか」という問いに先に答えを用意しておくことが、AI活用の安全な加速に不可欠だ。
「AIエージェント経済圏」の信頼基盤構築に向けた日本からの発信
NTTドコモビジネスの今回の発表は、技術的な試みとしての意義にとどまらない。AI同士が自律的に取引する「AIエージェント経済圏」が現実になる前に、その信頼基盤を整備しようとする先行的な取り組みとして、国内外の業界に対するシグナルとなっている。
本プロトタイプが実用化に至り、国際的な相互運用可能なトラスト基盤として普及するかどうかは、今後の共同実験と標準化議論の行方に依存する。しかし、「AIエージェントの身分証明」という問いを正面から掲げ、具体的な技術検証を開始したことの意義は、正式サービス化の可否にかかわらず評価に値する。
先週取り上げたMUFGとGoogleのAgentic Commerce構想、Anthropicの金融エージェントテンプレート、OpenAIのChatGPT広告プラットフォーム——これらが「AIエージェントで何ができるか」という能力側の拡張であるのに対し、NTTドコモビジネスの今回の発表は「AIエージェントを安全に使える環境をどう整備するか」という信頼基盤側のアプローチといえるだろう。
能力と信頼基盤の両輪が揃って初めて、AIエージェント経済圏は本格的に機能し始めるのだ。
※出典1:AIエージェント経済圏の信頼の基盤となる「AIエージェント属性情報レジストリ(仮称)」のプロトタイプを開発(NTT公式プレスリリース) / NTTドコモビジネス、AIエージェントの「身分証明」基盤を試作、自律取引の信頼性確保を目指す(IT Leaders) / AIエージェント経済圏の信頼の基盤となる「AIエージェント属性情報レジストリ(仮称)」のプロトタイプを開発(atpress)