
講演①:渡邊 昇治(内閣官房 内閣審議官)
講演②:Marcus Bartley Johns(マイクロソフト 公共政策担当アジア地域シニアディレクター)
パネリスト:
Jared Ragland(Business Software Alliance アジア太平洋 (APAC) 政策担当シニアディレクター)
村上 明子(AIセーフティ・インスティテュート 所長/損害保険ジャパン株式会社 執行役員CDaO)
中尾 悠里(富士通株式会社人工知能研究所 シニアリサーチマネージャー)
モデレータ:渡辺 智暁(国際大学GLOCOM 教授/主幹研究員)
日時 :2025年3月14日(金) 11:00~12:00
会場 :ANAインターコンチネンタルホテル東京「ギャラクシー」
主催 :国際大学GLOCOM
協賛 :日本マイクロソフト株式会社、Business Software Alliance
概要
2025年3月14日、国際大学GLOCOMはシンポジウム「日本のAIガバナンス、世界での役割」を開催した。AIガバナンスに関する制度設計のあるべき像を探る議論が世界的に活発化している。2つの講演の後、日本の政策の現状、そして国際的な文脈でのガバナンスの最新動向と日本が果たすべき役割を議論する2部構成で進行した。
安全性かイノベーションか? 独自路線か国際協調か?
模索が続く中での日本のAI政策を考える講演① AI法案、リスク軽減とイノベーションの両立を目指す
内閣官房 内閣審議官 渡邊昇治氏第一部の最初に登壇した渡邊昇治氏は、最近の日本のAI政策動向と2月末に国会に提出した法案の要点を紹介した。日本のAI政策が本格化したのは2010年代後半と思われ、人間中心の考え方を掲げて検討を進めてきた。状況を一変させたのが生成AIである。ブームを受けて、2023年5月のG7広島サミットを機に立ち上がった「広島AIプロセス」を含む多くの場面で、ガバナンスの議論が活発に行われた。特に生成AIをリスクとみるか、イノベーションの機会とみるかで激論が続いているが、最近はイノベーションあってのガバナンスという方向感が強いのではないか。
この現状を踏まえ、政府はAI戦略会議や関係省庁の連携を中心に議論を深め、日本のAI政策の柱を確立した。その方向性は、リスク対応とイノベーション促進の両方に目配りするものだ。まず、リスクへの対応では、特定領域のAI(重要なインフラや製品の安全性に関わるもの)利用と一般的なAI利用を分けて考えることができる。前者のリスクについては、業種ごとの業法や既存の製品安全に関する法令が存在している。一方、後者のリスクについては、刑法に代表される既存の法制度による手当がされているほか、各種ガイドラインが作成され、AI Safety Instituteも設立されている。次に、イノベーション促進については、AIの活用と研究開発の促進による成長を重視する。先進国の中では遅れている懸念がしばしば指摘されるが、ポテンシャルはあり、人材育成やインフラの整備を官民で取り組んでいく。
そして2025年2月末、AI活用と研究開発をより強力に進めていくための法律案として、国会に提出したのが「人工知能関連技術の研究開発及び活用の推進に関する法律案(AI法案)」である。この法案は「国民生活の向上及び国民経済の健全な発展」を目的に据えた。罰則のない法律とし、規制法ではなく推進法の性格を持たせた。
同法案の要点を3つ挙げる。第一に、この法律はPDCAサイクルを作る狙いがある。AIは技術の進化が速いため、常に実態を把握し、必要に応じて計画を見直せるようにする意図がある。第二に、国際的な整合性を持たせるため、広島AIプロセスの国際指針に則す。第三に、自主的な取り組みを尊重する。過剰な規制にならないよう、この法案には罰則はない。AIを監視、検閲に使うつもりはない政府の考え方を法律によって明らかにし、強くアピールする。この法案はAIという技術に対しての国の考え方を示す初めての機会になる。
図1:AI法案の概要
出典:内閣府講演② エージェンティックAIの登場で汎用技術としての真価を問われるAI
マイクロソフト 公共政策担当アジア地域シニアディレクター Marcus Bartley Johns氏続いてMarcus Bartley Johns氏が登壇し、グローバルの視点から、AIエコノミーの成長で進化するガバナンスの構図について講演を行なった。過去3年間を振り返ると、GPT(Generative Pre-trained Transformer)、すなわち大規模言語モデルの能力開発に多くの注目が集まっていた。しかし、これからのAIエコノミーを考える上で重要なのはもう1つのGPT(General Purpose Technology)、汎用技術の方だ。汎用技術はスタックに分解でき、その発展の歴史は社会におけるAIの役割を理解することに役立つ。
図2:AIの技術スタックの構成要素
出典:マイクロソフト汎用技術の恩恵が社会全体に行き渡るまでのプロセスは、インフラへの大規模投資から始まる。電気が同様のプロセスを経たように、現在はAIインフラへの投資が世界中で行われている。マイクロソフトが2024年からの2年間で29億ドルを日本での事業に投資すると発表したことはその好例だ。また、AI技術スタックの上方に位置する基盤モデルについても、OpenAIのGPTに代表されるLLMに加えて、非常に多様な規模や用途のモデルが存在し、われわれのプラットフォームでも幅広く提供している。NTTの日本語処理能力に優れる「tsuzumi」のような比較的軽量なモデルも登場した。
しかし、これからのAIエコノミーの成長を牽引する主役は、技術スタックの最上位に位置するアプリケーションだ。医療や教育、災害対策のような公共の利益に資するユースケースへのアプリケーションに期待が高まる。エージェンティックAIの活用事例も出てきた。トヨタは9つのAIエージェントを実装した「O-Beya (大部屋)」という社内システムを構築し、運用を始めた。ベテランエンジニアの知見の引き継ぎにも有用という。このようなイノベーションが、特定の国に集中することなく、世界各地で試行錯誤が進行していることは見逃せない。AIガバナンスに関する関心が世界中で高まっているのはそのためだ。
2025年2月にパリで行われたAI Action Summitでは、AIガバナンスの将来を考える上で重要な方向性について議論された。重要な方向性は4つある。第一に、報告面の国際協力で透明性を高めることだ。広島AIプロセスが提供する「報告枠組み」は、国境を超えた情報共有をより速く行うことに貢献するだろう。第二に、リスクについての研究を強化することだ。AI Safety Instituteのグローバルネットワークの取り組みは、AIの影響力をよりよく理解することに貢献できる。第三に、これらに関連したオープンソースのAIツールの選択肢を増やすことだ。AIツールへの自由なアクセスは、汎用技術としてのAIが社会に受け入れられるために欠かせない。最後が広島AIプロセス・フレンズグループの活動に代表される包摂性を高める取り組みだ。同グループの取り組みは、世界中の大小の様々な規模の国々の意見を取り入れていることを国内外に示している。
パネルディスカッション:AIガバナンスの動向、追及すべき価値、日本の役割
渡辺:ここまでの話を振り返ると、日本のAI法案は、罰則を設けることや安全性を重視してのイノベーションを遅らせるものではありません。持続的なイノベーションを推奨する方向で、政策や制度づくりの舵取りをすると受け止めました。また、AI Action Summitで、イノベーションと規制の関係について議論が交わされたが、日本の考え方はこの法案からも伺えます。
ここからのパネルディスカッションでは、時間の許す限り、用意した質問を基に、自由に意見を述べてもらいたいと思います。まず、パネルディスカッションから参加した3名の皆様に、自己紹介と最初の「AIガバナンス」に関する質問へのコメントをお願いします。
- Business Software Alliance アジア太平洋 (APAC) 政策担当シニアディレクター Jared Ragland氏
- AIセーフティ・インスティテュート 所長/損害保険ジャパン株式会社 執行役員CDaO 村上明子氏
- 富士通株式会社人工知能研究所 シニアリサーチマネージャー 中尾悠里氏
- モデレーター:渡辺智暁(国際大学GLOCOM 教授・主幹研究員)
図3:ディスカッションアジェンダ
出典:国際大学GLOCOMJared:Business Software Alliance(BSA)は、エンタープライズソフトウェア産業を代表する業界団体で、米国、欧州、ラテンアメリカなどをカバーしています。私はシンガポールを拠点に アジア太平洋地域の市場をカバーしています。現在、あらゆる所でAIガバナンスとそれを支える技術についての議論が活発に行われています。私たちの活動は政策に焦点を当てているので、その観点からお話ししたいと思います。
まず、日本を含む先進国のほとんどが、AIガバナンスに関する議論を5年以上続けてきたことを忘れてはならないと思います。決して新しい論点ではないAIガバナンスですが、世界で初めて包括的なアプローチを採用したのがEUのAI法です。この法律には、AIの開発を一律に規制するのではなく、リスクベースのアプローチを採用したことに代表される、評価するべき点が多くあります。また、日本政府が、広島AIプロセスを通じて、グローバルリーダーシップを発揮したことも注目すべき進展です。
アジア太平洋地域では、各国政府がさまざまなアプローチを採用しています。韓国では、AIに関するリスクベースのアプローチを重視する法律が採択されました。日本と豪州でもAI法制度の議論が進み、リスクベースのアプローチに注目が集まっています。その一方で、シンガポールのように、拘束力のない枠組みやガイダンス指向のアプローチを採用する国もあります。各国の動向は、うまく行ったことといかなかったことの共有に役立つと思います。さらに、AI Safety Instituteが立ち上がったことも良いことです。
これからの発展に向けて、規制アプローチにソフトローで拘束力がないものを採用するか、法的拘束力を課すのか、最終的に国際的な整合性を保てるかどうかに関心があります。村上:AI Safety Institute(AISI)は、2023年11月に行われたAI Safety Summit 2023をきっかけに、AI Safetyを考えなければならないと、英国が率先して最初の組織が立ち上がりました。この動きに米国と日本が続き、日本では2024年2月に設立されました。この数年でAIを取り巻く環境は大きく変わりました。特に、広島AIプロセスの前に、EUのAI法ができたことは大きい。韓国で行われたAI Safety Summit 2024に続いて2025年2月にパリで行われた3回目のSummitは、名称を「AI Action Summit」と改め、安全性だけではなく、イノベーションのためにどんな行動が必要か、より踏み込んだ意見交換が行われたと思います。
AIの安全性に関する動向には、大きく二つの潮流があると思います。一つは、米国で第2次トランプ政権が発足し、安全性よりもイノベーションに軸足を置く傾向が明らかになったことです。元々、安全性は非常に広い概念です。特に、National Security、すなわち国家の安全保障に関わることに国の機関は注力するべきという考え方が発展してきたと感じます。最近、英国のAISIは機関名をAI Security Instituteに変更しました。ミッションは変わらないものの、軸足が安全保障に移ったことになります。
また、当初は、安全性基準を満たしている認証を発行することを検討していた国が多かった。けれども、今の技術動向のスピードを鑑みると現実的ではない。広島AIプロセス・フレンズグループが報告枠組みの策定を進めていることを見ても、安全性に配慮し、かつ透明性のあるAIを開発していることへのお墨付きを与える方向に変わってきたと思います。最先端の技術動向を理解した上でAIの安全性を語ることが重要になってきました。中尾:所属する富士通の人工知能研究所には、LLMを開発している部署もあれば、AIガバナンスのツールを開発している部署もあり、さまざまな研究を行なっています。私個人は2022年に『AIと人間のジレンマ:ヒトと社会を考えるAI時代の技術論』を出版したことの縁で、内閣府のAI制度研究会のメンバーとしても活動しています。
私が注目しているAIガバナンスの動向は、EUのAI 法の今後の実効性です。トランプ政権の影響が、米国だけでなく世界中に及ぶかもしれない。村上さんの話に出てきた安全保障については、NISTの舵取りを含めて、AIガバナンスにどう影響するのかが気になるところです。また、私自身は、研究者としてイノベーションを起こすことがミッションなので、世界のAI研究開発が縮小するのか、それとも方向性が変わるのか、その先行きを注視しています。また、例えば、広島AIプロセスの報告枠組みに合わせて、人間中心のAIに研究開発の方向性を沿わせていくことも重要だと考えています。AIの進化のスピードにガバナンスが追随できるのか?
渡辺:渡邊さんとMarcusさんにも、AIガバナンスの動向についての意見を聞かせてほしいです。
渡邊:Marcusさんの話に、エージェンティックAIの事例がありました。この技術が社会に浸透することを踏まえ、ガバナンスがどう変わるのか。今は人間の関与がありますが、人間がAIエージェントに委任した結果への責任は誰が負うのでしょうか。委任した人か、それともAI開発・提供者か。技術の発展を止めてはいけないし、止められない。その時に備えて、どうするべきかに関心があります。
Marcus:2つの観点があります。1つはAIの適用と行動の両方に焦点を当てていることです。過去3年間を振り返ると、アジアでは「AIイノベーションと適用」と「ガバナンスと行動」の取り組みが並行して行われてきました。日本でも2つが並行して進んでいますが、グローバルな議論をするときは2つを区別するべきだと思います。
もう1つは、実践的な動きがあることです。世界は、基本的フレームワークと原則の設定から、実践的な活動へと焦点が移行しています。すでに紹介された例でも、広島AIプロセスの報告枠組みを包括的なものにしようとする取り組みは、実践的なものの好例です。AISIのようなグローバルネットワークでの活動もあります。その活動は世界の研究者間の実践的な技術交流につながり、AIの安全性研究に関する科学を前進させられる。これらの動向は将来性のあるものばかりです。渡辺:他の皆さんは、今のコメントに補足したいことがありますか。
中尾:研究開発をしている立場からすると、新しい技術の登場で、今までできなかったことが次々にできるようになりました。エージェンティックAIのような新しい事例の話がありましたが、リスクが顕在化してから対応技術が出てくる一方で、ガバナンスはその技術がない状態で方向性を考えなくてはならない。その状態で規制していいのか。ガバナンス対策なしのAIが広まってもいいのか。この点をどう考えればいいかが重要な論点だと思います。
渡邊:その通りだと思います。技術が変化すれば、ガバナンスも変化する。技術がダイナミックに変化することを前提に、ガバナンスも考えなくてはならないと思います。
村上:言語処理学会に出席したところ、AIの安全性が話題になりましたが、面白いことに、エージェンティックAIに関しての安全性を議論している人は誰もいなかった。私も研究者なのでよくわかるのですが、AIエージェント自体は古くから研究されてきたテーマなので、今更その安全性を議論するのかと思われている。研究者だけでなく、実務家や政策立案者が一緒に話し合わなくてはならないと思いました。
渡辺:アカデミアには、すでに起こりうる問題の解決策の知恵があるのですか。
村上:いいえ。生成AI時代にAIエージェントがどう変わるかという観点での安全性は何も議論していない。それが問題です。
Marcus:非常に重要な問題提起です。エージェンティックAIは素晴らしいイノベーションですが、規制やガバナンスが、実現したいことが基本原則に基づいているかを確認しなくてはならないと示しています。特定の技術を規制しようと努力しても、その技術に追いつくだけの規制になってしまう。それが避けられないとすると、原則に基づく規制の中で枠組みを定め、その技術の利用に伴う避けるべき実害は何かを明確にする。その方が直接的な規制よりも効果的だと思います。
Jared:ここまでの話から追加したいことが2つあります。1つは、ガバナンスの文脈で過去数年間にできたリスクと機会です。そのリスクとは、AI関連政策の分断化です。国際的な分断と国内の分断の両方があります。国際的な分断のリスク軽減には、広島AIプロセスの活動が貢献すると思いますが、国内の分断リスクとは何か。例えば、AIガバナンスのビジョンを示す国のリーダーシップが弱い場合、セクター別の規制当局が自分たちの管轄内だけで対処しようとするでしょう。個人情報や著作権など、さまざまな問題に対して一貫性のないルールや法的要件を生み出すリスクを内在化させてしまうことになりかねません。
その一方で機会もあります。中央政府がアプローチを考えながら、渡邊さんが話していたように、既存の法律を利用すること、そして既存のデータガバナンス規制がAIエコノミーに適用できるかを検証することです。韓国の個人情報保護委員会では、AIの開発力に不必要な影響を与えないように、個人情報保護の厳しい要件の一部を調整することを検討していると聞きました。これはほんの一例です。私たちが考えなくてはならないのは、国単位でも国際的にも整合性のある規制環境をどう作るかです。これからの日本のAIガバナンスで追求するべき価値原則とは?
渡辺:Marcusさんが指摘した、規制が技術に追いつくためには、価値原則を重視するべきという話に、2つ目に用意した質問「追求すべき価値」とも関連します。また、Jaredさんが分断化リスクには2つあると話していました。広島AIプロセス・フレンズグループにおける日本のリーダーシップについて評価してもらったのですが、今後に向けて期待することはありますか。どちらかを選んで、最後にパネリストの皆さんに一言をお願いして締めくくりにしたいと思います。
渡邊:日本は中立的な役割を担える国だと思います。グローバルに活躍する特徴的な企業が少ないこともあって、中立的に振る舞える。上から目線で「こうしなさい」ではなく、下からAIガバナンスを支えることができればと思います。もう一つ、「規制」という言葉はあまり使わない方がいいのかもしれない。
Marcusさんが話していたように、特定の技術が登場する都度、規制するのはほぼ不可能です。ガードレールやフレームワークを明確にした上で、その範囲内で事業者に自主的に活動してもらうことが現実的だと思いました。Marcus:日本のような民主主義社会では、法律にその国の価値観が反映されているものです。AI技術を考えるときも、その価値観に根ざした基本原則を当てはめることだと思います。そして、これからのAIの機会を考える時に重要な価値の一つは、包摂性だと思います。電気を例に取ると、日常的にアクセスできない人々が世界中に何千億人もいる。AIが汎用技術だとすると、電気と同様の状況になるのは避けなくてはならない。その恩恵が一部の国にとどまらず、できるだけ広く普及させるには、包摂性の価値が重要になると思います。
Jared:日本が国際的なリーダーの役割を果たしていることは、私たちBSAが、日本国内の規制や政策の動向に注目している理由の1つでもあります。日本の取り組みは、他の国々のモデルとして大きな影響力を持ちます。特にアジア太平洋地域では、米国が明確な方向性を示さない場合、日本を参考にする。EUのAI 法には、称賛に値するところがたくさんありますが、アジア太平洋地域の国々は、規範的なものではなく、イノベーションの促進と国の競争力を高めることのできるアプローチを求めています。そこに日本が国際的な議論における強力なリーダーシップを発揮できる場所があります。
村上:渡邊さんの話にもあったように、日本という国の立ち位置は非常に面白い。独自の言語を話し、独自の文化を持っています。その意味では、AIの安全性は国ごとの文化的背景の相違が反映されるはずです。一方で、世界に一つのAI安全性があると信じている人たちがいて、全てに規制をかけようとしている。それが今の混乱の原因ではないかと思います。各国が大事にしている価値観を尊重し合いながら、AIを安全に使うために、何が世界共通の脅威なのか、それを洗い出すためにどんなフレームワークが必要なのかを議論するべきです。広島AIプロセスをきっかけに、日本はその議論のリーダーになれる。多様な文化を世界に認めてもらう。それが日本のできることだと信じています。
中尾:私が重視するべきだと考える価値原則は2つあります。一つがマルチステークホルダーの参加です。LLMは非常に複雑で、専門家ですらもう中身を完全にトレースすることはできない。今までの技術では、予防的観点からアプリケーションに応じたリスクの洗い出しの議論が行われてきました。今後は社会全体でAIという技術自体のリスクを考えなくてはならない。その意味で、研究者や実務家だけでなく、市民参加が不可欠になると思います。もう一つは、文化的な多様性の尊重です。AIの安全性に文化的多様性があるように、LLMにも文化的多様性があります。どこか一国の汎用的な価値観ではなく、その土地ごとの、日本であれば日本の価値観の中の尊重するべき部分を議論するべきだと思います。