
日時 :2024年12月9日(月) 15:00~18:00
会場 :イイノカンファレンスセンター RoomA
主催 :国際大学グローバル・コミュニケーション・センター
後援 :グーグル合同会社、日本リスキリングコンソーシアム、経済産業省、総務省
協力 :一般社団法人超教育協会、株式会社TENHO、日本マイクロソフト株式会社、Polimill株式会社
プログラム(敬称略)
- 講演①「日本における AI 人材育成のさらなる加速に向けて」
岩村 水樹(Google ヴァイスプレジデント アジア太平洋・日本地区 マーケティング) - 講演②「生成AIと日本:統計データで見る生成AIの活用と社会的影響」
山口 真一(国際大学GLOCOM 准教授・主幹研究員) - 講演③「AI政策の動向」
渡邊 昇治(内閣官房 内閣審議官) - パネルディスカッション①「格差なくAIの適切な活用を促進し、その利益を享受できる社会を作るには」
石戸 奈々子(慶應義塾大学大学院メディアデザイン研究科 教授/一般社団法人超教育協会 理事長)
井田 充彦(日本マイクロソフト株式会社 政策渉外ディレクター)
澁谷 遊野(東京大学大学院情報学環 准教授)
Julian Brody(Polimill株式会社 エバンジェリスト)
山口 真一(国際大学GLOCOM 准教授・主幹研究員)※モデレーター - パネルディスカッション②「AI人材育成の課題と展望」
砂金 信一郎(Gen-AX株式会社 代表取締役社長 CEO)
内田 了司(経済産業省 商務情報政策局 情報技術利用促進課長)
越前 功(国立情報学研究所 情報社会相関研究系 研究主幹・教授)
七丈 直弘(一橋大学大学院 ソーシャル・データサイエンス研究科 教授)
土田 龍矢(株式会社TENHO 取締役)
渡辺 智暁(国際大学GLOCOM 教授・主幹研究員)※モデレーター
講演① 日本におけるAI人材育成のさらなる加速に向けて
(岩村水樹)Googleは日本全国のあらゆる人のデジタルスキルを向上させ、高度なデジタル人材を育成するには、官民が連携して取り組んでいくことが重要だと考えています。そこで、主幹事として発足させたのが「日本リスキリングコンソーシアム」です。「日本リスキリングコンソーシアム」は、デジタル人材の育成を目的としたリスキリングの包括的なプロジェクトです。本日時点で、パートナー数は 250、会員数は 16 万人、提供プログラム数は 1,500を超え、そのうちAI に関連するプログラム数は 350 以上にのぼります。本日は、本コンソーシアムにおいて、リスキリングに取り組む約6,000人の会員へのアンケート結果に基づいて作成した『AI人材育成白書』を発表します。「AI人材」とは、 AI の知識を身につけ、ツールとして利用するだけではなく、業務で具体的な成果を上げられる人材と定義しています。
世界18か国を対象とした生成AIの導入率を見ると、日本は16位に位置しています。18か国の平均40%に対して、日本の導入率は24%と非常に低い数値にとどまっています。生成AIの日常的な活用割合も、あらゆる層でおしなべて低く、特に経営層、管理職が低い傾向にあります。導入率の低い理由として、「必要なスキルを持った人材がいない」「ノウハウがなく、進め方がわからない」「活用のアイデアやユースケースがない」という点が大きな課題になっています。
それでは、日本のAI人材育成における課題はどこにあるのでしょうか。AI 学習を始めた主なきっかけとして、最も多かったのは「AI技術に興味があったから」で、約8割に達しています。日本人は、諸外国と比較してもAI やテクノロジーに対して寛容的だといわれています。これには、人口減少などの社会的背景に加え、鉄腕アトムやドラえもんなどを身近な存在として育った文化的背景もあるかもしれません。このAI 技術へのポジティブな態度は、日本の大きなアドバンテージです。「具体的な業務成果を上げられる」との回答は 約2割にとどまりました。その一方で、「成果は上がるが改善の余地がある」または「学習やサポートが必要」と感じている人は、合わせて 7 割を超えています。AI 学習は、学習者の高い意欲にもかかわらず、業務成果には結びついていないという課題が浮き彫りになっています。
さらに、AIスキル習得を「継続」する上での課題として、最も多かったのは「学習に必要な時間を確保することが難しい」という点でした。また、所属企業における AI 導入・利用環境においても課題が見られます。企業が「AIを利用できる環境を提供しており、業務に利用している」との回答は 、「AIを利用できる環境は提供されていないが、個人的にAIを利用している」という回答を下回る結果となっています。個人の学習意欲に企業や組織の環境整備が追いついていない、ということがみてとれます。さらに企業規模別に見ると、AI を正式に導入・活用している大企業は5割を超えているのに対し、中小企業ではその半分にとどまり、企業規模が小さいほど、 AI を利用できる環境が整備されていません。国内の全企業数の約99.7%を占める中小企業におけるAI導入と、利用環境の整備は喫緊の課題といって良いでしょう。また、AI学習者が学習を継続するにあたって企業に求める支援として、「学習コストの負担」、「学習時間の確保」、そして「実務でAIスキルを活用する機会の提供」がトップ 3 に挙がりました。AIの学習には、企業が果たすべき役割が非常に重要です。
これらの調査結果から、私たちはこれらのAI人材育成に不可欠な3つの要素を基にした「AI人材育成サイクル」を提言します。第一の要素は「個人の意欲」です。AIスキルの習得には、個人の強い学習意欲が必要不可欠です。日本では、働き手のAI 技術への寛容度や習得への意欲は高い傾向にあります。これは大変大きなアドバンテージとなっているため、この意欲を生かすために、第二に「企業・組織の環境整備」が必要となります。具体的にはAIのツール・システムの導入や、継続的な学習支援の制度など、企業からの多面的なサポートが不可欠です。そして第三に「成果につなげる仕組み」、すなわちAI活用を個人、そして企業の成果につなげることです。そのためには、AIの導入・活用の目的や意義を明確にし、自社の戦略と業務のプロセスに組み込むことが重要です。また、AIを活用した新たなアイデアやイノベーションを生むカルチャーの醸成も成果につなげるためには欠かせません。この3つの要素が「AI人材育成サイクル」において一体となって機能することで、企業はAI活用を進め、さらに競争力を強化していくことができると考えています。さらに、こうしたAI人材の底上げは、日本社会全体の活力につながってゆくと思います。
※『AI人材育成白書』
https://japan-reskilling-consortium.jp/news/286
講演②「生成AIと日本:統計データで見る生成AIの活用と社会的影響」
(山口真一)今、世界中で生成AIの普及が急速に進んでいます。この普及のスピードは、インターネットやパソコンが登場したときの初期の普及スピードよりもかなり早いといわれています。2023年8月、経済産業省が提唱するデジタルスキル標準の中に、生成AIが入りました。様々なメリットやパワーを持つ生成AIだからこそ、例えば、偽・誤情報や知的財産権侵害、情報漏えい、サイバー攻撃など様々なリスクが指摘されています。特に、誰もがディープフェイクを使える、ディープフェイクの大衆化という現象が起きています。例えば2022年に静岡県の水害が起こった時に、ドローンで水害の様子を撮影し、投稿されたという3枚の写真が、実は無料の生成AIサービスによって作られていたということがありました。ポイントは、これを作っている人たちは何のAIの知識もない一般のネットユーザーということです。今後、偽・誤情報が生成AIによって生み出されるかもしれないし、さらに詐欺などにも利用されるかもしれません。
こういった状況を踏まえて、私たちは『生成AIと日本』というレポートを発行しました。これはGoogle合同会社と一緒に行っているInnovation Nipponという研究プロジェクトの成果になります。2024年2月に調査を行い、4000サンプルの分析を行った結果わかってきたのが、生成AIサービスに対して6~9割と非常に多くの方が関心を抱いているということです。最も関心度が高い分野はテキスト生成AIで、35.6%の人が関心を持っています。また年代別に見ると、20代、30代といった若い世代の関心がかなり高く、年齢が高くなるにつれて下がる傾向が見られます。最も利用率が高い分野はテキスト生成AIで、18.9%の人が使っていますが、現時点だと20%を超えていると思われます。テキスト生成AIの主な利用目的は情報の収集、検索、調査全般です。テキスト生成AIといっても、検索や情報収集に使っている人が多いという傾向が出ています。
また、生成AIに関してのリテラシーを調査するために10問のクイズを出してみました。回答の傾向から、生成したコンテンツとそのリスクの存在に関しては、比較的正しく認知されているということがわかりました。一方、生成したコンテンツによって著作権侵害や誤情報といった問題が発生したときの対処に関して、かなり知識がないという傾向が見られます。生成AIリテラシーの平均点は4.2点です。生成AIの利用者は平均で4.6点で、非利用者は平均で4.1点なので、利用者のほうが知識はあるのですが、それでも半分以下なので、知識のない中で生成AIサービスを使っているというのが現状です。
生成AIは私たちの社会に様々なインパクトをもたらします。社会変化に関して調査すると、5~6割の人は生成AIがもたらすポジティブな内容を評価しています。特に、医療診断の精度向上や障害を持つ人が情報アクセスしやすくなる社会、異なる言語間のコミュニケーションがしやすくなる社会といったものに関する評価が高い傾向がありました。一方、生成AIに対して6~7割が懸念の評価をしています。特に懸念が高いのは、情報の信用度です。他方で、生成AIが人々の生活や職を奪うということについてネガティブな評価が低いという傾向も見られます。海外ではこの点についてネガティブな感情が非常に高いのですが、おそらく日本の現在の雇用システムなどが関係しているのだと考えられます。
では人々は、生成AIに対して政府や企業にどのようなことを求めているのでしょうか。多くの人がAIが犯罪などに悪用されることへの危惧から、対策の強化やガイドラインの制定を望んでいます。企業に求めたいことも同様で、顧客データの安全性とプライバシー保護、セキュリティ強化といったことになっています。また、生成AIを利用する社会階層についても分析を行いました。ここで見えてきたのは、学歴や職業の地位、居住地あるいは年収によって、生成AIの利用率に格差が生じているということです。例えば学歴では、非大卒でのChatGPTの利用率が10.5%だったのに対して大卒だと21.8%と、かなり大きな差があります。
また、調査手法の違いはありますが、企業に同じような調査を行ったところ、2024年2月時点で17.1%の企業が生成AIを活用しており、全く同じ傾向が見られました。大企業ではかなり利用が進んでいますが、中小企業ではほとんど進んでいないという結果です。さらに、生成AIを活用している企業では、プロセスや作業の効率化を実現しているという回答が47.9%と最も多くなっていました。生成AIを活用している企業では、イノベーションに生成AIが寄与していると考えている人が非常に多いということがわかってきました。一方で活用できていない企業の人に、その理由を尋ねると、関心があって導入したいと思っても、人がいないとかどう使っていいのかわからない、といったケースが非常に多く見られるということが明らかになりました。
さらに本調査では文献調査を行い、どのようなリテラシーが必要だと指摘されているかについてもまとめています。最も多いのはプロンプトです。指示文への習熟が不可欠で、そのプロンプトには経験値を蓄積していくことが大事だと認識されています。ほかにも、規約の確認、機密情報や個人情報を入力しないことや、出力内容を批判的に検討して修正することなどが不可欠であると指摘されています。
以上の調査研究結果を踏まえ、今回の報告書では、政策的含意を五つ導いています。まずは、「我が国においても生成AIは今後も普及拡大していくため、適切に活用が促進されるような施策が求められる」。今見てきたように、生成AIに関心の高い人は非常に多いのですが、まだ使ってない人が多い。しかし、今後はどんどん普及が進むことが予想されます。さらに、悪用されないよう、そして多くの人が適切に活用できるような環境を整えることが大事だと思います。二つ目は「生成AIの適切な利用に関する啓発を促進し、格差なく多くの人が生成AIによる利便性を享受できる社会を作る」。生成AIはインターネットやパソコンに比べて使い始めるときにはコストも知識もそんなにいらないので、多くの人が使えるはずです。そのため、何が障壁になっているのかをよく考えて、格差なく多くの人が利便性を享受できる社会をつくることが大切です。そういったことも踏まえて、三つ目は「適切な利用方法を示すような事例集、導入する際のガイドライン、セキュリティ対策について、幅広く啓発を進める」。そして四つ目、「生成AIについて、実際に活用されている方法の啓発を進める」。最後に、「官民双方において、プライバシー保護、セキュリティ対策、透明性、犯罪の対策、偽・誤情報対策、倫理的使用に関するガイドラインなどの観点から、生成AIについて多角的な対策を充実させることで適切な利用を促進する」。これらが何よりも重要だと考えています。
講演③「AI政策の動向」(渡邊昇治)
AI政策の全体像ですが、日本はAI戦略会議で政策を議論しています。また、2023年には日本はG7の議長国として広島AIプロセスを進め、年末にG7が合意した広島AIプロセス国際指針は現在54カ国が賛同しています。
国内の政策は、柱が三つあります。一つ目の柱はリスクへの対応です。基本的に、日本はガイドラインで対応しています。中央省庁、教育現場、事業者向けの申合せやガイドラインなどがあり、著作権法や情報流通プラットフォーム法など、既存の関連する法律についても議論しながら、AI開発者や利用者に関する制度のあり方を検討しています。また、各国のAIセーフティ・インスティテュートが連携し、AI安全性に関する規定等を議論しているところです。二つ目の柱は官民におけるAIの利用促進です。日本は官民ともに比較的AIの利用が遅れています。そこで、AIのリテラシー教育や人材育成が必要です。三つ目は開発力の強化です。性能面で海外のAIに負けていない日本製AIも出てきていると聞いていますが、開発力をさらに強化する必要があります。いわゆる「日の丸AI」など一つのAIを作るのではなく、国が大量のコンピュータリソースを確保してインフラを整え、それを多様な研究者の方に提供し、多様なAIを開発していただくという方法で進めています。英語に比べると日本語はデータ量が少なく不利な面があるため、日本語でより多くの学習データを作っていくことも重要です。さらに、それを英語に訳していろいろなところに提供し、日本について正しい知識を持っていただくことも重要だと思います。また、人材育成には時間がかかるので、海外からも来ていただくため、魅力的な環境をつくっていくことも重要だと思います。
リスクへの対応に関して、広島AIプロセスの議論の内容は、国連や欧州評議会、GPAI(Global Partnership on AI)やOECDなど国際的にもリファーされています。アメリカはボランタリーコミットメントで、高度なAIの開発事業者を中心に自主的に対応していこうとしていますが、大規模生成AIについては武器等の開発に使われる可能性があるので、安全保障の観点から事前届出を定めています。ヨーロッパは人権や偏見差別といった最もリスクの高いものは禁止など、段階的に規制を定め、並行して、生成AIについては全体的に規制を課しています。日本の総務省と経産省がつくった事業者ガイドラインは全てのAIをカバーしています。日本のガイドラインは範囲はEUと同様に広いです。また、今年4月に発行しているのでスピードは速かったのですが、ガイドラインなので法律に比べて効力がどうかという議論はあります。
日本の事業者ガイドラインの基本的な骨格は、高度なAIシステムについては広島AIプロセスの国際規範を引用していて、それ以外のシステムについてはOECDガイドラインや、広島AIプロセスのポリシーをわかりやすく書き下しています。事業者によってAIの使い方は全く違うので、AIを使った時のリスクを各事業者がそれぞれ考え、問題が起きたときに、問題をどのように見つけて、どうリカバリーしていくかという、いわゆるPDCAサイクルを各事業者がそれぞれ実施するというところが一つのポイントになっています。広島AIプロセスの国際規範の中にも、各事業者がAIガバナンスについてポリシーを作るという規定があります。AIセーフティ・インスティテュートは、最初はアメリカとイギリスと日本だけでしたが、EU、シンガポール、韓国など設置する国は増えてきています。
アンケートをとると、日本はAIに利点があると考えている人やAIを信用したいという人が少なく、規制が必要だと考えている人が多いようです。日本はドラえもんを生んだ国なので、AIに対してフレンドリーだという説があるのですが、この結果を見るとそうではなさそうです。ただ、ドラえもんはAIではなくロボットだと思っている人が多いのかもしれません。日本の国民の中には、AIに対する不安から、何らかの規律がいると考えている人が多いということで、現在政府はどういう法制度が必要かという議論をしています。法律は必要ないという人もいれば、必要だという人もいます。既存法とガイドラインで十分だという人もいるし、法律が必要だと言う人の意見も、緩やかなものから厳格なものまで幅がありますので、この議論は非常に難しいです。
基本的な考え方としては、リスク対応だけではなくて、イノベーションを同時に達成しなければいけないということがあります。それから、国際的な相互運用性も必要です。また、そもそも日本は無法地帯ではなく、刑法や個人情報保護法等があり、AIを使った犯罪者が刑法によって逮捕されたケースもあるということにも留意が必要です。もう少しリスクベースで領域を分割し、丁寧に考えてみますと、まず、政府は、機密情報を扱いますので、政府のガイドラインをしっかり整備していくことが重要です。それから、製品安全や重要なインフラに関しては、既存の安全規制や業法等があり、例えば、医療機器や自動運転では既にAIを使っているものが承認・認可されているケースがあります。それ以外の一般的な領域をどうするかということがとても大きな課題です。最終的にAI利用者が前面に立つので、AI利用者のリテラシーの向上が重要ですが、子供やお年寄りもAIを使うようになるので、AI利用者側の対策には限界があり、AI開発者側も開発段階でしっかり安全性を確保しなければなりません。安全なAI、つまり透明で適正なAIを、開発段階から用意していただく必要があります。AIに関しては、実態がよくわかっていないという課題もあり、国が情報収集・共有をしっかり行う必要があります。少し時間はかかるかもしれませんが、AIの開発や利用の安全性向上に資する国際規格ができて、第三者認証制度も始まるかもしれません。
これらを踏まえ、法制度が必要か否かを今、政府は議論しています。もし法制度を作るのであれば、どの程度の強度の法律にするのかというところも重要な論点になると思われます。
パネルディスカッション①「格差なくAIの適切な活用を促進し、その利益を享受できる社会を作るには」
論点① 日本における生成AI活用の現状と課題
Brody: 私どもは地方自治体や中央省庁向けに特化したQommonsAI(コモンズAI)という生成AIを開発しています。この生成AIの導入で終わるのではなく、全国の自治体を回って初期導入サポートから継続的な利用の研修サポートまで、無料で行っています。職員向けの生成AI導入研修で感じるのは、リテラシーがある人とない人の間の格差が非常にあるということ。従来、ICTのスキルを持った人は、誰かのパソコンが使えないときに助けたり、セキュリティソフトを導入したりとインフラに関わる部分で活躍していたのですが、生成AIとなると話は全く変わってきます。生成AIを使いこなすことができる職員は、その意思決定の中枢に関わることができます。リテラシーの高い人とそうでない人の間で大きな格差が生じます。その格差は自治体内部での格差だけではなくて、リソースがある自治体とない自治体、生成AIを導入できる自治体と導入できない自治体の間で、政策においても格差ができる。その辺が今後出てくる課題なのではないかと感じます。
井田: 総務省が2024年度に発表した日本・アメリカなどの国民の意識調査では「生成AIを使ったことがありますか」という問いに対して、Yesと答えた人の割合が、中国が56%、アメリカが46%。英国が40%、ドイツが35%、日本は9%でした。同じ調査で「なぜ使ってないんですか」という質問では、二つ大きな理由が出てきています。一つは「使い方がわからない」というもので42%、そして「生成AIは自分の生活に必要がない」というのは40%。普段の生活においてAIを学んでいかなければいけないとか、使わなければいけないという意識があまりないのだろうということがわかります。一方、同じ調査で、6、7割の方は「条件が合えば使ってみたい」という前向きな姿勢を示しているというのは良い傾向だと思います。我々はここをうまく捉えて、リスキリングなり、リテラシー教育を展開していかなければいけないと思っています。今、マイクロソフトではリテラシーに関して様々なプロジェクトをやっております。例えばAIとかクラウドのジェンダーギャップを解消するための、女性を対象にした「Code; Without Barriers」というプロジェクトや、子供が学校でAIの活用方法や留意点を学べるケースシナリオ形式の教材を提供しています。この教材では、プロンプトのコツ、ファクトチェックの仕方などを学べます。ただ、常に課題はアウトリーチです。テック企業はコンテンツは作れますが、全国隅々までアウトリーチするには、1社では限界があります。
澁谷: リテラシー、そしてデータの格差が非常にコアな課題として残り続けるテーマで、積極的に取り組んでいかなければならないと考えています。どんなにAIのモデルが良くなったとしても、基本的にデータが良くないと良い結果は出ません。そういう意味で、バイアスの問題に関して、我々がデータを生成するためのデータを作るということに取り組んでいく必要があると感じています。そうしないと、気がついたときにはデータがないということで、あっという間に格差が広まってしまうことが考えられる。その中で我々は、シビックデータという考え方を中心に考えています。シビックデータは、市民による市民のための市民のデータです。解決したい課題に対して既存のAIが合わない場合でも、どのようなデータがあれば解決に近づけるのか、将来的にどのデータを蓄積し活用すべきなのかを、多様なステークホルダーと共に検討し、AIの基盤となるデータ生成に貢献していくことが重要です。このプロセスは、バイアスの減少に向けて大切な役割を果たすのではないかと考えています。
石戸: 私は2002年に若年層のICT活用を促進するという活動を始めましたが、コロナ前まではeJAPANの頃と利活用の目標はほとんど変わっていなかったと感じます。デジタルインフラは先行して整備されたものの、活用が十分に進まず、気がついたらデジタル敗戦になっていました。AI敗戦になることは避けなければなりません。テクノロジー普及の最大の障壁は、変化への抵抗感です。日本社会では特にその傾向が強く、新しい技術を社会が受容するまでに多くの時間がかかります。特に子供と新しいメディアとの関係でも反対の声が繰り返されてきました。新しい技術は常に問題を伴って登場しますが、リスクを超える利便性が認められたときに、その技術は普及していきます。そして、それを格差なくすべての人に育むためには教育が不可欠であり、そのための環境整備が急務です。情報通信白書を見て希望を感じるのは、使っていない理由の多くが、使ってみたいけど使い方がわからないというデータが読み取れる点でした。であれば、教育現場での利活用の促進は、とても効果的だと思います。コロナ禍を経て明らかになったのは、日本でデジタル導入が遅れていたのは、教育、医療、行政といった公共領域であるということです。ぜひ、公共領域から先行的にAIを積極的に導入し、社会全体に波及させていくことが重要だと考えています。
山口: 私の最近の研究テーマの一つに技術受容性があります。私はムーンショット型研究開発事業に参画していて、サイバネティックアバターに関して技術受容性の研究もやっていますが、生成AIに近い分野でも抵抗感が強いというのも出てきたりするわけです。リスクに目をつぶれという話ではなくて、どううまくこの人々の心情も配慮しながら啓発を進めていくかというところは、今すごく課題感としてあるのかなと思います。
論点② 格差なく、適切な生成AI活用を進めるための施策とは何か
井田: AIの社会的な受容性を高めるためには、悪用を防ぎつつ、社会のレジリエンスも高めていかなければいけないと思います。適切な制度を設計し、企業は自主的な努力も行うということです。例えば先日、衆議院選挙がありましたが、弊社ではこの1年間、世界中で、生成AIの悪用から選挙を守るための対策を行いました。プロンプトベースで候補者の名前を入れた悪意のある画像が作られないようなガードをするとか、弊社のサービス上で悪意あるコンテンツが発見された場合には迅速に審査して、不適切な場合には削除するといったこともやっています。ただこれも1社だけでは限界があるため、マルチステークホルダーの協力が不可欠です。また、AIが身近に存在することを前提としたリスク管理や社会的信頼を高めていくことによって、社会としての受容性が高まっていくのではないかと思っています。弊社はコンテンツの作成や講演はできますが、全国の多様なニーズに応えるのは難しいので、地方自治体や商工会議所、学校、NPOといったマルチステークホルダーの連携が欠かせません。皆様それぞれの強みを生かしながら、うまく回るような仕組みにしていければと思います。また、ディープフェイク対策は弊社だけでなく、他のテック企業でも行われています。ただ、各社の取り組みを取りまとめるワンストップサービスがなく、各社が個別に対応している現状では、政治家や政党に情報を届ける際に非効率で混乱を招くことになります。そのため、信頼できる誰かがコーディネートして各社の取り組みを束ね、しっかりと一体的に進める仕組みが必要です。政府には啓発キャンペーンの支援とか資金的なサポート、ガバナンスを作るためのルールメイキングといった枠組みを後押ししていただきたいと思います。
Brody: 今後長い目で社会実装させるためのコツを三つ挙げたいと思います。私達が作ったQommonsAIが100ぐらいの自治体に導入されて毎日増えていく。これは、よく考えてみればすごく怖いことです。提供する生成AIの中身はブラックボックスで、公開していない。その内容に基づいて政策が立案されるのは、とても怖い可能性を持っていると思います。そこで今、私達はコード・フォー・ジャパンのような公平中立な第三者に、バイアスと公平性を確保していくためのルール決めに関する相談をしています。もう一つ、やはり普及のためには生成AIに学習させるデータが非常に重要です。各自治体や国がオープンデータを出していますが、自治体のオープンデータのルールが統一されてないことが、生成AIの普及をデータ面から妨げる要因となっていますので、オープンデータのルールについてもさまざまな協議をしています。自治体間でリテラシーの差が開いているという部分について、都道府県が主体となって基礎自治体の方を集めて生成AIの導入研修をしたり、サポートをしたり、生成AIの導入のガイドラインを作っていくといった丁寧なサポートを継続的にしていく必要があります。三番目として、この部分に関して国主体で広域自治体に働きかけてほしいと、総務省に相談しています。
澁谷: 市民の参加という点では、基本的なこととして、生成AIはあくまでツールであることを改めて認識する。根本的な課題はそもそも何なのか、どうしてそこで生成AIなのか、どんなふうに生成AIを使いたいのかという課題の設定や、その手前のサーベイにしっかり取り組んでいく。二つ目はマルチステークホルダーとして、いかにいろいろな人に関わっていただくか。どのようなデータがあるのかないのか、どのようなリスクやバイアスがあるのかなどに関して、対話を積み重ねる必要があると思います。三つ目は、あらゆるデジタル技術に関わることですが、プロトタイピング的に小さなプロジェクトで最初から最後まで手を動かしてみる。市民と行政の方も含めて、失敗してもいいから最初から最後まで手を動かしてみようという環境をいかに整備していけるのかが鍵になると思っています。これは偽・誤情報に関しても同じで、生成AIを使ってどんな偽・誤情報ができるか、触って知っていただくのも重要だと思うので、このプロトタイピングという考え方はこれから大切にしていきたいと思います。
石戸: 格差なく生成AIを活用していくために最も重要なのは、やはりできるだけ早く教育の場でAIをすべての子どもに提供することだと思います。超教育協会でも、全授業での生成AI活用やAIを活用した入試の導入、AI教材の開発などを提言してきました。
同時に、教育におけるAI活用の是非が問われがちですが、本質的に問われているのは「ツールを使うかどうか」ではなく、「教育そのものをどう抜本的に変えていくか」だと考えています。これは教育に限らず社会全体にいえることです。新しい技術を従来の仕組みに単に上乗せするだけでは大きな変化は生まれません。たとえばコロナ禍では、自動でハンコを押すロボットがニュースになりましたが、本当に必要だったのは「ハンコという文化自体を見直すこと」でした。過去の仕組みに適応しすぎた社会構造こそ、新しい技術の普及を阻んできたのです。だからこそ、これまでの習慣やルールを疑い、当たり前を問い直す意識改革が不可欠だと考えています。大事なことはAI時代の社会をどう構築するかということだと思います。
まとめ
石戸: 安全・安心はもちろん大切です。しかし、それを過度に求め、完璧なルールを整えてから導入しようとすれば、かえって未来の可能性を閉ざしてしまいます。リスクを恐れるあまり挑戦しないこと自体が、大きなリスクになり得ることにも目を向けるべきです。
実際に子どもたちと一緒に生成AIを使ったワークショップを行うと、大人では思いつかないような斬新な使い方を次々と見せてくれます。将棋の藤井聡太さんのように、AIを自在に使いこなし、自らの可能性を飛躍的に広げていくAIネイティブ世代が、すでに生まれつつあると感じます。人機一体でAIと共存して、新しい価値を共に創造していく、そんな人材が数多く育つ社会になればと願っています。AIの利活用が進むことで、新しい社会の姿が築かれていく。その未来に期待すると同時に、私自身もその実現に力を尽くしていきたいと思います。井田: まず、AIが責任を持って使われるように、ということについては、我々テック会社がしっかりとやっていきたいと思いますし、様々な課題やニーズに関する皆様方のご意見も受け止めていきたいと思います。2点目は、ユーザーの皆様におかれては、どんどんAIを使ってみてくださいということです。プロンプト一発でうまくいく人は多分いません。何度も試してやっていくことによって、だんだんと上達するコツがわかっていきます。とにかく使ってみることでしか上達しないので、どんどん使ってみてくださいと強調したいと思います。
澁谷: 生成AI人材というと、技術者とかコードをかけるといったところをイメージしがちです。しかし、必ずしもそういう方だけではなくて、生成AIへのいろいろな関わり方があると思います。いろいろな人による多様な参加の方法を確保して、失敗を恐れずに試すことができる環境を準備する。その中で正しく格差とかバイアスといったリスクを理解して使っていく社会というのが良いものかをみんなでディスカッションする。そうした環境をいかに準備することができるかというところに尽力していきたいと思います。
Brody: AI関連のニュースを追いかけていると、技術の進歩に関連するたくさんの情報があふれている中で、ともすると技術先行になってしまう。その状況で俯瞰して見てみるという機会がもてたというのは非常に素晴らしいことだと思いました。
山口: 最後に私からは2点申し上げます。一つがマルチステークホルダーというキーワードです。やはり、教育啓発とかAI事業者の信頼性の担保、あるいはその制度設計など様々な取り組みが全部必要ですので、各ステークホルダーがしっかりと取り組んでいくということが極めて重要だと思います。もう一つは、いろいろなデータから見ると、市民もものすごい興味を持っている。でも使ってないんですよね。生成AIサービスは無料でも使えます。1人1人が意識を変えて、興味を持ったら使ってみようと思うのも大事かなと思いました。皆様本当にありがとうございました。
パネルディスカッション②「AI人材育成の課題と展望」
論点① AIの恩恵を誰もが享受できる社会に向けた人材育成の課題
砂金: 私はソフトバンク株式会社の100%子会社であるGen-AX(ジェナックス)という会社で、生成AIを使った継続的な事業化の実現に取り組んでいます。私は対話型AIの初期、マイクロソフト時代に女子高生チャットボット「りんな」の開発に関わっていたので、どちらかというとAIに優しく人間に厳しいという立ち位置です。人間側がどういう学習データを用意すれば、AIがもっと仕事がしやすくなるのかということは、まだあまり社会的業務的に解き切れてない課題だと思います。
内田: 私は情報処理技術利用促進課長として、DX推進やデジタル人材の育成に取り組んでいます。DXが進まない主な理由として、以前は資金不足が挙げられていましたが、現在はスキルや人手の不足が大きな障害となっています。このため政府は、5年間で230万人の人材を育成する目標を掲げ、文部科学省、経済産業省、厚生労働省が中心となって対応を進めています。
経済産業省では、企業内のDX人材の育成に力を入れており、「デジタルスキル標準」を基盤に、スキル習得、リスキリングの後押しをしています。具体的には、デジタルスキル標準に基づいた教育コンテンツを探せるポータルサイトの整備も進めました。こうした取り組みによりDXを推進し、AIを活用するデジタル人材の育成を進めているところです。越前: 私の専門はAIセキュリティで、最近はフェイク映像を自動検知する「シンセティック・ビジョン」を提案し、いくつかの国内企業で採用されています。生成AIの分野では、研究成果を社会実装することも非常に重要だと考えています。
私は東京大学と総合研究大学院大学で30名ほどの研究チームを率いていますが、そのうち日本人はわずか2名。多くはAIに詳しくなく、AI分野の進化が速いため、キャッチアップも困難です。そこでメンター制度や学生主体のミーティングを取り入れ、効率的な教育と知識共有に努めています。
しかし、課題もいくつかあります。まず、AI技術の進展が早く、学会への投稿前に他の研究者に追い越されることが多い点です。次に、修士課程の2年では在籍期間が短く、国際会議で成果を出すのが難しいこと。そして、ポスドクの給与が急上昇し、優秀な人材の確保が難しくなっていることです。また、社会実装に必要なエンジニアも確保が難しく、現在は限られた時間で個人事業主の方に依頼している状況です。それでも、アカデミアと社会をつなぐ好循環を生み出すことに意義を感じています。七丈: 私は一橋大学ソーシャル・データサイエンス学部に所属しています。一橋は文系の大学ですが、文理共創を掲げて新しい学部を立ち上げ、社会科学とデータサイエンスを融合し、ビジネスをリードできる人材を育成しています。「ソーシャル」は社会科学を意味し、科学を社会に実装して社会変革に活かすことが重要だと考えています。
現代の課題は、科学で生まれても科学だけでは解決できない「トランスサイエンス的」なもので、「ウィキッド・プロブレム」とも呼ばれています。これらに対応できる人材の育成は、ビジネスや政策の面でも重要です。そのため、企業の協力を得ながらプロジェクト型の演習など、実践的な学びを提供しています。今後は、データサイエンスを使いこなす人材や、AIセーフティ・インスティテュート(AISI)やGPAIのような国際ルール形成の現場に関わる人材も必要です。日本ではまだ人材が不足しており、産官学が連携して育成を進めるべきだと感じています。土田: 弊社は生成AIソリューションの提供やシステム開発の伴走支援を行っており、これまで2万人以上にリスキリングを提供してきました。今後、医療やインフラ、労働など生活全体が抜本的に変わると考え、中小企業へのAI活用支援に注力しています。
愛知県の製造業の事例では、繰り返し作業の効率化により1分の短縮で大きなインパクトがあり、社員の20%にリスキリングを行った結果、約1億円の業務改善効果が出ています。成功の要因は、経営層の強いコミット、社員環境の整備、そして活動が実務に直結していることです。
中小企業では導入の課題が多く、企業ごとに対応が異なります。国の支援や連携が不可欠で、単にスペシャリストを導入するだけでは不十分です。現場の人が主体的にAI導入に関わることが、実践的な活用に繋がります。弊社はデジタル・非デジタルを問わず、リスキリングによってAI人材を育成することを目指しています。
論点② AI人材に求められる能力
砂金: 私は以前マイクロソフトでクラウドのエバンジェリストをしており、クラウド技術の普及に貢献した一方で、反省もあります。当時は目の前の課題解決を優先し、クラウド導入によって非効率な業務をなくせると考えていました。しかし結果的に、国内に技術やスキルが十分に残らず、大規模な運用能力が低下した可能性があると感じています。
この問題は、生成AIにもつながります。クラウドがIT業界の変化にとどまったのに対し、生成AIは生活に直結します。ブラックボックス的に使っていると、逆にAIに使われる側になってしまう危険もあるため、我々自身が技術を開発し、競争できる環境をつくる必要があります。「プロンプトで何でもできる」と思われがちですが、実際には企業内データの整備など、地道な作業が不可欠です。表面的な使いこなしだけで満足せず、本質的な技術理解が重要だと考えています。土田: プロンプトがそもそも必要なくなるのではないかという話もありますので、弊社としてはそこに重きを置いていません。逆に大事なのがユースケースです。ユースケースの引き出しを多く持つというところを重視しています。実際に支援している企業でも、ユースケースを社内で話し合う時間を取っていただいています。さらにそのユースケースを実際に形にするところまで、デモ版、場合によってはノーコードツールも使っていただけるようにしています。実際使うところまで試していただいて、実務に寄った今後の活用を見据えた取り組みが大事ではないかと思います。
砂金: AI人材とはどんなスキルを持ち、何ができる人なのかという問いは難しいですが、プロンプトを書けるだけでは不十分だと思います。むしろ、AIを使いこなす技術を持ちつつ、目の前の業務課題を正しく捉える「課題発見力」が重要です。
以前「今必要なのはドラえもんではなく“のび太力”だ」と言われたことがありますが、のび太君は困りごとを正しく伝える力がありました。つまり、課題を直視してAIにどう伝え、どう解決に導くかを考えられる力が、今求められているのではないでしょうか。渡辺: 文理融合とか、単にデータサイエンスにとどまらない知のあり方が重要ではないかということと、今のようなお話は響き合うところがあると思いましたが、いかがでしょうか。
七丈: ドラえもんは課題を解決するというより、かえって問題を大きくする道具を出すことが多く、のび太も課題を正確に認識していないために曖昧なコミュニケーションが起こってしまいます。これは自然言語における典型的なズレの例だと思います。私はむしろ、俯瞰的で未来を見据えた視点を持つドラミちゃんやセワシ君のような存在が必要だと考えています。つまり、人材にも短期的な対応力だけでなく、長期的な視野と幅広い視座を持って行動できる力が求められるのではないでしょうか。その育成には、地域に出て課題を見つめるなど、多様な視点を養う経験が大切だと思います。
論点③ 対策と各種ステークホルダーの役割
渡辺: 高度なAI人材が圧倒的に不足しており、日本の給与水準では雇用も難しいという課題があります。生成AIでは、ユーザー企業が自らデータを作り、モデルをトレーニングすることで使いやすくなっていくため、ユーザーとプロバイダの境目が曖昧になりがちです。その結果、ユーザー自身も専門知識を段階的に身につける必要が出てきます。高度AI人材やDXの一部としてのAIスキルを、より広く普及させていくことが求められています。では、こうした課題に対してどのような対策やステークホルダー連携が有効なのでしょうか。
土田: 企業への導入を考える際に重要なのは、経営層からのアプローチと、現場で実務ベースにAIを試す動きの両方だと思います。そのためには、経営層のコミットや体制づくりに加えて、人材育成も欠かせません。人材育成を進めやすくするには、助成金の支援だけでなく、前段階の教育も大切です。すべてが三角形のようにバランスよく揃うことが、今後ますます重要になると感じています。
七丈: 各ステークホルダーは、もっと連携を深めた方がいいのではないかなと思います。我々も産学官連携のためのプラットフォームを、ソーシャル・データサイエンス学部に設置しています。大学としても、リスキリング等、より社会のニーズに迅速に対応できるような体制を取る。それによって、より社会に対して貢献したいと考えています。
越前: アカデミアでは論文が重視されがちですが、生成AIの分野では社会実装の重要性も高まっており、意識を変える必要があると感じています。論文が評価されても、実際に企業で使うと精度が出ないこともあるため、若い研究者には実践的な経験を積んでもらいたいと思っています。修士・博士課程や教員の評価にも、こうした経験を反映させるべきです。また、社会実装にはIPや契約の知識も不可欠で、研究と連携した実践的な教育スキームが望ましいと考えています。
内田: 2018年に経産省がDXレポートを出してから6年が経ちますが、日本では企業がITベンダーや情シスにデジタル化を丸投げする構造が続き、真のデジタルトランスフォーメーションには至っていません。生成AIはゲームチェンジャーであり、ドメイン知識を持つ人こそ活用の主役となる時代が来ています。そのため、スキル標準でも開発側より利用側のスキルを重視し、リテラシー向上にも力を入れています。特に一般社員がデジタル知識を持つことで、組織変革の受容性が高まり、DX推進の大きな助けとなると考えています。
砂金: 企業や研究者は競争を通じて新しい進化を起こすべきだと思います。一方で、民間企業が生成AIを新しい輸出産業に育てる覚悟も重要です。これまで日本はITリテラシーで遅れがありましたが、生成AIは多言語対応で言葉の壁を越え、観光や教育、医療など多様な分野で活用できます。今までは日本語対応が遅れの言い訳でしたが、生成AIによって世界中でビジネスができる時代になっています。だからこそ、やられる前にやるというマインドに変わらなければなりません。3年後に日本にIT技術が残らず、プロンプト職人ばかりになるのは避けたいので、国も強い支援をしてほしいと思っています。
まとめ
土田: とにかくAIに触るということに尽きると思います。これまで多くの企業から「使いたいけどどうやればいいかわからない」という相談を受けてきました。企業ごとに実際使えるケースや課題は異なりますが、まずはとにかく使ってみるということを、今後の大事なポイントとして挙げたいと思います。
七丈: やはり幅広い知識や視座というのは重要です。よくT型あるいはπ型人材と言いますが、データサイエンスに関する深くて広い理解を兼ね備えた人材がこれから必要だと思っています。
越前: AIの進化がものすごく速く非常に厳しい競争の中で、学生からよく言われるのが、ハイキングやウォーキングなどの物理的なコミュニケーションをしたいということです。信頼関係も含めて人と人とのコミュニケーションがものすごく大事だと痛感しています。
内田: 新しい技術が登場したときに、それにどうキャッチアップし、興味を持って向き合うかが大切です。生成AIの時代、新しいことを常に学び続ける姿勢が求められます。そこでは、自分のスキルを可視化できることが必要になりますので、デジタルスキル情報を蓄積できるプラットフォームの立ち上げを考えています。情報処理技術者試験や民間検定、学習成果などを生涯IDに記録し、自分のスキルを蓄積することで、個人の学びを支え、社会でそのスキルを活かす取り組みを進めていきたいと思っています。
砂金: IT業界だけで盛り上がって負ける未来は避けたいです。これまではプログラミング教育が中心でしたが、今はChatGPTのように「こんなアプリを作りたい」と伝えるだけで形になる時代です。怖がらずにAIに接することが大切です。
以上