技術革新と脅威の調和ー説明可能AIを考える。
- 時間: 2025年6月7日(土) 13:00 - 17:00 (12:15頃にオープン)
- 会場: 京都大学東一条館1F 113号室(アクセス)およびオンライン(Zoom)
- 言語: 日本語
- 定員: 会場30名、オンライン70名
- 参加登録: Google form(無料、どなたでもOK、締切:6月6日昼12時。会場希望の方はお早めに)
- チラシ
趣旨
2024 年、人工知能(AI)は世界的な科学の舞台で前例のない評価を獲得した。ノーベル物理学賞も化学賞も AIの研究開発者たちに授与されたのである。さらに、ChatGPT やDeepSeek、画像生成 AIなどのアプリケ ーションは日常生活に急速に浸透し、人間の経験や作業プロセスを再構築しようとしている。
一方、AI に関して重大な懸念もある。複雑で精巧なアーキテクチャは、その内部構造を人間が理解することを困難にし、製薬開発などの重要な分野での応用を妨げる。また、特定のデータに依存するAI生成モデルの学習は、偏見や知的財産権に関する懸念を引き起こす可能性がある。さらに、誤った利用より社会が深刻な危険にさらされることもある。
このワークショップでは、AIがもたらす可能性と課題、ならびにそのために必要な説明可能 AIの開発、AIガバナンス、AIに関連する政策を探求することを目的とし、産官学連携で情報共有を図る。
登壇者(順不同、敬称略)
(氏名をクリックすると紹介が表示されます。)
渡辺 琢也 経産省 商務情報政策局 情報処理基盤産業室長
紹介:TBA
飯田 正仁 三菱総合研究所 生成AIラボ 研究員
紹介:東京大学工学部計数工学科数理コース卒業、 京都大学大学院情報学研究科数理工学専攻修了。人工知能学会会員(汎用人工知能研究会専門委員:2025年~)、日本オペレーションズ・リサーチ学会会員(研究普及委員:2010~2016年)。2002年入社後、AI・XR・量子など新しい技術の最新動向や社会に与える影響の調査研究に従事。現在は、生成AIラボにて、生成AIのテクノロジー/トレンド/リスク/規制などを研究。共著に、『13番目の人類「人間がAIを超えたら」』など。
濱田 太陽 株式会社アラヤ Research Team Lead
紹介:2019年沖縄科学技術大学院大学(OIST)科学技術研究科博士課程修了。2022年より、Moonshot R&Dプログラム (目標9)「逆境の中でも前向きに生きられる社会の実現」(山田PMグループ)のPrincipal Investigatorとして前向き状態に関するモデル化に従事。2024年より現職. 研究テーマは好奇心の神経計算メカニズムの解明やLLMによるデジタルツイン研究に従事. AIとニューロサイエンスが生み出す未来のために社会実装に日々明け暮れている。
林 祐輔 AI Alignment Network 理事
紹介:データ活用支援・AI研究開発に企業研究者として携わりながら、プライベートにおいても独立研究者として活動。
橋本 崇 日本銀行 金融機構局 企画役
紹介:新日銀ネット構築プロジェクトのPMO、決済企画、FinTechセンターを経て、2017年6月から2023年6月まで国際標準化機構金融サービス専門委員会(ISO/TC 68)の国内委員会事務局にて事務局長を担当。現在は、金融機構局でサイバーセキュリティを担当。
趙 亮 京都大学 大学院教育支援機構・大学院総合生存学館 教授
紹介:中国清華大学応用数学学部卒、京都大学工学研究科修士・情報学研究科博士。宇都宮大学工学部情報工学科助教、京都大学情報学研究科講師、ドイツ・カールスルーエ工科大学(KIT)客員教授、京都大学総合生存学館准教授を経て現職。研究は、機械学習(特にグラフ学習)、AI倫理、グラフ・ネットワークアルゴリズム、経済社会指標設計、国会・議会規模と議席配分など。情報の視点から生命や智慧、人間、社会を考える情報智慧論を提唱。IEEE、ACM、IEICE、ORSJ会員。
スケジュール
(時間帯をクリックすると概要が表示されます。)
13:00 - 15:00 講演(含質疑応答時間)
司会:李 楊和璞(京都大学大学院総合生存学館博士課程)
13:00 - 13:20 趙 亮 開会挨拶
概要:趣旨説明や未来智慧研究会の研究紹介など
13:20 - 13:40 渡辺 琢也 [タイトルTBA]
概要:TBA
13:40 - 14:00 橋本 崇 「金融機関におけるAIの活用例と課題」
概要:AI技術は金融サービス業界に革新をもたらしているが、その活用にはさまざまな課題も伴う。プレゼンテーションでは、金融業界におけるAIの活用事例を紹介するとともに、主な課題とそれに対する取り組み内容について探求する。
14:00 - 14:20 濱田 太陽 「表現幾何学とによるAIアライメントの可能性と課題」
概要:人工知能(AI)の進展によりその影響力の高さから行動や判断を人間の意図や価値観に一致させるAIアライメントの実現が現代AI研究における重要な課題となっている。本講演では、AIが持つ内部表現の幾何学的な性質に着目し、この「表現幾何学」がAIアライメント問題の理解と解決にどのように寄与できるかを議論したい。
まずAIアライメントの現状と、AIが学習した内部表現の幾何学的性質(潜在空間の構造、類似性の概念、概念間距離)について説明する。これにより、AIがヒトの価値観のモデル化において、幾何学的視点が持つ可能性を明らかにする。次に、表現幾何学を用いてAIの行動や判断を人間の価値観と照合する方法を議論する。特に、心理的特性や倫理的価値観を幾何空間上の特徴としてモデル化し、それらとAIの内部表現をマッピングすることで、ヒトとのアライメントを定量的に評価する手法を紹介する。
最後に、表現幾何学的アプローチによって実現される社会について議論し、これらが与える影響についてや課題を取り上げ今後の研究方向性を提示する。
14:20 - 14:40 林 祐輔 「AIアライメントの新たな地平: 集合的予測符号化(CPC)理論から展望する人間とAIの協調的未来」
概要:人工知能(AI)の急速な社会実装は、誤情報・偽情報の拡散や、オンライン情報の真偽・信頼性評価といった現代社会における重要な課題を顕在化させています。これらの課題は従来から存在したものの、平将明デジタル大臣の「これからの認知戦は攻めも守りもAIが担うようになる」との発言に象徴されるように、情報の生成・拡散・評価の全てのプロセスにAIが深く関与するようになった点において、これまでとは質的に異なる様相を見せ始めています。
本講演では、こうした現代的課題に対応するための二つの重要な研究領域に着目します。
1つ目は、AI、特に大規模言語モデル(LLM)の主要アーキテクチャであるTransformerの動作メカニズムを人間にとって解釈可能なものにするための研究領域「機械論的解釈可能性」です。このアプローチは、Transformer内部に形成される計算回路を同定・抽出することにより、LLMの振る舞いを説明可能にすることを目指します。この領域においては、日本の統計学者 渡辺澄夫氏が提唱した特異学習理論の応用研究も進展を見せています。
2つ目は、AIの行動や判断を人間の意図や価値観と整合させることを目的とした研究領域「AIアライメント」です。AIを人間の意図と整合させるための研究は、その裏返しとして、敵対的AIの脆弱性や誤作動を誘発する手法に関する示唆を与える可能性も内包しています。
本講演では、これら「機械論的解釈可能性」および「AIアライメント」研究の最近の動向を概観するとともに、京都大学の谷口忠大教授が2024年に発表した「集合的予測符号化(CPC)理論」が、これらの現代的課題に対して提供しうる新たな理論的視座を提示します。
CPC理論は、個々のエージェントが相互作用を通じて集合的な信念体系を形成するプロセスを記述するものです。この理論をAIと人間が共存する社会システムへと拡張することにより、AIが人間の認知モデルや社会規範をどのように学習・予測し、その行動を調整しうるのか、そしてそのプロセスを人間がいかに理解し信頼を構築できるのか(AIの説明責任)について考察します。
14:40 - 15:00 飯田 正仁 「生成AIの光と影:5つの潮流から読み解くガバナンスの未来」
概要:生成AIの急速な進化は、私たちの社会やビジネスに多大な影響を与えている。本講演では、生成AIの技術革新とそれに伴うリスクを整理し、5つの主要な潮流を通じて、AIガバナンスの現状と未来について考察する。特に、日本が直面する課題と果たすべき役割に焦点を当て、国際的な協調の中での日本の立ち位置を探る。
15:00 - 15:15 休憩
15:15 - 16:15 パネルディスカッション
ファシリテーター:濱田 太陽(株式会社アラヤ)
15:15 - 15:45 (暫定)生成AIはオープンソース化すべきか?透明性とリスク管理の両立を考える
生成AIの急速な発展に伴い、オープンソース化の是非をめぐる議論が活発化している。Wikipediaをはじめとするウェブ上の多様なリソースを学習データとして活用している点から、公共財として広く開放すべきとの主張がある一方で、悪意ある第三者によるディープフェイク作成等の悪用リスクや、倫理的懸念から慎重な運用を求める声も根強く存在する。技術革新と社会受容性のバランスをいかに取るべきか、多角的な視点から議論を深める。
15:45 - 16:15 (暫定)説明可能性(XAI)はAI開発の必須要件か?ブラックボックス化とのトレードオフ
自動運転や医療診断支援など高リスク領域におけるAI実装において、意思決定プロセスの透明性確保が強く求められる昨今。説明可能性の追求がシステムの信頼性向上やリスク低減に寄与するという主張に対し、「解釈性の追求が開発コストを圧迫」「予測精度とのトレードオフ関係にある」とする反論も存在する。産業応用の加速化時代における最適解を、実務者目線で探求する。
フリーディスカッション 16:15 - 17:00
会場の参加者による自由懇談が予定されています。オンラインのセッションはここで終了しますが、ぜひアンケート調査にご協力ください。
アンケート調査協力のお願い
ワークショップを参加して、ぜひ説明可能AI(XAI)の技術基盤や倫理的実装フレームワーク、産学官連携モデルなどについてご感想や意見などをフィードバックしてください。回答データは完全に匿名化されており、個人を特定する情報を一切収集しません。ただし、集計結果の分析レポートをご希望の方は、アンケート最終項目でメールアドレスの登録が可能です。ワークショップ終了後90日以内にて研究成果を共有いたします。