執筆者プロフィール

吉永 京子(よしなが きょうこ )
政策・メディア研究科 特任准教授その他 : ジョージタウン大学テクノロジー法・政策研究所ノンレジデント・フェロー
吉永 京子(よしなが きょうこ )
政策・メディア研究科 特任准教授その他 : ジョージタウン大学テクノロジー法・政策研究所ノンレジデント・フェロー
2024/08/05
世界で初めて包括的にAIを規制する法律が成立
EUにおいて世界で初めてAIを包括的かつ直接的に規制する「AI規則」(通称AI法)が成立した(2024年7月12日に官報に掲載され、20日後の8月1日から順次施行される)。これはAIのリスクに対応するために制定されたことに加え、27の加盟国の市場の統一を図ることでAIを市場内で流通させやすくする意図もある。また、EUによると、統一的、包括的にAIを規制することで法的確実性をもたらすとしている。
同法ではリスクに応じてAIを規制する。すなわち、(1)禁止されたAI行為、(2)ハイリスクAIシステム、(3)特定のAIシステム、(4)(当初の起草段階では想定していなかった)汎用目的AIモデルである。禁止されたAI行為は、例えば、サブリミナルな技法(潜在意識にこっそり働きかける技法)や操作的な技法、年齢・障害等の脆弱性情報を用いて人間の行動や意思決定に悪影響を及ぼすことや、社会的行動や個人的な特性に基づいて個人や集団を評価分類するいわゆる「ソーシャルスコアリング」を行って人間に害や不当な扱いを与えたりすること、プロファイリング等のみに基づいた犯行予測、インターネット等からかき集めた(スクレイピングした)顔認証データベースを作成すること、医療や安全上の理由を除き職場や教育機関で感情推測すること、合法の場合を除いてセンシティブな個人情報を収集する生体情報分類システムの使用、いくつかの例外を除いて公共の場でのリアルタイムの遠隔生体識別システムを法執行目的で使うことなどである。
条文の大半は人間の健康・安全や基本的人権に重大なリスクをもたらす可能性があるハイリスクAIに対する規制で、リスクマネジメントシステムの構築や関係者への情報開示等の透明性の要求事項等がある。また、ハイリスクAIシステムの提供事業者は市場投入・サービス開始前に適合性評価を受けなければならない。特定AIについては、開発者とデプロイヤー(利活用事業者)は、より軽微な透明性の要求事項が課され、例えば、エンドユーザーが接しているのはAI(チャットボットやディープフェイク)であることを知らせなければならない(汎用目的AIについては後述)。そして、現在、EUの単一市場にある多くは最小リスクのAI(AI搭載のビデオゲームやスパムフィルター)だが、これらは特段、法令上の義務はない。なお、同法は軍事や研究目的のAIについては適用されない。
EUに拠点を持っていなくても、EUに対してサービスを展開する企業やハイリスクのAIシステムのアウトプットがEUで使われる場合には同法の適用が及ぶので、これに該当する日本企業も影響を受けることになる。この点から個人情報保護法規則であるGDPRが世界的に影響を与えた「ブリュッセル効果」と同様の効果が予期されている。違反した事業者は高額な罰金が科せられる。
AI規制の議論の始まり
さて、世界でAI規制の議論が活発になったのは、2016年頃からである。同年3月には「ディープラーニング」(深層学習)を用いたAIの囲碁プログラムが人間のチャンピオンに勝つという衝撃的なニュースもあった。ディープラーニングは様々な可能性をもたらすと同時に、なぜそういう結果が出たか人間の理解を超えるいわゆる「ブラックボックス問題」がある。AIのモデルの組み方や使い方次第では、バイアスが増幅されてその結果が特定の集団だけを優遇するような差別的な結果になったり、人間が無意識のうちに恣意的に操作されたり、ひいては、社会全体に悪影響を及ぼすことが指摘されるようになり、AIに関する規制が議論され始めた。
日本は、世界に先駆けてAIの研究開発に関する原則を提唱しており、AI規制の議論に貢献している。2016年に日本はG7の議長国となったが、同年4月の「G7情報通信大臣会合」で、日本は、AIの研究開発に関する8原則を提唱した。それがきっかけとなり、AI原則に関する国際的な議論が始まり、2019年のOECDのAI原則やG20のAI原則の合意につながる。そしてその翌年、OECDのAI原則の実装を話し合う国際組織である「AIに関するグローバルパートナーシップ」(Global Partnership on Artificial Intelligence; 通称GPAI)が設立された。筆者もその専門家委員として日々、政府や企業・組織の参考となるような実践の調査研究に関わっている。
そして、2023年に日本が再びG7の議長国になると、広島での首脳会議の結果を踏まえ、「広島AIプロセス」というG7の担当閣僚が中心となってAIの開発・利活用に関する国際的なルール作りを議論する新たな枠組みができた。その前年の11月末に、OpenAIがChatGPTをリリースすると、生成AIがもたらすリスクも顕在化したため、その対策も含めて議論することになった。広島AIプロセスでは、日本が重視している様々なステークホルダー(G7以外の国、官民、学術界、市民社会)から意見を幅広く聞く「マルチステークホルダープロセス」を経て2023年10月30日に、G7首脳声明のほか、AI開発者を対象にした国際指針と行動規範(Code of Conduct)を公表した。
米国におけるAI規制
米国では、2022年10月にホワイトハウスの科学技術政策局(OSTP)が、「AI権利章典の構想(原文を直訳して日本語では「青写真」と呼ばれることもある)」というタイトルでAIに関する5原則を発表した。Bill of Rightsというと、アメリカ合衆国憲法の中でも人権保障規定を指すため、それを彷彿とさせる実に気の利いたネーミングにしたと思う。そして、その後、2023年7月にはバイデン政権が、Google、OpenAI、Anthropic等、AI開発先行企業7社を集めて自主的な取り組み(Voluntary AI Commitments)として安全でセキュアで信頼性のあるAI開発を約束させ、さらに、2カ月後にはアドビ、IBM、NVIDIA等8社も新たに参加した。同政権はAIの倫理面や責任あるAIに向けた政策に積極的に取り組んでいる。
また、企業等が参考にできるリスクマネジメントのフレームワークのガイダンスとして、米国国立標準技術研究所(NIST)は、2023年1月に、「AIリスクマネジメントフレームワーク1.0」を出している。さらに、G7の行動規範が出された直後の2023年10月30日にバイデン大統領は「人工知能(AI)の安心、安全で信頼できる開発と利用に関する大統領令」を発令した。この大統領令によって、米国がこれまでのソフトロー(ガイドライン等法的拘束力がない)アプローチからハードロー(強制力がある法律)に舵を切ったと誤解されることが多いが、そうではない(この点は、6月末に筆者がワシントンD.C.に行って政府関係者やシンクタンクの研究員に訊いて確認をしてきたところである)。この大統領令というのは、行政府の長である大統領の連邦政府の役人や行政機関に対する命令であり、企業に対して特定の行動を求めるものではない。具体的なガイダンスの中身については各政府機関に任されている。
自治体レベルでは、AIを規制する法律を制定している例もある。ニューヨーク市では採用活動においてAIを使っていればそのことを通知しなければならない法律が成立したが、あまり機能していないとのことである。
米国は、連邦レベルでは包括的な個人情報保護法がいまだにない。以前から法案が出ては立ち消えている。実は、これがないので、AI開発企業が研究開発を進めることができたとも言われている。AIについても特にアカウンタビリティに関する議員立法案が盛んに出されているが、成立の見込みがない。
日本におけるAI規制
さて、日本では、前述のように、総務省がOECDに貢献した「AIの研究開発に関する8原則」に「連携の原則」を加えた9原則から成る「国際的な議論のためのAI開発ガイドライン」を2017年7月に発表したのち、利活用の観点からも2019年8月に「AI利活用ガイドライン」を公表した。そして、内閣府は、それと前後して2019年3月に「人間中心のAI社会原則」(統合イノベーション戦略推進会議決定)を出した。さらに、経済産業省は、「人間中心のAI社会原則」を尊重する際にAI事業者が実践すべき行動目標を整理して仮想的な実践例等を提示した「AI原則実践のためのガバナンス・ガイドラインVer.1.1」を2022年1月に公表した。
さらに「人間中心のAI社会原則」を土台として、総務省のAI開発ガイドラインとAI利活用ガイドライン、経済産業省の「AI原則実践のためのガバナンス・ガイドライン」を統合し、新技術の台頭を考慮した「AI事業者ガイドライン」が2024年4月19日に公表された。筆者も経済産業省の「AI事業者ガイドライン検討会」委員としてこのガイドラインの策定に関わったが、総務省と経済産業省が手を組んで1つのガイドラインにまとめたことは評価される。筆者はこれまでシンクタンクの研究員として、長年、官公庁の仕事をしてきたが、複数の省庁が連携してガイドラインを出すということは大変珍しく、今後もこのような省庁間の連携が進むとよいと思っている。
このように、日本では、現時点ではAIを包括的に規制する枠組みとしては、法的拘束力がないソフトローのアプローチを採っている一方、個別分野においては、AIの進展に合わせて既存の法律を修正して対応しているところである(例えば、改正金融商品取引法や特定デジタルプラットフォームの透明性及び公平性の向上に関する法律等)。(詳細は、古川直裕・吉永京子『責任あるAIとルール』(一般社団法人金融財政事情研究会、2024年5月)を参照)
その他諸外国の動向
さて、海外に目を向けると、英国も日本と同様、自主規制を中心にセクターごとの対応をしている。また、AIスタートアップが多いイスラエルも既存の法律で対応できるところが多いとして、所管官庁の介入の必要があればソフトローのアプローチやモジュール実験等を通じてAIの文脈特有のリスクと変化の速さに対応する必要性のバランスをとりながらセクターごとに対応を行うというスタンスである。シンガポールも包括的な規制としてはソフトローを中心において、ガバナンスと技術評価を行うためのツール(AI Verify toolkit)を提供している。
一方、包括的にAIを規制するアプローチとしてハードローを採っているのは現在、EUだけであるが、カナダ、韓国、ブラジルにおいては、AIを包括的に規制する法案が出ている。中国は科学技術研究全般についてはAIの全ライフサイクルに倫理を統合するための自主的な原則とガイドラインを導入し、特定の種類のAI(レコメンダーシステムやディープシンセシス技術、生成AI)にはハードローの規制をしている。(上記国の詳細はCEIMIAのA Comparative Framework for AI Regulatory policy [PDF]のレポートを参照。筆者も第2弾のレポートのアドバイザーをしている)
規制の方法
ハードローにするか、ソフトローにするかは各国それぞれだが、どれがよいというわけではない。また、実はあまり差異はない(理由は後述)。それぞれの国が抱える事情は様々で、経済状況、文化的背景や法文化、既存法の存在(例えば、個人情報保護法、民法、刑法などの規定)、企業文化も異なるため、その国に合った方策を取るのがよい。
日本の場合は、既にそうなっているように、包括的なAIを規制する手段としてはまず法的拘束力がないソフトロー(ガイドライン)で始めて、個別分野で必要に応じてハードロー(法律)で規制をするのがよいと思われる。ソフトローといっても連邦レベルで包括的な個人情報保護法がない米国と違い、しっかりした個人情報保護法もある上(日本は経済を重視する米国と人権を重視するEUの中間くらいに位置していたが、EUのGDPR以降は日本もかなりGDPRに寄せて法改正をしている)、日本はもともと社会的制裁が強い上に、企業はコンプライアンス意識が高いからである。日本のIT関連政策や法制度改正の委員会では事業者も委員にすることが多いため、守らなければならないという一定のインセンティブが働くが、法的拘束力がなくとも国からガイドラインが出されれば、大半の企業は真面目に取り組もうとする。よく海外の関係者からは、「日本はいいよね。うちの国だったら法的拘束力がなければ、誰も従わない」という話を聞く。
個人情報保護の状況をみても、日本では、企業が個人情報を漏洩したことが報道されると、たちまちその企業のレピュテーションまで下がる。そのため、日本の企業は個人情報保護法対応にナーバスになり、対策を行っている。日本では、特に上場した企業だと、少しでもリスクがあるとそれを回避し、チャレンジしない傾向がある。そのため、日本でいきなりAIを包括的に法律で規制すると、誰もAIの開発をしたがらなくなるだろう。そうするとイノベーションも進まず、日本の国際競争力は落ち、経済にも悪影響を及ぼすだろう。日本は特に少子高齢化による労働力の減少が深刻であるため、AIを上手に活用していかなければならない。また、AIのリスクについても日本の既存の法律で対応できるところも多い。
もっとも、技術の進行に合わせて、厳しく規制しなければならない分野もある。軍事面や政府のAI利活用の場面や、汎用型人工知能(AGI)等AIが次のステップに進めば、規制が必要になる。また、企業がAI事業者ガイドラインに従わず、好き勝手に開発・利活用をすることが多くなり実際に人々や社会に悪影響を及ぼすようになれば、規制もやむを得ない。
相互運用性(Interoperability)の確保はどうするか
さて、各国のAI規制がバラバラだとその相互運用性を図るためにはどうすればよいかが論点となる。国際社会においては、各国が抱える事情やテクノロジーの進歩の度合いも違いすぎるため、法的拘束力があるハードローでの合意形成は難しい。そうなると、大枠の部分で「原則」(Principles)という形での合意、すなわちソフトローでの合意しか図れない。しかしながら、国際会議で議論していると、ハードローかソフトローかはあまり関係なく、似たようなものになってきていると感じる。実際、どの国も人間中心のAIや安全性、公平性、透明性、アカウンタビリティの原則を謳っている。また、ISOによるテクニカルな標準化も進んでいる。
GPAIでは、実践的なことを話し合い、様々なプロジェクトを通じて国や企業が参照しやすい提言や資料やベストプラクティスを作っている。日本の官公庁もGPAIの動きを注視・支援しており、それをG7やOECDの場でも共有・議論しているため、相互に影響を及ぼし合っていると言える。GPAIにはグローバルサウスの参加者も日々議論している。さらに、広島AIプロセスフレンズ・グループという枠組みもでき、EUを含む53の国・地域が参加している(2024年6月現在)。
このように、国際組織が相互に影響し合って、コンセンサスの形成に努めている。なお、グローバルサウスと呼ばれる国々は、特に、AIによって仕事を奪われることやAIへのアクセス(AIを実際に使えるか)を懸念している。テクノロジー先進国は、発展途上国の視点にも立ったルールづくりが必要となる。ただ、結局、AIのルール規制の実権を握るのは、AIのテクノロジーが先行している国である。技術面で競争優位に立てなければ、他国のルールをそのまま押しつけられる形になってしまうのである。
汎用型AIの規制
さて、これまでのAIは、特定のタスクを行う「狭いAI」または「弱いAI」と呼ばれており、予め定義された環境内で動作するためにラベル付けされたデータセットで訓練されているのである程度予測できたが、大規模言語モデル(LLM)であるChatGPT等の生成AIの登場は、幅広い知的タスクを行う「強いAI」と呼ばれる汎用型AI(AGI)に向けてかなり前進し、人々にとって身近なものとなった。ハルシネーション(誤情報)、プライバシー、知的財産権、バイアス、ディープフェイクなど様々な問題があるが、汎用型AIが進むとサイバー犯罪への利用や、究極的には人類の滅亡につながる懸念も広がりつつある。
そこでEUでは科学者たちが、AIシステムをその意図された目的に応じてハイリスクかどうかを分類するアプローチは、汎用目的AIシステム(基盤モデル)に対して抜け穴を作ることになると警告をし、Future of Life Institute等も同システムをAI法の中に組み込むべきだとし、「汎用目的AI」(General Purpose AI; この略称もGPAIなので前述の組織名と同じで混乱するが)という別立ての章ができた。すなわち、GPAIモデル提供者は技術文書・仕様手順書の提供や、EU著作権指令を遵守し、事前学習に使用されたコンテンツの要約の公開、システミックリスクがあるGPAIモデル提供者はモデル評価、敵対的テストの実施、重大なインシデントの追跡および報告、サイバーセキュリティ保護の確保等の義務を負う(ただし、市場投入前のR&D目的のモデルは対象外)。これは我が国においても参考になる。(注:もっとも生成AI等のGPAI=AGIではなく、AGIに向けた一歩に過ぎないところは注意が必要)
米国は連邦レベルでは汎用型AIモデルについての規制はまだない。生成AIのリスクへの対応策に関してはNISTがガイダンスとして2024年4月29日付で「AIRMS Generative AI Profile」案を出している。
一方、汎用型AIによるリスクへの対応も含め、安心安全なAIの開発・利活用のために、AI Safety Institute が続々と設立されている。英国、米国に次いで、日本は2024年2月に設立し、さらに、カナダ、インドでも検討が進められているという(2024年6月現在)。ここではAIの安全性に関する評価手法や基準の検討・推進を行っているが、互いに連携することで、前述の相互運用性問題の解消にも貢献することが期待される。(フランスは、GPAI(組織)の支援センターでもあるInria(デジタルサイエンス及びテクノロジーの国立研究所)が英国のAI Safety Instituteと2024年2月に連携している)
新興技術の規制のために何が必要か──柔軟・迅速性、マルチステークホルダー、学際的視点
生成AIの登場は、予測よりもはるかに早かったと言われている。今後は人間がプロンプト(指示文)を入れなくても、AIが自発的に学習し、自律的に作動するAutoGPTが主流になってくるだろう。ますますAIの「ブラックボックス」問題が深刻化し、人間が予見できないことが起きてくる。民間利用のほか、軍事利用にも転換されてしまういわゆるデュアル・ユースの問題もある。技術の進行が早いほど、より柔軟に素早い対応が求められる。AIの規制においては、官民学、市民団体等、様々なステークホルダーを巻き込んで議論する必要がある。
この点、日本のAI事業者ガイドラインは、柔軟かつ迅速(アジャイル)に対応できるように、そしてイノベーションを阻害しないためにソフトローにした意味合いがある。また、マルチステークホルダーアプローチを採っている。
さらに、企業のAI開発の現場でも学際的な視点を持った取り組みが必要となる。これまでのITと違い、AIのリスクの問題は、ヒューマニティや社会全般に影響を及ぼすものであるため、エンジニアのみならず、法学、経済学、社会学、哲学(倫理学)、心理学、文化人類学等の専門家の視点が有用となる。またAIを使う場面によってリスク等も異なってくるため、当該分野(例えばヘルスケア、金融等)の専門家も入れて議論を行う必要がある。
AI時代を生き抜くために──大学の役割とは
AI開発者は時として個人情報保護法や著作権法の制約を知らずにいたり、国際社会におけるAI倫理に関する議論の動向を把握していない場合もある。また法学者も技術をよく知らずに規制することばかりに目を向けがちで、お互いに学び合う必要がある。例えば、AIを研究している学部や研究科においては、プログラミングのみならず、法と倫理の基礎的な知識を教える必要がある。法曹養成においても技術の基礎的な素養を身につける必要がある。
今後、大学の役割としては、AI時代を生き抜くための学際的な視点を養うために、複数分野で学位を取ることができるプログラムも考えられる。米国においては、法律家を養成するロースクールにおいて、Joint & Dual Degree Programs(J.D.(法学博士)に加えて別の研究科の修士号を同時に取ることができるプログラム)を実施している。また、筆者が所属しているジョージタウン大学ロースクールでは、法学習得者のためのテクノロジー法・政策修士号(Technology Law & Policy (LL.M.))や法学未習得者のための法学とテクノロジーの修士号(Master of Law and Technology (M.L.T.))といった法学とテクノロジーの両方をマスターしたという学位をもらえる。さらに、哲学や文化人類学の専門家を招いてAIについて議論することも行われている。
このように、AIがもたらす複雑な問題を解決するためには、幅広い学問における知識の組み合わせや、基礎学力に基づいた応用力、柔軟性が必要となる。グローバルな視点をもって、様々な学問分野の人たちと議論をしながら、AIと上手に向き合っていくことが望まれる。
※本研究は、JSTムーンショット型研究開発事業、JPMJMS2215 の支援を受けたものです。※所属・職名等は本誌発刊当時のものです。