執筆者プロフィール

新保 史生(しんぽ ふみお)
総合政策学部 教授
新保 史生(しんぽ ふみお)
総合政策学部 教授
2023/06/05
1. 生成AIと人間の知性
ジョン・スチュアート・ミルは、「人間が獲得しうる最高の知性は、単に1つの事柄のみを知るということではなくて、1つの事柄あるいは数種の事柄についての詳細な知識を多種の事柄についての一般的知識と結合させるところ」と説く(『大学教育について』J・S・ミル著、竹内一誠訳 岩波書店 2011、28頁)。
テキスト生成AIであるChatGPT を利用した人は、質問に対する回答文章の自然さとスムーズな応答かつ博識な内容に驚愕している人も多いと思われる。しかし、最高の知性を獲得しているかのように見える生成AIは、実際には膨大な量のテキストデータを学習して構成される大規模言語モデルから、質問に関係する情報を組み合わせて回答を出力しているにすぎない。つまり、生成AIはミルがいうところの最高の知性とは異なるものである。
「多種の事柄についての一般的知識と結合させる」ための作業を生成AIに代行させることによって人間の知性を高めることができるのか、それとも、AIの知識に凌駕されてしまい逆に人間の知性は低下してしまうのか。不確実かつ未確定な要素が多い生成AIに疑心暗鬼になりつつある状況が、にわかAI規制論を生み出す結果となっている。
2. AIブームから実用期へ
AIの研究開発は、1950年代、1980年代、2011年以降と3度のブームを経て現在に至る。これまで、AIの活用事例といえば、掃除機などのAI搭載家電、スマートスピーカー、自動運転車など、製品やサービスにAIが「組み込まれている」ものであって個別の分野や領域を対象とする「特化型AI」を利用する機会が一般的であった。
生成AIは、大量のデータを学習して新たなデータを生成することができ、画像・動画、音声・音楽、テキスト生成や翻訳など多様なコンテンツを生成する際に威力を発揮する。「汎用性が高いAI」ではあるものの、いわゆる「汎用型AI(Artificial General Intelligence)」ではないが、より人間に近い能力を発揮できる汎用型AIの幕開けを予感させるものであり、その実現に向けたパンドラの箱を開けてしまった感は否めない。
これまでのAIブームでは、音声入力や画像認識など、入力した情報を認識して識別し推論するAIが主流であった。例えば、入力した音声の内容と一致するよう正確なテキストを出力したり、膨大な量の画像から特定の人物の顔を識別して抽出することがAIに期待される役割であった。一方、生成AIも同じくテキストを出力するが、入力する情報や指示に応じて人間が考えたり創作するように多様なコンテンツを生成する。特定の画像を探し出してくるのではなく新たな画像を創作し、単に文字起こしをするのではなく文章を執筆する。
AIの実用性が限定的なものであっても、将来的にAIが発達し、いわば映画のターミネーターのような人類への脅威になるといった架空・仮想の脅威が強調されることが多かった。そのような段階を脱する生成AIの汎用性は、AIの驚異的な有用性の実感とともに、具体的な危険性や脅威を認識する転機となることは間違いない。
3. 生成AIの汎用性とリスクの抽象性
AIの研究開発から利用をめぐるリスクは、総務省のAIネットワーク社会推進会議をはじめとして国内外で緻密な議論がなされてきた。2019年5月に経済協力開発機構(OECD)の閣僚理事会が採択した「人工知能に関する理事会勧告」は、人権と民主主義の価値観を尊重しつつ、信頼できるAIの責任ある管理を推進することにより、AIのイノベーションと信頼を促進することを目的とするものである。
ChatGPTをはじめとする生成AIのインパクトにより、その汎用性に伴う具体的なリスクを見通すことができず、これまでの議論の蓄積が役に立たないかのような錯覚に陥りつつあるが、そのリスクの抽象性ゆえに、現在に至るまでの議論がどの程度有用なのか評価できていないにすぎない点に留意すべきである。
AIの研究開発や利活用に向けて必要な原則が検討され既に提案されているにもかかわらず、新たな技術の登場やイノベーションの促進において、法規制への抵抗感や規制不要論がまた繰り返されようとしている。「規制=悪」であり、イノベーションの促進を阻害するという短絡的な批判に終始せず、生成AIの利用に向けてこれまで避けてきた本来かつ本質的に必要な「規制・規正・規律」を検討すべきである。
4. 生成AIと法的課題
生成AIをめぐる法的課題については、これまでの議論では対処できない課題など、どの程度想定外の問題が発生する可能性があるのか、今後の生成AIの機能の拡張や新たな利用方法の案出次第のところもあるため、現時点では評価できない側面があるのは事実である。しかし、今後の具体的な規制や規律を考える上で想定される法的課題はある程度把握しておく必要がある。あくまで例示的・想定的な列挙でしかすぎないが、以下のような問題を考えなければならないであろう。
なお、インターネットの普及以降、情報法の分野で新たな技術やコミュニケーション手段が登場するたびに、著作物の利用をはじめとする知的財産権と個人情報やプライバシーの権利をめぐる問題が先行して議論されてきている。情報法からロボット法と称する新たな分野が登場しても、知財と個人情報関係の議論がやはり最初に議論の俎上にあがってきた。生成AIをめぐる法的課題に関する議論も、これまでの議論の過程と同じことを繰り返す様相を呈していることから、新興技術の登場において知財・個人情報の問題は避けて通ることができない問題であることを再認識している。
生成AIの利用と法的課題の類型的な試行錯誤の端緒として、以下の点を列挙しておきたい。
(1)民主主義への影響
(a)統治機構(立法、司法、行政)における意思決定や判断への影響、(b)選挙、公職候補者への影響、政治利用に伴う問題。
意思決定や判断にあたっては、先例や必要な膨大な情報を調査する必要があるため、立法、司法、行政のいずれの分野においてもAIの活用は明らかに有用である。しかし、最終的な判断にまでAIが関与することになると、人間による諮問機関同様の位置付けでよいという考えもあるかもしれないが、AIの判断が正しいかを人間の側で判断することができないが故に、人智を超える問題についてその判断が正しいのかさえ判断ができなくなるおそれがある。
(2)表現活動への影響
(a)コミュニケーションの変化と表現活動の変化、(b)バイアス、差別、表現活動における公平と公正の担保、(c)知る権利への影響、(d)知的活動そのものへの影響(知性、知識、知見の区別の必要性)、(e)生成AIへの依存による表現活動・思考の停止。
生成AIに問い合わせるだけで、膨大な情報から必要な情報をピックアップしてもらえるだけでなく、人間の知的活動をも補完する情報を出力するため、情報の検索だけでなく、その分析・論点整理や様々な創作活動も含めてAIに依拠することとなる。その結果、生成AIの将来的な普及により、我々の知性がその利用によって高められるのか、それとも過度に依存した結果、思考停止に陥り知性は失われていくのか。一律にどちらの方向に向かうということではなく、生成AIを利用する側のリテラシーであったり、利用方法や利用意識によっていずれの方向になるのか変わっていくと考えられる。
生成AIの利用は、出力結果の精度が高まることによる正確性の向上とともに、期待通りの回答を得られるかは、AIにその回答を導き出しやすいように問いかける質問能力も問われることになる。つまり、これまでの情報リテラシーに加えて、AIとのコミュニケーション能力が問われることになる。
(3)知的財産の保護
(a)生成AIによる創作(出力)と成果物(情報)の保護のあり方、(b)生成AIの利用と著作権、商標権、意匠権をはじめとする知的財産権に係る課題。
冒頭に紹介したJ・S・ミルの書籍は「大学教育」を問うものであるが、生成AIの利用は大学における教育のあり方に大きな変革を及ぼすことになる。例えば、レポート課題の剽窃の問題を考えてみると、生成AIを利用した文章作成が剽窃にあたるか否か(生成AIの利用そのものの問題)、剽窃を問われた学生が生成AIを利用していないにもかかわらず、生成AIを利用した文章であると主張する場合(生成AIへの責任転嫁)、友人から入手した参考資料の文章が、生成AIによる文章であることを知らずに利用して剽窃を指摘された場合(善意の第三者による違法・不正行為)など、どのように判断すべきか今後の検討課題となるであろう。
(4)個人の人格的利益の保護(個人情報、プライバシー、肖像など)
(a)個人情報の取扱環境の変化(データ保護の困難性)、(b)本人が不知・不識のうちに取り扱われる個人情報の保護のあり方、(c)機微な情報を取得していないにもかかわらず事後的に要配慮個人情報を推知できる可能性が高まることなど、個人情報保護やプライバシーの権利の保障をはじめ個人の人格的利益保護のために検討が必要な議論は多岐に渡る。
注目すべき判断として、イタリアのデータ保護機関がEU(欧州連合)のGDPR(一般データ保護規則)違反を理由にChatGPTの利用禁止を発表し、その開発主体であるOpenAIが透明性の確保と権利保護について実施する対策を回答した結果、2023年4月28日にその決定が解除されている。OpenAIが公表した対策は、オプトアウト(個人データの利用を停止すること)について、ユーザがその手続を行う権利を有することを確認し、その実施に必要な説明をプライバシーポリシーに記載するとともに、オプトアウトを要求できるフォームを導入し学習データやチャット履歴からの除外を可能にすることである。一方で、正確性の確保については、不正確な情報を修正することが技術的に不可能であることを明記し、ChatGPT の回答における個人情報の正確性の確保は担保できないことをユーザ側が理解して利用することを説明しているにすぎない。
また、利用者が入力する個人情報についてはオプトアウトとともに正当な利益(legitimate interests)に基づく取扱いを行うとしている。生成AIに係るデータ保護の問題として検討すべき事項の一端が明らかになったといえる。
(5)違法・不正利用の把握と対処
生成AIの適正利用の境界設定は困難になるであろう。犯罪などの違法行為だけでなく、不正行為の助長・幇助ツールとしての生成AIの利用をどのように防ぐのかという課題は慎重に対処方法を検討しなければならない。
生成AIの利用行為そのものが違法である「生成AI利用型犯罪・不正行為」と、既存の違法行為を実行するための支援ツールとして生成AIを利用する「生成AI関連型犯罪・不正行為」への対処が課題となる。前者の例としては、「プロンプトインジェクション」のように、生成AIに悪意のあるプロンプト(指示テキスト)を入力して不正利用する攻撃手法。後者は、コンピュータ・ウィルスの作成や爆発物の製造方法の指南を受けたり、既存の犯罪を実行するために生成AIを利用する行為があげられる。
5. AI規制に向けた取り組みにおける留意点
新たな規制を検討するにあたり、将来的には、その規制のあり方を生成AIに質問を入力して得られた回答を参照して検討することも当然想定される。過去の規制事例やその効果などをAIが網羅的かつ悉皆的に学習し、確実かつ効果的な規制を検討するにあたって必要な知見を求めることが有用であることに疑いの余地はない。しかし、「AIのAIによるAIのための規制」を中心として規制が検討される時代が到来し、AIが導き出した最適解に対案を示すことが許容されなくなったとき、人類には困難な将来が待ち受けている。
そのような危機感を想定してか、G7デジタル・技術大臣会合「閣僚宣言」(2023年4月30日)では、「責任あるAIとAIガバナンスの推進」として、AIガバナンスのグローバルな相互運用性の促進、生成AIについて検討を行う場を設けることなど、AI規制の方向性を議論するための検討事項が示されている。ただし、ここで明らかになったことは、これまでの規制への向き合い方と同じ議論が繰り返されている点である。例えば、日本は、法規制など厳格な規制によって対応するのではなく、ガイドラインや自主規制等、いわばソフトローによる対応が望ましいという方向性で一貫している。その対極にあるのがEUであり、厳格な規制によって対応すべきであるという方針を譲る気配はない。
6. EUのAI規制とブリュッセル効果
AI規制について各国が及び腰になっている状況下において、EUだけがその規制方法を先行して明示している。AI(人工知能)の利用を規制するEUの法案である「AI整合規則提案」(人工知能に関する整合規則(人工知能法)の制定及び関係法令の改正に関する欧州議会及び理事会の規則提案)が、2021年4月21日に欧州委員会から公表されている。AIシステムのリスクに応じて利用禁止も含む利用規制を定めるものである。EU市場で販売(上市)する製品の製造者や輸入者等に課されている製品安全規制同様の義務を、高リスクに分類されるAIシステムにも拡充して、販売(上市)対象の製品がEUの基準に適合していることを表示するマークである「CEマーキング」の対象とし、そのための適合性評価及び第三者認証制度を構築することで新たな法整備を目指している。
EUが提案した規制が、実質的に世界的なルール形成に影響を及ぼすことを「ブリュッセル効果」と呼ぶ学説がある(『ブリュッセル効果 EUの覇権戦略:いかに世界を支配しているのか』アニュ・ブラッドフォード著、庄司克宏監訳、白水社 2022)。①市場規模、②規制能力、③厳格な規制、④非弾力的対象、⑤不可分性の5つの条件を充たす場合に市場における規制力を発揮することができる仕組みをいう。EUの新たなAI規制は、今後のAIの研究開発及び社会実装に向けて文字通りのブリュッセル効果を発揮する分野になると考えられる。
AI整合規則提案が示すAI規制の目的は、(a)EUにおいてAIシステムを上市、サービス開始及び利用するための整合規則、(b)特定のAI利用禁止行為、(c)高リスクAIシステムに関する要求事項及び義務、(d)自然人との対話を目的としたAIシステム、感情認識システム、生体情報分類システム、画像・音声・映像コンテンツの生成又は処理を目的としたAIシステムの透明性に関するルールの整合性確保、(e)市場のモニタリングと監視である。生成AIについては(d)においてAIシステムの透明性を確保することが定められている。しかし、テキスト生成AIについては(c)高リスクAIシステムに含める検討とともに、透明性確保のために定められている開示義務、そのための「表示」も追加する検討がなされている。
7. AI規制が向かうところ
新しい技術が登場すると、その技術を規制するための議論がなされることが多いが、規制すべきは技術そのものではなく、それを利用する人間側の規律である。また、生成AIへの注目とともに、にわか規制論が跋扈し始めている背景には、未知の存在への畏怖や不透明な要素によるところが大きい。
AI規制は、情報処理の単なる高度化に伴う問題ではなく、AIによる自律的判断に伴う問題が検討すべき課題の本質であって、その議論は既に第3次AIブームの始まりとともに議論がなされてきている。今、試されているのは、AIの自律に対する人間側の自覚である。
自分の名前を入力して質問をすると、自分とは違う人物のプロフィールを返してくるなど、堂々と嘘をつくAIを嘲笑っている状況はそれほど長く続かず、そもそも情報が誤っていてもその信憑性を確認(ファクトチェック)することすらできなくなるであろう。そうなると、ファクトチェックを依頼するAIを開発しなければならなくなるが、さらにそのファクトチェックが正しいことを確認するAIを開発しなければならないという無限ループに陥る。
今後、指数関数的にAIはその出力結果の精度を向上させ、我々が想像している以上にその自律性が飛躍的に向上する。AIは人類が開発した技術である。しかし、その技術に人類の叡智が追いついていかない状況を如実に表しているのが、皮肉にも生成AIの進化に伴うAI規制をめぐる議論である。
信頼できるAI(Trustworthy AI)に求められるAI規制のあり方を、AIにしか回答を導き出すことができないような時代が到来しないよう、これからも法学者としての研鑽を積みたい。生成AIと相談しながら。
*本研究は、JSTムーンショット型研究開発事業、JPMJMS2215 の支援を受けたものです。
※所属・職名等は本誌発刊当時のものです。