執筆者プロフィール

大屋 雄裕(おおや たけひろ)
法学部 教授
大屋 雄裕(おおや たけひろ)
法学部 教授
2023/06/05
悪のAIは存在するか
たとえば運転者が急ブレーキによって自分自身が傷付くのを避けるために歩道上にいた歩行者3人をあえて撥ねるという選択をしたとすれば、我々は彼が悪い選択(・・・・)をしたと言うだろうし、自らの悪い行為(・・・・)に対して責任を負うべきだと非難するだろう。あるいは彼は悪人(・・)であり、道徳的な観点から問題のある人物だと評価するかもしれない。では同じような状況で、AIの操縦する自動運転車がその内部にいる乗客を守るために同様のふるまいを示したとして、それはAIの選択や行為なのだろうか。あるいは、そのAIは悪い(・・)のだろうか。
もちろんその結果について、被害が大きいとか守り得た価値と釣り合いが取れていないといった意味において不適切だとか、AIとして出来が悪い(・・・・・)と我々は言いたくなるかもしれない。しかしここでいう「悪さ」は技術的な巧拙に関するものであり、道徳的な善悪とは関係ないだろう。ここで我々が倫理的な問題を指摘するとすればその対象はAIではなく、そのAIを設計した製造者ではないだろうか。
我々が善や悪といった属性を帯びると考えるのは、一般的に道徳的主体──道徳的な原理や主張に反応して一定の選択や行為を行なうような存在のみである(誰も火山噴火が被害者を生んだことを道徳的な悪として批判することはないだろう)。そして少なくとも現在の段階のAIは、しばしば「弱いAI(weak AI)」とも形容されるように、自らの精神や意識を持たないのであった(それらを備えるようになった段階を「強いAI(strong AI)」と呼ぶ)。AIが何を行なったにせよ、それは利活用者による指示を受けて一定の反応を示しているだけであり、このような存在に対して我々が行為や選択に対する責任を問うことはないと言うことができるだろう。AIは悪であり得ない(・・・・・・・・・・)。だがここで問題にしたいのは、だからこそ問題なのだ(・・・・・・・・・・)ということなのである。
偽情報と意図の存在
サイバーセキュリティの文脈で内容的に誤った情報がSNSなどを通じて広く流通してしまうことを問題にする際に、我々は「偽情報(disinformation)」と「誤情報(misinformation)」の区別を明確にすることを心がけている。一般的な整理によれば前者は、それによって一定の効果を社会に引き起こすことを目的とした主体が意図的に流布させる、あるいは作り出す情報であるのに対して、後者はそのような意図を帯びておらず単にその内容が誤っているような情報のことを意味している。
ウクライナ侵略に際してロシアが流布することを試みた情報、たとえばウクライナ軍内部において極右勢力が大きな地位を占めており、東部のロシア系住民に対してさまざまな人権侵害を行なっているというものなどが前者の典型であろう。それに対し、東京電力福島第一原子力発電所から回収された水について、ALPS(多核種除去設備)で浄化したとしてもなお危険なレベルの放射性物質を含んでいるといった情報は、含有されるトリチウムの濃度がWHOの定めた飲料水に関する国際基準の7分の1未満とされていることを踏まえれば、それ自体としては単なる内容的な誤りであり、誤情報であるにすぎない。不安から、あるいは単なる無知からその危険性を主張してしまう人はいるだろうが、そのような誤り自体は(九九を暗唱しそこねる小学生がある程度の人数いるように)一定の確率で生じるミス(・・)であるにすぎず、道徳的な善悪の問題でもないだろう。
もちろん、このように誤った情報を流布することで政権を攻撃したいとか選挙戦を有利に戦いたいといった意図が介在する場合もあるから、偽情報と誤情報の違いは文脈に応じた相対的なものでしかありえない。だがここで注意すべきなのは、両者を画する重要な要素として意図(・・)の存在、そのような情報を受けた相手の反応を一定の方向へと誘導したいという欲望(・・)があることである。だからこそ、逆に言えば我々はこのような観点から情報の信頼性を評価するという典型的な手法を身に付けているということになる。
たとえば憲法38条1項は、「何人も自己に不利益な供述を強要されない」と規定している(自己負罪拒否特権)。一般的に人は自らが罪に陥ることを忌避し、それを避けるために自分に有利な証言をしようとする傾向があると、我々は想定している。その傾向を国家権力が強要によって歪めるとすれば、裁判の公正が妨げられることになる。それを禁ずるのがこのような規定の趣旨だろう。
この規定が遵守されていることを前提として、しかし強要されることなく被告人が自らにとって不利な証言をしたとしよう。たとえば自分自身が犯人だという自白であったり、自分には明らかに殺意があったという内容を証言したとすれば、第三者をかばってあえて罪を着ようとしているといった特殊な事情がない限り、我々はそのような証言が正しいものだと考えることができるだろう。逆に、自分は本当は犯人ではないとか、悪意はなかったといった主張については、一定の作為に基づく可能性があるとして、その内容を厳密にチェックすることを試みるのではないだろうか。ここでは、真実と異なる証言をするという作為は主に自らに有利な方向に働く(だから不利な証言は作為が含まれない事実である可能性が高い)という我々の経験則が機能している。我々は、自分が対話している相手には一定の意図があり、自己利益を図るように行動しているという前提を置くことによって、相手の発言や情報それ自体の信頼性を推定するという手法を一般的に用いていると言うことができるだろう。
生成系AIの生み出すもの
ところで、最近急速に技術的な進化を遂げたことが社会的にも注目され、多くの面で話題になっている生成系AI(generative AI)──特に文章などの情報を対話的に作成するChatGPT などの対話型AIについては、ハルシネーション(hallucination)という現象が生じることが知られている。本来は幻覚・幻影を意味する言葉で、ここでは事実や根拠に基づかないまったくの虚偽のことだ。
たとえば「大屋雄裕とは誰ですか?」という質問に対し、「1980年代にアメリカで活躍したプロレスラーです」といったように真実とはかけ離れた情報を堂々と──というのは文字によるプロンプトを通じた「対話」である以上こちらが持つ一方的な印象にすぎないのではあるが──回答として提示してくるという現象が知られている。しかも厄介なことに、その内容に対する出典や根拠を示せと要求すると、それらしい文献や情報源をリストにしてくることもある。だがリストに載っている文献自体も存在しなかったり、存在していても内容がまったく異なっているというわけだ。
もちろん対話型AIはこのようなハルシネーションに満ちた情報だけを回答してくるわけではなく、多くの場合にはそれなりに信頼できる、内容的にも正確な返答を生み出している。2023年3月にChatGPT の背後にある言語モデルを最新版のGPT-4に更新したところ、アメリカの弁護士試験(Bar Exam)の模擬試験問題に対して受験者の上位10%に入る成績を修め、現実の試験であれば合格する水準に達したとも報道されている。
繰り返すが、ここで指摘されるべきなのはだからこそ問題なのだ(・・・・・・・・・・)ということである。ChatGPT は、一定の場合に非常に高水準の、真実によく対応した回答を提示し、一定の場合にそうではない、まったく誤った情報を返してくる(ハルシネーション)。だが現時点において我々は、後者のような問題事例がいつどのように起こるかを予測することができないし、自分自身が十分な知識を持たない限り、いま起きているのがどちらであるかを確定することもできない。
たとえば大屋雄裕について筆者自身が質問するように利用者自身が一定の知識を持ちながらあえて(・・・)尋ねた場合には、回答の真偽を確認することも容易だろう。しかしこれは対話型AIの性能を確認するといった限定的なケースであるにすぎず、一般的に人は自分のよく知らないことを検索するのだし、読めない言語による文章を自動翻訳させたり、描けない絵を生成しようとするだろう。知識・能力においてAIの方が優位にあるから我々が一定の行為を委ねようとしているのだとすれば、それは、AIの成否を我々が判別できないのが通常になると覚悟する必要があるということを意味しているのではないだろうか。
さらに言えば、先に指摘したようにAIが精神の働きとその生み出すもの──意図や動機を持たない以上、行為者にとって有利な状況か不利な情報かといったような推測手段を用いて情報の確からしさを評価することもできないのである。堂々と(・・・)という印象も同様だろう。一般的な対話において我々は、たとえ文面としては同じ表現であってもその質問や発言が誰によって、どのような状況でなされたかという文脈を考慮に入れている。「過失とはどういう意味ですか」とニュースの流れているラーメン屋で居合わせた客に尋ねられたなら、一般的にはこうだという辞書的な説明をするだろう。だがゼミで刑法の教授に聞かれたとすれば? 我々は相手の立場からして一般的な内容を知らないはずはないと考え、にもかかわらず(・・・・・・・)尋ねるからには何らかの意図が──確認なり皮肉なり糾問なり──あると推測し、不安に脅かされながら返答をひねり出すだろう。AIはこのように、発言の帯びる一定の行為性(発話内行為)を理解しておらず、人間らしい(・・・・・)反応を示さない。このこともまた、判別の難しさに寄与することになるだろう。
我々はいままさに、一定の割合で地雷が埋まっている宝の山へと分け入ろうとしているのだと言うべきではないだろうか。
亜人類・超人類・異人類
倫理学の伝統的な問題の1つは、我ら人類の特権性がどのように根拠付けられるかという点にある。なぜ犬や猫には人権がなく、我ら人類の一個体として生まれたら、そのことだけで一定の権利が保障されるのだろうか。我々と彼らを分かつものがあるとすれば、それはどのような属性なのだろうか。
かつて指摘したことであるが、伝統的に我々はここで動物を比較対象として想定した上で、我ら人類が彼らと比較して優れている属性を探しては、それを我らの人権享有主体性の根拠と主張することを繰り返してきた(「外なる他者・内なる他者─動物とAIの権利」『論究ジュリスト』22号(有斐閣、2017年))。典型的には理性や言語の使用といった要素がそれに当たるだろう。動物は我々と共通性を帯びつつ、ある部分で人間に及ばない亜人類(subhuman)だと想定されているわけだ。
だが現在、我々が直面している生成系AI・対話型AIはそのように伝統的な人間の条件(・・・・・)において、平均的あるいは一般的な人間をはるかに凌駕する水準に達しようとしている(一般的な知性を持つ人間であればアメリカの司法試験に合格できるというわけでは、まったくないだろう)。しかもそれは死ぬことがなく、学習した内容を忘れることもなく、経験を蓄積しさらなる高みへと進化していくだろう。このようなAIが超知性(superintelligence)と呼ばれる段階に到達することによって、人類は存亡リスク──知的生命の全滅ないし発展可能性の永久的な消滅──に直面すると指摘したのが、ニック・ボストロムであった(倉骨彰(訳)『スーパーインテリジェンス─超絶AIと人類の命運』日本経済新聞出版社、2017年)。
だが筆者は、AIの将来の姿は動物と人間を置いた直線の延長上に想定される超人類(superhuman)──単線的進化の上で人類より優越した存在──ではなく、むしろ根本的に異なった存在としての異人類(althuman)にあると理解している(「AIにおける可謬性と可傷性」宇佐美誠(編)『AIで変わる法と社会─近未来を深く考えるために』(岩波書店、2020年))。犬や猫ですら、禁止されているはずの行為を目撃されるなど後ろめたさ(・・・・・)を感じているときには、その証拠を隠すとか目をそらすといった内心の感情を示す行動を取る(あるいは我々がそのように十分理解できる行動を示す)例が多く知られているだろう。そのような内面の意識や意図を持たないこと、そのために行動の整合性(integrity)について想定することができない点にAIの特徴があり、その意味においてAIは我ら生命とは根本的に異なる何か(・・・・・・・・・)なのだと考えた方が適切だろう。
共存に向けて
我々はこのように根元的な他者と直面し、だがそれが与えてくれるだろう利便性を前にして、それとの共存を選び取ろうとしている。AIを活用することによって、社会生活のさまざまな局面における効率性が向上したならば、それは同じだけの幸福を生み出すために必要となる資源が少量で済むということ、したがって地球環境をそれだけ毀損せずに済むことを意味するだろう。持続可能な社会というあり方を世界人類の共存の枠組みとして模索している我々にとって、このようなAIのもたらす恵沢を断念するという選択肢は、倫理的に正当化しがたい。だからこそ、どのような形で両者の共存をコーディネートし、互いの長所を組み合わせた社会を作り出すことができるかということが、今後のAI倫理において問われる問題となるに違いない。
そもそもAI倫理とは、AIが備えるべき倫理ではなく、AIに関する倫理を問い、AIに関係する人間行動について評価・指示する枠組みを提供しようとするものであった。そのことは、動物倫理が動物に対して一定の行為原則を提示しようとするものでないことを考えれば明らかだろう。問題はAIに対して我々がどのような態度を取りどのようなガバナンスのもとに置くかということなのだ。
そしてそのような問題について議論していくために我々が第一に目指すべきなのは、AIが生み出したものを我々自身が我ら人類の成果と区別して認識し、評価し、場合によっては排除することができるような枠組みを、法的・技術的に確立することだと言うべきではないだろうか。AI生成物をそれと認識することができなければ、ハルシネーションのようにそれが内包し得る問題について議論することも、それを排除するための手法について検討することもできないだろうからだ。
すでにEUにおいて、生成系AIによって作られた情報にその旨を表示すべきことを義務づけるべきだという議論が、包括的なAI規制法案の一部として提案されるようになっている(たとえば「EU、生成AIに表示義務づけへ」朝日新聞、2023年4月29日)。誰が、どのような形で、どのような学習成果に基づいて生成系AIに情報を生み出させたかということが適切にトレース可能になり、その結果に対する評価に基づいて、社会的なガバナンスの枠組みを構築することが、現在のAI倫理における最大の課題だということができるだろう。
※所属・職名等は本誌発刊当時のものです。