執筆者プロフィール

工藤 郁子(くどう ふみこ)
公共政策コンサルタント、中京大学経済研究所特任研究員
工藤 郁子(くどう ふみこ)
公共政策コンサルタント、中京大学経済研究所特任研究員
2019/02/05
AI社会と保守主義
英国の政治哲学者マイケル・オークショットは、合理主義(rationalism)への懐疑として保守を捉えた。また、「保守主義の祖」として引用されることの多い英国の政治家エドマンド・バークは、進歩主義(progressivism)を警戒した。両者とも、先人が試行錯誤して積み上げてきた、定式化・言語化から零れ落ちる叡智としての伝統が、「合理性」や「進歩」の名の下で破壊されることを懸念していた。つまり、人知の限界を前提として急激な社会改革を謙抑することが、保守という姿勢だと整理できよう。
さて、本稿では政治、特に政策形成過程における人工知能(Artificial Intelligence, AI)を論じる。統治の対象としてのAI(産業政策や規制論)ではなく、統治を担うAIや立法に影響を与えるAIである。そして、AIが政治をどこまで代替できるかを論じるだけでなく、仮に代替できるとしてそれが望ましいことか、AIに求める水準を人間が達成できていたか、などにも触れたい。そうすると、(データに基づいて推論や学習などを行うプログラムとしてのAIというよりも)合理主義や進歩主義の象徴として、または人々の期待や欲望の対象としてのAIを検討することになるだろう。というのも、現在問われているのは、我ら人間側の姿勢だからである。憲法学者の宍戸常寿は、AIにより生じると予想された問題の原因のかなりの部分がそれを利用する人間の側にあるとの診断を下しているが、それは政策形成過程におけるAIにも妥当する。
しかし、この話題はともすると、科学小説のように思えるかもしれない。そこで以下では、技術の応用をいくつかの政策過程の場面に分けて、その実現可能性と限界を示す。
政策実施におけるAI
政治におけるAI活用でいま注目を集めているのが、「レグテック(RegTech)」である。「規制(Regulation)」と「技術(Technology)」を合わせた造語で、企業などがAIを含む先端技術を利用して規制への対応をより効果的・効率的に行うことを指す。
レグテックは主として金融分野での展開が目覚ましい。これは、2008年の金融危機以降に急速に規制が強化されたため、リスク分析や報告の義務が重くのしかかり、コンプライアンス対応コストが増大しているからだ。そして、リスクデータの収集・分析の効率化や決済情報のリアルタイムでのモニタリングなどが有望視されている。サービスを有償で提供する企業も欧米を中心に現れ、さらに日本でもビジネスとして勃興しつつある。
レグテックは金融機関など規制される側の対応を指すが、実装では規制者・監督者の協力も必要である。さらに、英国政府はより積極的な意味付けを行っており、規制対応コストの削減だけでなく、技術を用いて生産性を向上させる側面を強調する。また、当局自身が監督ツールの開発・実装化にも取り組んでいる。
これは政策を実施・運用する場面でのAI活用例で、政策過程の「出口」に近い場面だ。後述する、政策立案、政策決定、世論形成などの場面に比べて、裁量が比較的小さい。そこでは「法の支配(rule of law)」が妥当し、統治者による専断や恣意(「人の支配」)の排除が目指される。そのため、政策実施でのAI導入には抵抗感が薄いだろう。
なお、司法における「法の支配」とAIについては、憲法学者の駒村圭吾が既に論じている。刑事訴訟法学者の笹倉宏紀も刑事司法におけるAIを分析しているため、本稿では割愛する。
政策立案におけるAI
次に、実施される政策をつくる場面では、AIをどのように利用でき、また、いかなる課題があるだろうか。
そもそも法律を制定する際の基礎や前提を形成する「立法事実」には、過去・現在の事実(既存の事実)だけでなく、それを基礎とした将来予測(未来の状態や帰結)も含まれる。しかし、過去・現在の社会的経済的事実を精確に把握するだけでも難しい。加えて、既存の事実からいかなる予測を立てるかは、事実認定よりも複雑な作業である。
そこで、各種の統計・資料や行政の業務データなどを収集・解析した上で、AIで情報を選別・集約し、参照すべき情報や検討すべき論点を推薦したり、将来予測シナリオを提示したりすることが考えられる。これにより、法案提出権を有する議員及び内閣を支える行政府・議院法制局などの希少な人的・時間的資源をより効率的に活用できよう。
立案は、政策実施の場面と比べて、裁量が比較的大きい。そのため、統制の難しさが増す場面である。前記のような取組みは、データに基づく判断の促進や判断過程の透明化にも寄与するので、自由度を損なわずに一定の統制を図れる。また、「証拠に基づく政策形成(Evidence-Based Policy Making, EBPM)」の潮流と呼応するものといえよう。EBPMでは、証拠を求めることで、政治的圧力による「歪み」「忖度」を牽制でき、「政策に基づく証拠形成」の抑止にもつながるとされる。立法の「質」向上への期待は、政策立案におけるAI活用にも妥当しうる。
もっとも、実装を進めるには課題もある。まず一般論として、良質なデータセットが揃っていないため、多くの前処理を必要とする。さらに、現状において政策評価や効果検証が必ずしも十分に行われていない点も指摘できる。AIの精度向上のためには、(追加の)学習用データセットとして、政策評価に関するデータがあれば非常に有意義である。しかし、行政活動の無謬性を志向し「減点主義」を基調としがちな公務員の多くにとって、政策評価はキャリア形成上のリスクとして映るだろう。また、計量に馴染まない成果も存在することを考えれば、測定しやすい指標のみを業績として取り上げることで過剰適応が生じ、業績評価指標では掬い取れない効果が減退してしまうおそれもある。
そうすると、立案時の正当化(justification)というよりも、立案後の統制・検証の場面での導入からはじめる方が現実的かもしれない。議会での質疑、会計検査、「行政事業レビュー」などでのAI活用である。ただし、検証それ自体の権力性に留意が必要だ。よって、抑制均衡が機能する仕組みや政策立案の現場で受け入れられる機能を吟味した上で、統計に関する業務の見直し、人事評価制度の変更、統計法や公文書管理法の趣旨徹底などと合わせて、漸進的に導入を進める必要がある。
政策決定におけるAI
政策立案におけるAI活用が期待でき、許容できるとしても、その前段階におけるAI活用は、(技術的な実現可能性があったとしても)許されないかもしれない。
政策決定について、もう少し詳しく見てみよう。ある政策課題Aについて手法a1、a2、a3…などの選択肢がありうるとき、論点整理や将来予測を高度化・効率化することで、よりよい選択肢を提示できるかもしれないというのが前々節の要点であった。しかし、政策決定では、Aとは別の政策課題B、C、D…と比較しなければならない場面がある。例えば、50兆円という予算を、高齢者医療、若年無業者の支援、科学技術振興などにどう按分するかという比較である。
政策課題が共通ならばある程度同じ物差しで比較できるが、そうでないなら比較不能な価値の迷路に迷い込んでしまう。しかしそれでもなお決断しなければならない場面がある。こうした決定は、(各府省や与党内での調整などを経て)議会で行われることになっている。
この調整や議論をさらに充実させるために、マスメディアやインターネット上に散在する意見や行動履歴から推測される選好データなどを収集・分析し、世論をリアルタイムで提示することなどが提案されている。
この提案について、代表制(憲法43条一項)との抵触が指摘できる。憲法が代表制を採用した理由が、(1)国民とその代表者間の討議と、(2)議会における代表者間の討議という2つの討議プロセスを確保する点にあるとの見解に立つとすれば、後者の討議が空洞化する事態は看過しがたい。つまり、意思決定支援を超えてAIが討議と決定を代替することは許されないことになる。
次に、議会における代表者間の熟議(deliberation)を促すようなファシリテーターとしてのAIを想定すると、議題設定(agenda-setting)こそが政治力の源泉との仮説がすぐに頭をよぎるだろう。また、議題設定機能を担うとされるマスメディアが、信頼性低下という苦境に立っている現状を踏まえる必要もある。「公平・公正」「不偏不党」などの理念を検討し、信頼を構築するという難しい挑戦が控えている。
加えて、熟議と決定の関係性にも留意すべきだ。熟議は意思決定の方法というよりも選好形成の方法である。つまり、自己の主張を正当化する「理由」を探求する過程であり、ときとして他者の「理由」を聴いて選好が変わることもある。もちろん選好の一致をみないこともある(むしろ実証研究では、極論同士のぶつかり合いや声高な少数派による議論の誘導が多いと示されている)。そのため、熟議を打ち切る制度として投票による決定が要請される。とはいえ、投票と熟議は接続すべきといわれている。なぜなら、(端的には政策が失敗に終わった時などに)熟議で形成された選好と理由を答えてもらうことで、決定を検証できるからだ。憲法66条三項にいう内閣の責任は、このような答責性(accountability)として把握できる。
そうすると、答責性の確保をAIによって促せるのであれば、よりよき政策形成過程の実現に資するかもしれない。
民主主義と「AIの支配」
しかし、そもそも討議を促す前提自体に疑問が投げかけられているため、問題はさらに複雑になる。「決められない政治」の打破に、我々は「拍手喝采(acclamation)」を送ってきたのではないか。
もしもよりよき政策形成過程が、成果(performance)の最大化のみを意味するなら、政治形態としての民主主義は、エリート主義や権威主義などに劣後する。そして今では、民主主義以外の選択肢として、「AI(またはAIに支援された技術官僚)による支配」が新たに浮上しつつある。公共選択論や計量政治学などでも指摘されているとおり、民主主義は他の選択肢よりも認識的に(epistemically)優れているわけではない。米国やEUの停滞感に比べて、中国やシンガポールによる経済的進展が(数多の社会的課題を知りつつも)羨望の眼差しを伴って語られがちな現状は、それを裏書きするかのようである。
もちろん、熟議や民主的プロセスから正当性や正統性(legitimacy)を調達するという規範的価値を重視する立場を採用すれば、民主主義を擁護できる。しかし、統治において、個人的・集団的な自己決定、ひいては自由をどの程度重視すべきかは、必ずしも自明ではない。自己決定・自由と成果・幸福のどちらをどのような理由で重視すべきか、「自由か、さもなくば幸福か?」という問題設定は、開かれた問いとなっている。
そして、制度を支える原理の1つである自由が一種の擬制(フィクション)だと改めて意識させられたのが、フェイクニュースである。
世論形成におけるAI
フェイクニュースは、2016年のイギリスの欧州連合(EU)離脱を巡る国民投票やトランプ大統領を生んだ米国大統領選挙などを契機として社会問題となった。当時は捏造された文章や写真が記事となり、SNS等で共有され広がることが中心であった。しかし、近い将来は動画が主戦場になると見られている。「ディープフェイク(deep fake)」と呼ばれる技術群が急速に進展しているからだ。ディープフェイクは、AIも利用した画像処理により、人間の口の動きや音声を速やかに合成し、費用や時間をそれほどかけなくても完成度の高い偽動画を作り出せる。政治家の演説などを偽造できるため、フェイクニュースとして悪用されるのではないかとの懸念が生じている。
もちろん、捏造記事やプロパガンダなどは、古くからある問題だ。しかし、量的増加が質的変化に転じる可能性がある。民主主義の基礎となる「思想の自由市場」論は、自由競争によって虚偽の情報や低質な言論は淘汰されていくという発想に基づいていた。しかし、AIによってフェイクニュースが量産され流通すれば、真偽の検証が今以上に追いつかなくなり、人間の認知限界を越える結果、「思想の自由市場」が機能不全に陥ってしまうおそれがある。
こうした事態への対策として、2017年にはフェイクニュース規制法として国際的に注目を集めたドイツのSNS対策法が成立し(詳細は、鈴木秀美「ウェブ時代のニュースと法規制──ドイツの事例から」『三田評論』2018年6月号)、企業による自主規制も進んでいる。技術開発も数を増しており、個別の主張に関する検証(fact checking)、情報源の信頼性測定、音声・動画の加工有無の検知など様々な手法が試されている。ここでもAIの活用が期待されており、フェイクニュースを作る側と見抜く側でAI同士の競争が生じつつある。AIは、民主主義の基盤を危うくする方向ではなく、民主主義的価値を維持する方向にも利用できる。
不確かな言葉を携えて
ここまで見てきたとおり、AIによるよりよき政策形成の可能性を探求することは、これまでの政策形成過程が合理性や答責性を確保していたのかを振り返る機会にもなる。それだけでなく、合理性・効率性だけでは汲み尽くせない価値を析出できる。そして両者は必ずしも背反するわけではない。憲法学者の山本龍彦は、経済合理性や効率性の論理だけにとらわれず、憲法原理のよりよい実現に資する形で、AIをうまく実装することを目指すべきだと「両眼主義」を説いている。
冒頭で、現在問われているのは人間側の姿勢だと述べた。(本稿のように)たとえ不確かで拙くあっても、政治に求めてきたことや、これから政治に求めたいことを言葉にしたり、会話を通じてイメージを共有したりする営みは、「政治におけるAI」の仕様(product specification)を考えるだけでなく、「この国のかたち」をつくる実践でもある。
※所属・職名等は本誌発刊当時のものです。