登場者プロフィール
若目田 光生(わかめだ みつお)
日本電気(NEC)デジタルトラスト推進本部主席主幹(一社)データ流通推進協議会理事。上智大学文学部卒業後、NEC入社。2013年全社ビッグデータ事業、18年デジタルトラスト推進本部を立ち上げる。慶應義塾大学グローバルリサーチインスティテュートにて共同研究。
若目田 光生(わかめだ みつお)
日本電気(NEC)デジタルトラスト推進本部主席主幹(一社)データ流通推進協議会理事。上智大学文学部卒業後、NEC入社。2013年全社ビッグデータ事業、18年デジタルトラスト推進本部を立ち上げる。慶應義塾大学グローバルリサーチインスティテュートにて共同研究。
小林 史明(こばやし ふみあき)
衆議院議員自由民主党青年局長代理、行政改革推進本部事務局長。第3次、第4次安倍改造内閣にて総務大臣政務官兼内閣府大臣政務官として電波、通信、情報改革、マイナンバー政策に注力。NTTドコモ勤務を経て2012年衆院選に初当選。
小林 史明(こばやし ふみあき)
衆議院議員自由民主党青年局長代理、行政改革推進本部事務局長。第3次、第4次安倍改造内閣にて総務大臣政務官兼内閣府大臣政務官として電波、通信、情報改革、マイナンバー政策に注力。NTTドコモ勤務を経て2012年衆院選に初当選。
荒井 ひろみ(あらい ひろみ)
理化学研究所革新知能統合研究センター研究員東京工業大学大学院総合理工学研究科知能システム科学専攻単位取得退学。博士(理学)。東京大学情報基盤センター助教等を経て現職。JSTさきがけ研究員兼任。専門はプライバシー保護技術、データマイニング等。
荒井 ひろみ(あらい ひろみ)
理化学研究所革新知能統合研究センター研究員東京工業大学大学院総合理工学研究科知能システム科学専攻単位取得退学。博士(理学)。東京大学情報基盤センター助教等を経て現職。JSTさきがけ研究員兼任。専門はプライバシー保護技術、データマイニング等。
泰岡 顕治(やすおか けんじ)
理工学部 機械工学科教授特選塾員。1997年名古屋大学大学院工学研究科 応用物理学専攻博士後期課程修了。博士(工学)。2010年より現職。慶應義塾大学グローバルリサーチインスティテュート副所長。専門は分子動力学、化学物理。
泰岡 顕治(やすおか けんじ)
理工学部 機械工学科教授特選塾員。1997年名古屋大学大学院工学研究科 応用物理学専攻博士後期課程修了。博士(工学)。2010年より現職。慶應義塾大学グローバルリサーチインスティテュート副所長。専門は分子動力学、化学物理。
山本 龍彦(司会)(やまもと たつひこ)
法学研究科 教授塾員(1999法、2005法博)。博士(法学)。桐蔭横浜大学法学部准教授を経て現職。慶應義塾大学グローバルリサーチインスティテュート副所長。専門は憲法学。著書に『おそろしいビッグデータ』『AIと憲法』(編著)等。
山本 龍彦(司会)(やまもと たつひこ)
法学研究科 教授塾員(1999法、2005法博)。博士(法学)。桐蔭横浜大学法学部准教授を経て現職。慶應義塾大学グローバルリサーチインスティテュート副所長。専門は憲法学。著書に『おそろしいビッグデータ』『AIと憲法』(編著)等。
2019/02/05
AIネットワーク化と日本の現状
今日は人工知能(AI)を組み込んだネットワーク社会と公共空間との関係について様々な分野の方々と討議していきます。
「公共空間」の定義はそれ自体難問ですが、ここでは、自由なコミュニケーションのために開かれた非(・)排除的な空間、インクルーシブな空間をイメージしています。そうすると、本座談会の主な論点は、AIネットワーク化の進展は社会的な「排除」をもたらすのか、「包摂」をもたらすのか、この点で日本はどのような方向に舵を切ろうとしているのか、にあります。
例えば、現在、中国はAIの顔認証技術を使った監視カメラネットワーク「天網」を張りめぐらせている。信号無視したのが誰か、すぐ分かる。これにより治安がよくなったという声がある反面、政治的な批判の萎縮を招いたり、自由で開かれたコミュニケーションがますます失われたり、といったマイナス面も指摘されています。
また、同じ中国の「芝麻信用(セサミ・クレジット)」というアリババグループ傘下の信用情報機関はAIを使って、個人の電子決済記録や資産状況、SNS上の交友関係などから人の社会的信用力を950点満点で「格付け」し、その点数、つまり信用スコアが官民で広く共有・利用されています。スコアが高い人にとっては、低金利で住宅ローンが組めたり、デポジットなしで家を借りられたり、婚活が上手くいったりして大変有意義です。
しかし、無視できないのは、スコアが低い人の生活です。彼らは融資を受けづらくなったり、就活でハンデを負ったりするだけでなく、飛行機のチケットを買えなくなるとか、外国ビザを取りにくくなるなど、移動の自由も事実上制限されます。ロースコアだと差別的な扱いを受け、社会参加の機会が損なわれる恐れもある。しかも一旦低いスコアをつけられると「負のスパイラル」に陥る。これは、AIによる人間の格付けが、かつてない階層社会を引き起こして「公共空間」とは真逆の排除的空間を創り出す可能性を示しています。
座談会ではまず日本の現状について議論してみたいと思います。政府は、「Society 5.0」などでAIネットワーク化を推進していますが、公共空間に与えるネガティブなインパクトがそれほど議論されていないといった印象を受けます。もちろん、総務省の「AI利活用原則案」や政府の議論では、「人間中心」とか、「インクルーシブで多様な社会」が謳われており、それ自体は非常に高く評価できる。しかし、具体的な議論がいま一つ詰められていないといった印象です。
こうした状況は、例えばEUやアメリカと比較するとどうなのか。荒井さんは国際会議などにもよくご出席されていますが、どのような印象をお持ちでしょうか。
機械学習など技術分野の会議においてですが、こういったAI応用にまつわる問題についての関心は非常に高いと受け取っています。分野横断的に、社会学や産業界など様々な分野の人を呼んでパネルディスカッションを行ったりすることもしばしばあります。
比較すると日本ではそこまで多くのアクションはないようにも思います。
日本でも形だけ(・・・)分野横断的な会議はありますが、それとは違うということですか。
例えば国際会議でシンポジウム以外にもそれらにまつわるトピックの論文数など、研究対象としての盛り上がりにも多少違いがあるかと思います。特にアメリカですと、「抗差別」ということには皆さん関心が高い。
やはり人種差別の問題があるからですかね。
そうですね。企業の側の関心も高く、昨年のFAT*(ACM Conference on Fairness, Accountability, and Transparency)という、機械学習や法学など様々な分野を横断して公正さなどを取り扱う会議では、顔認識アプリの黒人女性の識別精度が低い、という報告があると、企業がレスポンスをして、精度を改善したという報告がありました。研究者のアクションに対して企業も応えてくれるケースもあったという事例です。
顔照合とそのリスク
なるほど。若目田さん、企業のお立場からはいかがでしょうか。
日本は確かに人種差別など人権に対するセンシビリティは欧米ほど高くはないと思います。
米マイクロソフトは、先日、顔認証技術について、人種差別の助長やプライバシーの侵害などの恐れから、「各国政府は規制を厳しくすべき」との提言を公表しました。続けてグーグルは、悪用されることを避けるため、課題が払拭されるまでは、顔認証の汎用API(アプリケーション・プログラミング・インターフェイス)の提供を停止することを発表しました。顔認証技術が、ややクローズアップされ過ぎている傾向はあると感じますが。
顔照合に注目が集まる背景には何があるのでしょうか。
アメリカにおいては、やはり、有色人種、移民、宗教的マイノリティなど人種差別に対するセンシビリティが高いことが、クローズアップされる理由でしょう。「公共空間で特定の人物であることが機械的に把握できる」という顔認証技術に対し、特に法執行機関が活用することに対する危惧が大きいと思います。
欧州では、世界的に有名なサッカー大会であるUEFAチャンピオンズリーグの試合で、顔認証技術を活用し、特定の犯罪者を群衆の中から探し出す取り組みが行われ、実際に成果が上がりました。何万人もの歩行中の群衆を、離れたカメラで撮影し照合する高度な使われ方であり、「本人である確率」に基づきアラートを上げる仕組みです。
あくまで確率なのですよね。
細かくは承知しておりませんが、自動的に特定するのではなく、あくまでも人の目、人の判断を前提に行動する運用と思われます。しかしながら、この事例に対しては、ある人権団体から人権上の懸念が示されました。
確率で判断されるから、常に誤判定のリスクがあるということですね。
どんなに精度の高い製品であっても、様々な環境条件により、常に100%の精度が保証されるものではない点は事実です。この点を顔認証技術の特性と正しく理解し、リスクに対する運用の工夫など、人権に配慮することが求められるわけです。
カメラを用いた顔認証活用については、もう一点技術的な宿命があります。それは、照合すべき対象の人物だけではなく、カメラのフレームに入ったすべての人物を対象に、一時的に顔データ(顔特徴量という本人を識別する符号)として取得することです。この識別符号に基づき、データベースとマッチングする仕組みですので、マッチング対象でない人物のデータは速やかに削除する機能を組み入れるなど、技術の特性を認識した上で、人権、プライバシーに配慮することが重要です。
速やかに削除するといっても、カメラのフレームに入る他の対象の顔情報を取得するという事実は変わりません。これら技術的な制約やリスクを事前にきちんと説明した上で、そこから得られる便益(例えば市民の安全)とのバランスについてコンセンサスを獲得する努力を怠ってはなりません。
アカウンタビリティの必要性
「プライバシー・バイ・デザイン」をアン・カブキアン博士が提唱してから20年以上経っていますが、改めて信頼の価値が重要視される今こそ参考にすべき行動指針と言えるでしょう。また、グローバルに経済活動を行うには、プライバシーのみならず、広く人権に対する影響まで考える必要があります。
最近、AI領域では、プライバシー・バイ・デザインよりももう少し広い射程を持った、「エシックス・バイ・デザイン」(アルゴリズム等の設計ないし設計プロセスの中に一定の倫理観を組み込むこと)という言葉も国際的に多用されていますね。
日本は確かに人権に関して真向からの「抗差別」のような行動は少ないのですが、AIやカメラによって行動をトレースされているかのような報道のされ方によって、必ずしもそのような使い方ではなかったとしても「炎上」するリスクがあります。漠然とした不安というものが「炎上」につながっており、それに対して企業がやや過剰に躊躇しているという状況もあるようです。
一方で、逆にプライバシーへ配慮すべき点の理解や、意識がないことに起因するヒヤリ・ハット事例も散見されます。
ちなみに経団連も、「AI活用戦略」として、AI-Readyな事業者になるためのガイドラインを作成中です。例えば人材育成としては単純にデータサイエンティストを増やすだけではなく、倫理や人権についての知識を併せ持った人材の必要性も指摘されています。
炎上リスクの回避というと少々消極的な印象も受けます。企業としても「人権」や「公共性」に配慮したAIの実装を考えつつあるのは、国際的な情勢に足並みを揃えるという意味なのか。あるいはもう少し積極的な理由があるのでしょうか。
確かに炎上リスクを避けるというと、やや企業目線のスタンスですね。NECは、「NEC Safer Cities」と称し、今回のテーマである公共空間におけるICT活用、スマートシティを成長戦略の1つと定めました。
当然ですが、公共空間の様々な情報を可視化することは重要な要素で、カメラに代表されるセンサーデータへの期待は大きいです。カメラの特性として、データ主体から明確な同意を取得することが困難なケースが増えてきますので、状況に応じた、最も適切な通知や公表のあり方を、その都度考えていくプロセスなくしては、そもそもビジネスは成り立たなくなっていると言えます。
また、そのようにアカウンタビリティや透明性の点で優れた会社やサービスが選ばれるべきで、地道な行動をきちんと評価していただけるような仕組みができることを期待しています。NECでは特に、事業にも直結するのでプライオリティは高いと認識しています。
技術と利活用のあいだ
私は技術屋ですが、いくら技術的にいいものであっても、結局、人間がそれをどう使うか、それが倫理なのかもしれませんが、そこのバランスは重要だと思っています。
どうしてもわれわれの観点だと、まず技術でできることをどんどん積み上げましょうとなります。特にAIの話は技術先行で、コンピュータのGPU(汎用的に利用される演算装置)の進化などもあってだいぶ進んできた。並列処理ができるコンピュータなど一気にブレークスルーが出てきました。どうやって技術と人間のバランスを取って最終的にはどう使うのか。技術屋だからこそ、きちんと議論しなければいけないという気がします。
技術の開発段階でも公共性や倫理について議論しなければならないということでしょうか。他方で、技術と利活用は別だ、という議論もあり得ますね。技術はニュートラルなものだ、問題はそれをどう使うかにあると。従来はそのような「技術/利活用」分離論が強かったように思いますが。
確かに今までは技術は技術で、とにかくいいものをつくりましょうということでやってきました。もちろんコストなどは考えますが、どちらかというと倫理的なものは後回しになってきたのかなと。
基本的に昔からそうですよね。自動車ができてから交通ルールができるんです。文明が進むと、それに必要な倫理観が出てきて、その倫理を実践するための法律という仕組みが出来上がっていく。こういう順番だと思うんです。
私は、この30年間でインターネット文明が開花したと理解しています。技術が進展して、それに伴い、情報やプライバシーに対して以前とは全く違う倫理観がそれぞれに出来上がりつつある。そこで、そろそろ標準化されたルールを国際的につくっていく必要があるのではないかという議論が出てきている。これは、ある種、オーソドックスな順番だと思います。
他方で、それでは手遅れという議論もあり得ます。例えば原子力はエネルギーにもなれば爆弾にもなる。デュアル・ユースです。やや青臭いことを言えば、核兵器の問題は、技術・開発段階でこの二重性を真剣に考えなかった帰結とも考えられる。「技術あり、然る後に倫理あり」ではなく、技術と倫理が同時並行的に育まれることが重要という議論もあり得るのではないでしょうか。もちろん、倫理とは異なる「法」規制は後発であるべきですが。
他方で、技術段階にあまりに倫理的なものを求めると、技術革新が妨げられる部分もあって、やはり〝倫理フリー〟でいくべきだという議論も当然あり得る。実は、研究段階は憲法23条の「学問の自由」でその自律性が憲法上保障されてもいます。
ただ、どうなんでしょう。ベストセラーとなった『ホモ・デウス』の著者ユヴァル・ノア・ハラリ氏は、AIや遺伝子工学で人類史上かつてない社会の変革が起きる、エリートと無用者階級とに分断した超階層社会が生まれると指摘しています。AIがこうしたインパクトを持つとすれば、AIの二重性を技術段階でも議論しておく必要は多少なりともあるのではないか。
実際に使用する製品となる段階で、いろいろな議論があるとは思います。研究に関しては、技術者は何か最適化したい目標に対して努力していますので、その目標の中に倫理観を組み込むことが考えられます。どのような倫理観を組み込むかというところでは社会との調整が不可欠と考えています。
例えば入社試験の合否などのクラス分類において受験者の性別の影響をこれくらいの範囲内に収めようというルールができれば、その制約の下で最も会社に望ましい合格者を選択する合格規準をつくることはできます。他に、複雑なルールで記述される予測モデルにできるだけ説明性を持たせるようにするという研究などもあります。何を目標にするかというのは、技術者だけで決めるものではないと思います。
AIの設計にも政策的判断が不可避だと。そうすると、やはり社会との対話のチャネルみたいなものが必要だということですね。
そうですね。先ほど言及したように学会や、また企業のほうでもいろいろな活動があるかと思うのですが。
もともと自分自身が理学系にいて、だんだん工学系に近くなり、ちょうど今、大学の中でKGRI(慶應義塾大学グローバルリサーチインスティテュート)という文理融合的なところでAIの活用プロジェクトみたいなものが始まりました。
私のようなAIの研究者ではない研究者がAIをどうやって使えるか。そういうものを学生が勉強する場所も用意し、その人たちが社会に出ていって、それを使って活躍できるようにするようなことを今、始めています。AIの研究をする人と社会との間ぐらいのところを皆で議論して、対話のチャネルになればよいのかなと。
AIもニュートラルではないわけで、「対話」は非常に重要ですね。
日本型のデータの経済圏とは
いろいろなものが自由な世界の中で生まれて、ある程度、普及をしてくると、これはちょっと標準化したほうがいいというタイミングがあると思います。ここ数年で急激に全世界でAIやデータを活用したものが勃興して、そういうタイミングに入ってきたということだと思います。
国内の議論も大事ですが、やはり世界で議論しなければいけない。データは、GAFA(Google, Apple, Facebook, Amazon)と言われる経済圏と、中国の国がプラットフォームになった経済圏と、EUの経済圏があって、日本はどうしますかと問われているときに、個人を起点とした日本型のインクルーシブで信頼性の高いデータの経済圏を、AIの利活用とともにきちんと日本から世界に提案して共感を得ることができたら、日本だけでなく世界にとっても今の冷戦を打開するチャンスになると思うんですね。
まだ決まっていないからこそ前向きにとらえて、私たちで議論をリードしに行く、ということはとても大事なのではないかと思うのです。
その日本型のデータの経済圏というお考えを、もう少し詳しくお伺いしたいのですが。
まずGAFAの世界では、完全に民に任せて企業主導です。便利になるから個人がそれに乗っかり、その分、個人情報を提供するのはしょうがないという感覚です。中国の場合は、国のある種の強制性が働いている。
日本の場合、個人に判断軸が置かれていて、一方でそれが行政と企業とAPIで全部つながっていて、自由に自分たちの判断の下でスマートにやり取りができるようになることを目指しています。この経済圏は、先ほどの2つとは別の、三者間の信頼感の下に出来上がると思うんです。
制度的には、自分の情報の運用やマネジメントを、信頼できる第三者に任せる情報銀行(情報信託機能)に近いのでしょうか。
情報銀行というモデルもあると思いますが、現在政府で議論しているのは、もう少し民と行政と個人の間で、すべてがスマートにやり取りされるようになる社会です。例えば私たちは引っ越したら、今はA自治体に住民票を引っこ抜きに行って、B自治体に入れに行かなければいけない。これが、B自治体に行けばAから自動的に引っこ抜かれて、しかも電力会社にもきちんと通知されて、本人の了承のもとに振り込み先も変わるようになる。
顔認証技術にせよ、AIによるスコアリングにせよ、自分の知らないところで自分であることが把握される、スコアリングされているという使われ方では受容されません。誰かではなく、自分が起点のサービス、例えば「自分のスキルや経験を証明したい」「顔パスでサービスを受けたい」といったニーズは高く、そのようなサービスには必然的に個人データが委ねられると考えます。
同じ技術でも、自分が起点か、誰かにそれをされるのかの差は重要で、冒頭に山本さんから例示された中国のデータ活用モデルの対極軸として、「人起点」が我が国のデータ活用モデルとして受容されるのではないでしょうか。
このビジネスモデルの鍵は、長々とリスクヘッジの文言を書くのではなく、データ活用の目的やリスクをスパッと伝えるUI(ユーザー・インターフェイス)であり、まさに人間中心デザインそのものです。
それには私も同感ですが、世界へ提案するときは、あえて日本型と言わないほうがいいと思っているのです。「人起点」が日本の取るべき指針で、中国は「国起点」、GAFAは「企業起点」ですよね。だから、起点が違うということで整理できるのではないかと思っています。
「人起点」とは何か
私もいろいろ政府の会議に関わらせていただいているのですが、その中で「人間中心」のAI利活用だ、ということは様々な形で強調されます。でも、この人間中心、「人起点」というのが具体的に何を意味するのかが、まだ十分に煮詰まっていない。
スローガン的にはしっくりくるのですが、それって何なのでしょうね。例えば、最初に挙げた信用スコアリングでは、その人を「正確」に評価してあげる、その人の努力を正当に評価してあげることが「人間中心」なのか。と言うのも、「正確」に評価するためには、その人の行動記録をシームレスに収集する必要が出てくる。それは結局は監視社会ですよね。
では、その人のプライバシーを守るということが「人間中心」なのか。あるいは、「人起点」ということで、本人が出したくない情報はAIに与えなくてよい、ということになるのか。このように、本人のプライバシーや主体性を重視すれば、データに穴があくことになり、AIの予測精度は落ちる。そうすると、「見せ方」、データ上の「現れ方」が上手い者が得をするため、ちゃんと努力してきた人が損をするかもしれない。要するに、プライバシーや主体性を犠牲にして、AIに情報をシームレスに与えること、その人を正確に把握することが「人間中心」なのか、正確性を犠牲にしてプライバシーや主体性を重視することが「人間中心」なのか。
先日のOECDの会議でも、プライバシーとフェアネス、つまりプライバシーとAI予測の正確性とは実はトレードオフの関係になるということが指摘され、両者をどのように調整していくのかが議論になりました。これと関連して、予測の正確性を高めるために、本人が修正・変更できない遺伝情報などをAIに読ませるべきかも問題となる。
また、「インクルーシブ」というスローガンについても、中国の状況を見ていると本当にそうなるのか、疑問がないわけではありません。かえってエクスクルーシブな社会になるのではないかと。日本が「人起点」をゴールにする場合、そうならないためのセーフガードをどう用意しておくかが重要になるように思います。
「穴があいてしまう」というのも、企業起点、国起点で見ると穴があいているということですよね。でも、人起点でいくと、まさに山本さんがいろいろなところで言っていらっしゃいますが、常に個人の情報というのは本人が出し入れ自由な中で相手との信頼関係をつくっているわけですね。実際に今も「私はどこの大学卒で」とか、「実はこういう失敗があって」と言いながら社会的に人と付き合っている。
結局、その出し入れの権限がどちらにあるかということだと思うのです。この起点が「人」であれば、欠けているとか欠けていないという視点にはならないのではと思います。本人からすれば自分の出したものが登録されていますよ、ということですから。
なるほど。PDS(パーソナル・データ・ストア:自己情報を自ら管理し、その利活用のあり方を自ら決定する仕組み)の発想ですね。まさに自分が評価してもらいたいものを自分が提供して、そうでないものはクローズにする。
「人起点」とは、データのやり取りの起点のみではなく、例えば、企業が自分を評価するプロセスに対し、ワンクッション確認が入って、自分がそれに納得すれば、サービスを受けるといった、生活者目線の仕組みも該当するのではないでしょか。
採用や与信(金融機関などで信用を与えること)もそれでいけますか。つまり採用や与信だと、自分が見てもらいたいものだけを自分が提供する方式ですと、やっぱりAIの予測精度は落ちますよね。前科情報は出したくないとか。
私は与信と採用は分けて考えたほうがいいと思っているのです。まず与信はサービスを個人が受けたいわけですから、その分、企業に対価として信用情報を提供してくださいということになります。ですから、それなりに信用を得たいと思ったら、今でも実際に負債はどのくらいとか家族構成とかの情報を出していますよね。
また、採用の話というのは、AIが関わるようになった瞬間に特別なものになるように思われていますが、誤解があるような気がしています。人間も育ってきた環境などで必ずバイアスがあります。だから、複数人で採用面接をしますよね。AIも1つのAIで評価すれば、それは必ずバイアスが出る。でも、いろいろなバイアスのかかったAIを並べれば、実は人間と同じことになるのではないかと思います。
領域ごとに「人起点」の具体的ありようが変わってくるということですね。最後の点はよく指摘される問題です。従来の採用とAIを用いた採用の違いは何か、と。
人間とAIでは、受容性は少し違う部分があるとは思います。私も要は人間も同じことをずっとしていて、それがAIに置き換わっただけというケースもあると思います。例えば「AIは完璧である」などという先入観があるので誤解されているのではないでしょうか。
期待値が高すぎるんですよね。
AIと言われるような情報処理システムには守るべきルールを入れ込んだり予測精度を評価したりできますが、自律的だったり超人的なものとして誤解されているところに、AIに対する恐怖とか反発があるのではないか。また製品としてのテストの方法論が未成熟だったり一般の方への分かりにくさがある部分は、開発側の課題でもあるかと思います。
「こういう判断基準でやりたい」ということが人間の側ではっきりしていれば、それに合わせてAIを設計していくことができると思うので、できるだけいろいろな分野の方が共通認識を持って取り組んでいけばいいのではないかと思います。
スコアリングの使い方と説明責任
視線の動きで何を見たかを捉える、例えば本棚のどの本に関心を示したかを把握し、その人の趣向を推知する技術があります。書店でどの本に関心を示したかというのは、場合によっては思想や信条が導き出されるかもしれませんし、チラッと見るというのは、自分でも気づかない内面かもしれず、使い方によってはかなりセンシティブです。それが、自分のIDと紐付けされたとしたらいかがでしょう。
でも、列車の運転手の視線の動きにより、どういうところを注視して運転しているかを捉える技術とすれば、継承すべきスキルの可視化、不注意による事故の抑止など、社会課題の解決につながります。つまりは、目的と倫理観に基づいた要件定義次第ということではないでしょうか。
スコアリングというのも、例えば自動車の運転能力もスコア化し、若い頃とはどう違うか、もしくは、昨日と今日でどう違うかということが分かってくれば、それに対する運転の補助ができるわけです。
「認知症になったら免許を取り上げます」という単純な判断ではなく、その人の運転履歴を長い間、正確に捉えて、今日は疲れているようだからここを補ってあげようと判断してくれるとしたら嬉しいですよね。
なるほど。それこそ「人起点」の使い方かもしれません。年齢や診断で一律に、カテゴリカルに排除するのではなく、その個人の具体的な特性や傾向を予測してパーソナライズ化された対応をとる。憲法のいう「個人の尊重」にも資するAIの実装のように思えます。もちろん、そのためには長期間その個人のデータを取っておく必要があり、プライバシーとはトレードオフになるかもしれませんが、収集範囲を説明したり、目的外利用を防ぐような措置を講じたりしておけば、それもある程度抑えられる。
企業の採用も、人間のバイアスのせいで、今までカテゴリカルに排除されていたような人が、AIを使ってインプットを多様化することでかえって包摂されるかもしれません。障がい者についても、従来の人間による採用だと、ステレオタイプ化されたイメージからその要素が全面に出てしまい、採用が難しくなるかもしれませんが、AIだと、障がいという要素は客観化・相対化され得る。
課題は説明責任ですかね。それでも不採用になる人はいるわけで、そういう人にどう説明できるか。人間が採用していた時代でも不採用の理由は基本的に説明してこなかったわけですが、評価に使ったインプット情報が限定されていたので、「説明されなくても言わずもがな」、みたいな世界だった。
でも、今後AIになって、インプット情報が多様化すると、自分のどの行動が不採用につながったのかが分からなくなる。ある企業の採用アプリでは、志願者が質問に答える際の指の動きまで収集しているわけですね。そうなったとき、「説明しない」ということの持つ意味が、これまでとは大きく変わってくるかもしれない。AIを使った採用の場合、インプット情報やアルゴリズムがブラックボックスになるので、不採用とされた者はその理由が分からず途方に暮れてしまう。這い上がる機会を持てずに社会の下層で固定されることもあり得ます。いわゆるバーチャル・スラムの問題ですね。
AIによるインクルーシブな社会の実現と言ったときに、一定の説明責任が必要とも思うのですが、そのあたり技術的にはいかがでしょうか。
例えば、ディープラーニングとか複雑なモデルをどうやって説明するかという研究があるのですが、そこでの課題の1つに、説明をする際に人間が理解できるものというのは限定されているので、情報を落とさないといけないということがあります。
そのことによって実際に動いているものとの差が出てきてしまったり、逆にモデルの精度を落としてしまうことになる。そうなると、例えば営利企業だと精度を落とすことを許容できるのか、または精度を落としたものによる説明が正しいのかということがあります。
また、説明はいろいろな観点からできると思うのですが、それを人間が受容するかどうかです。説明しても、受け取り手の知識や意図と反していることもあり得ます。その場合、結果を受け入れたり利用したりすることができるか。そこがなかなか難しいところだと思います。
政治の世界も感情と理屈、まさに情と理でバランスを取りながらやっていて、「あの人が言うから、一度乗っかってみよう」と言ってもらえるかどうかというのは、政治家の力量が問われるところです。対立が起こったときに、信頼して歩み寄ってもらえるか。最後に人を説得するとか、人を励ますというところの納得感は、人にしか出しづらいところがあると思うんです。
なので、AIの判断を人間が受容できるかという話に戻すと、AIは画像などビッグデータを元に相当精度の高い分析結果を提示できるが、それだけでは納得しづらい、受容できないこともある。そこは専門家、例えば医療現場であればお医者さんが説明する、面接結果について最後は人事担当者が説明をするということが、まさに情と理の付き合い方、技術と人間の付き合い方ということになるのではないかと思います。
なるほど。EUのGDPR(一般データ保護規則)も、AIの判断のみで採否や融資決定を行う場合には、人間の介在を得る権利や、判断の重要部分について説明を受ける権利を保障しなければならないとあります。
AIによる排除的社会を防ぐには、こうしたEUの「説明を受ける権利」をどのように日本が取り込むかが重要なポイントになりそうですね。
「AIのほうが良い」のか!?
扱わないといけない情報の量が増えているので、情報技術を使うのが不可避な場面があると思っています。医療画像診断などはデータが増えすぎていて、オートマチックなデータ処理による現場のサポートの必要性も指摘されています。
私の考えとしては、診断のサポートとして、プロをまねたAIを取り入れるのはいいことだと思う。でも、それをきちんと患者さんのところまで持って行くというのはお医者様の仕事であると思います。
政治の世界が「あの人が言うのだから、しょうがない」というところ、まさに信頼感、納得感が力量という点、なるほどと感じました。
同じように、AIが社会に浸透してきたら、例えば、「NECが提供しているAIサービスなのだから、いいんじゃないか」といった、デジタル社会における信頼感、納得感が、結果的に差別化要素になることを目標にしたいです。
そのような信頼の醸成が1つの企業価値になってくるということですね。
ちょうどこの間、漫画家の倉田真由美さんを交えたシンポジウムを開催したのですが、自分は「AI弱者」だと言っておられた。何の前提もなしにAIに対するユートピアとディストピアを言ってもらったところ、「いろいろなお医者さんがいるが、名医かどうかで診断結果に差異が出るのは嬉しくなく、どんな小さい病巣も見逃さず誰に対しても同じく適切な診断をしてくれるAIに期待する」とコメントをいただきました。
また、企業の採用などでのAI活用も、「本人も思いつかない可能性が発掘されるのであればとてもいいことではないか」とのことでした。
私もこの前ゼミ生に、あなた方が就活するときにAIに採用されたいか、人間に採用されたいかと聞いたら、ちょうど半々ぐらいでした。
今後はAIに判断されたほうが、かえって信頼できるという世界観もあり得るわけですよね。AIのほうが自分を正しく見てくれていると。
でも、同じアルゴリズムだと、皆、ステレオタイプの同じ人ばかりの会社になりそうで怖いですよね。
そういうことを企業が考えることになるのではないかと思います。私もドコモ時代、人事採用担当をやっていたのですが、昨年はこういう人材、今年はこういう人材と目標をずらして面接官も代えるんです。そうしないと、バイアスがかかってしまうから。
そうですね。それもAIでやるとしたら、ダイバーシティをこれくらいのレベルにして、という感じで設計すれば、できると思います。
ダイバーシティの設定をすればAIの判断もそれなりに上手くいくとなると、例えば政治や裁判における意思決定もAIに代替したほうがよい、という話になっていくのではないか。その場合に、「人間中心」の意味とは何か。
AIを信頼するということについてですが、人間というのは割と面倒くさがり屋で、よきに計らってもらえれば、説明を細かく確認せず意思決定をしてしまうというスタンスもあると思うんですね。
同意を取るときに、プライバシーポリシーを見せたり、データ利用についての情報提供をしても、あまり難しい話は分からないと言われかねません。自分に都合のいい話はよく聞いても、面倒な話は耳に入りづらかったり。人間の意思決定というのは割といい加減で曖昧だと思われます。この人間の意思決定のふわふわした部分に、どうやって付き合っていったらいいのか。
「AIのほうが正しいし、AIに任せたほうが面倒くさいこともなくなってきて、逆に快適に過ごせる」と考えるのも人間だ、と言える。それは公共精神を持った、アーレント的な「人間」ではないけれども、やっぱり「人間」だ、と。他者を尊重して、討議して、考えて、選挙に行って、民主主義を維持して、というのは面倒くさい。
そうすると、中国のような自動化したAI社会も「人間中心」と言えるのかもしれない。
この30年間をインターネット文明と言いましたが、インターネット文明の中での基本原則は、やはり自由ですよね。自由でいたい。
でも、自分がやらなくてもいい意思決定はなるべくやりたくないというのが人間の本質だと思うんですね。しかし、本当にやりたい意思決定は自分でやりたい。それは残っていくはずなので、それでいいのではないかなと。
それは残っていきますかね。「やるべき」だけど、本当に「やる」か。
インターネット黎明期は、確かに掲示板やソーシャルネットワークもできて、便利になった、という雰囲気があったと思うのですが、その後、ネット上の分断が生まれたり、ネガティブな面が見え始めてしまった。
だから、問題が多数見えてきたので、自由を謳歌するためにも、何らかの当初の設計思想とは違う、問題解決のための仕掛けを上手に入れると、上手くいくのではないかと期待しています。
自由な公共空間をどうデザインするか
今、荒井さんから「設計」という話が出ました。自由を維持するためには、ある種の設計が必要になってくるのではないか。
自由というのはおそらく今までは放任的な、つまり政府の規制でも技術的な規制でも、他者からの干渉を排除するような消極的な自由概念が中心としてあった。でも、民主的な、開かれた社会、積極的な自由を維持するには、設計的な介入の要素が重要になってくるかもしれません。
日本が目指すべき道が中国的なものでないとすると、どういう「設計」ないし「仕掛け」が必要になるのでしょうか。
技術的な話の前に、インターネットやAIなど技術の利便性の一方で、それらが引き起こす新しい課題というのは、サステナビリティの観点からも企業の新たな社会的責任だと思います。過去を見れば、自動車の発明は公害や交通事故といった社会課題を招きましたが、ハイブリッドカーの開発など予想されるリスクに早く手を打てば、むしろ社会的な活動をしていると評価され、新事業として立ち上がることすらあります。
これをデジタル時代に置き換えれば、AIという人の内面の推知、個人の特定など、プライバシーに影響のある技術へ投資をするのであれば、一方では、プライバシーを守る技術にも投資することにより、生活者の信頼と、新たな事業のきっかけを得ることができます。言い換えれば、個人も、企業も、社会も皆、ハッピーとなるサービスをデザインすることになろうかと思います。
単純な例で言うと、人を高精度に見つけ出して判別するテクノロジーがあるのだったら、例えばスーパーなどの棚の商品の状態をセンシング、分析する目的であれば、人と判断したらそのデータを即時消去し、言わば人を認識しないセンサーにして棚の状態だけを分析する設計とするとか。
それはまさに、プライバシー・バイ・デザインの考え方の実践と言えます。さらに、プライバシーのみならず人権全体にまで視野に入れた「ヒューマンライツ・バイ・デザイン」というアプローチが提唱されていますが、特に経営層にこそ、それを理解し、実践してほしいと思います。
目先の経済価値にとどまらず、このような技術開発、サービス開発に先行投資する企業が国際的にも評価されることが理想です。
私もまったく同感で、日本が今後、中国とも、アメリカやヨーロッパとも違う、「人間中心」を謳うときに、炎上リスクをどう回避するかではなく、「こういう技術でこういうインクルーシブな社会が実現されますよ」と積極的に打ち出すことが重要だと思います。
これまで以上にインクルーシブでダイバーシティの確保された社会を実現する技術はあるのでしょうか。
技術的には実現可能性は十分ありますが、社会が受容するかどうかも重要です。
やっぱり企業が使わないということですか。
その可能性もあるかと思います。やはり売れないと企業は困ると思うので、ユーザーの要望も聞かないといけない。
意思決定をAIも調整はできますが、それとどう付き合っていくかというのは人間側の問題です。AIの判断の設計に関する議論をきっかけに、社会の側の対応をより発展させていけるといいのではないかと思います。
結局は社会の成熟度にかかっていると。企業に対する社会的評価の基準を変えていくことも今後重要になってきますね。
ただ、現段階でそこまで社会が追いついていないとすると、法的なコントロールのあり方も問題になると思います。小林さん、そのあたりどうでしょうか。
AIをどうするか以前に、今後の日本をどうするかを決める必要があります。
日本は今、3つの大きな変化に直面しています。1つは人口減少。2つ目は人生100年時代の到来。3つ目はテクノロジーの圧倒的な進展。これらは避けられない変化なので、どう受け入れてチャンスに変えていくのか、ということがとても大事だと思います。
これを前提に考えると、テクノロジーの進展の1つの象徴であるAIの活用については、実は日本にこそチャンスがあります。
「AIに雇用が奪われる」という話がよくあります。中国、インド、アメリカなどは大量の若年人口により、失業リスクを社会不安として抱えていますが、人口減少下にある日本はその心配がなく、むしろ社会的に導入を進めていくことが必須なのです。
ただし、日本にはまだ「お上」という言葉があるように、行政にルールを決めてもらわないと心理的に動きにくいところがありますね。
だからこそ、国内における規制のあり方については、テクノロジーの利活用を見据えて政治行政側から早急にルールを整備することが望ましい。法整備を待たず、ガイドラインや指針というソフトな手法でできるだけ早く手を打っていく。
同時に、世界が中国とGAFAだけが優位なデータ経済に支配されないよう、「人起点」のデータ利活用ルールを世界標準にする必要があります。そのためには世界のマルチステークホルダーを巻き込む必要があり非常に大変ですが、国際標準がない今だからこそチャンスです。
「人間中心」への議論の場を
なるほど。本学には文理融合とグローバル化の推進を担うKGRIのような組織がありますが、そういった組織を起点として、世界的な指標づくりに大学としてお手伝いできるところもあるかもしれません。
今、AIはたぶん、皆が予想しているより早く展開していると思うんです。われわれが取り組もうとしているKGRIでも、いろいろなことをやっている人が集まって次の研究、次の社会にどう役に立てるかを、もっといろいろな角度から議論し、発表し、または対話する場を大学の中につくることは重要です。大学は自由に活発に議論していい場ではありますので。
プラットフォームというか、場の提供者として大学というのはフラットで自由にものが言えて、かつそれに学術的な裏付けができる場なので、社会人にももっと大学に帰ってきてもらって、いろいろな議論をしてもらうことは、すごく大事なのではないかと思います。
ただし、議論するだけでは世の中は変わりません。足元の問題を見直し、具体的に成果を出す必要があります。
例えば、日本には1718の自治体(市町村)があり、多くの重要なデータを保有していますが、1718種類の情報システムが動いていて、行政の手続きの紙も1718種類フォーマットが違っていて、データを活用しようにも、非常に困難な状況です。さらに、そのデータを扱うための個人情報保護法の下にある個人情報保護条例も1718種類以上ある。
このような状況を早く解決し、目の前の景色を変えることで「何か自分たちの世界が変わってきたな、これをもっと生かすためにはどうしたらいいだろう」と皆の意識が変わって行動が変わり始めることが、本当に日本が前に進むことにつながるのではないかと思っています。
「次世代医療基盤法」は、医療情報をビッグデータ化して収集・連携し、医学研究に役立てることを目的に制定されましたが、収集・保存のシステムやファイル形式が各医療機関で違うと、高度な情報連携が難しくなる。小林さんが指摘された問題と似ていて、システムの標準化が急ぎ必要になる。しかし、このあたりはベンダー間の競争とぶつかってくるのですね。日本では、標準化する層と競争する層との関係がまだ十分に整理されていない。
私も「人間中心」、「人起点」の考えには大賛成ですが、トレードオフの関係がいくつか出てくることにはもっと注意が必要だと思います。今の標準化と競争との関係もそうです。中国の「デジタル・レーニズム」の下では、標準化が政府主導で強力に推進されるので、データがものすごい勢いで集まる。日本ではそうはいかない。
それ以外にも、これまでも申し上げたように、プライバシー、AIの予測精度(正確性)、透明性、効率性などはいずれもトレードオフの関係に立つはずです。「人間中心」を具体的な議論にまで落として、このトレードオフの関係を精緻に議論していくことが必要だと思います。
例えば、AIの予測精度を上げるには、プライバシーをある程度捨てる覚悟も必要。こういうリアルな価値衡量の議論が日本にはまだないように思うんです。
無料サービスやクーポンのためにユーザーがパーソナルデータを提供するような話もあると思います。ユーザー自身にまつわる情報の開示は本人の自由ですが、その結果データがどう使われるか、どのようなプライバシー侵害とのトレードオフがあるのかといったことまでは理解されていないかもしれませんね。
でも、必ずしも悪いことだけではないと思いますし、全てがトレードオフということではないかもしれません。スコアリングについても、従前の財務的な情報だけでは、資金を調達できなかった人が、ライフログなど非財務情報に基づき与信を得て新たなチャンスを獲得するとか、自分でも気づかないような可能性を発掘されるといった「プラスサム」を狙ったサービスもあり得ます。
そして、我が国が世界でいち早く経験する超高齢化社会は、人生100年時代という言葉に象徴されますが、「人起点」のパーソナルデータ活用が非常に重要となることは相違ないと思います。
Society 5.0にも謳われているとおり「人間中心」というのであれば、国や企業による検討もさることながら、もっともっと生活者の積極的な参加が望まれるところですね。
フェアな社会を実現するために
法律である程度、基本法的なものをつくるのが、国民的な議論を一番喚起できますね。今はAI利活用原則などを公表している段階で、立法の動きはまだないですよね。
それは順番で、まず利活用が進み、新しい社会のイメージが皆の前に見えてきた段階で、ルール整備の必要性が議論されるということではないでしょうか。まだまだその社会像が共有できていないのではないかと思っています。そういう点で、福澤先生が『西洋事情』でイラストによって当時の先端テクノロジーを「蒸気」「済人」「電気」「傳信」と表現し、未来の社会像を日本国民に共有したことは、有り難いお手本です。
私はテクノロジーを信じていて、フェアな社会を実現するための最高のツールだと考えています。テクノロジーのお蔭で、履歴が「見える化」され、努力が評価され、障がいや困難を抱えていても、どこに住んでいても、フェアに社会に参画できるようになります。
例えば、在外邦人といって海外に住んでいる日本人は120万人います。この方たちの選挙での投票率はなんとたった2%なのです。これはどうしてかというと、各国にある日本大使館や領事館まで行くのがとても大変だからです。ここにテクノロジーを活用し、早ければ、4年後の参院選からネット投票ができるように現在、法整備を進めています。
大半の人は、たぶんどのようにテクノロジーを使えるのかがよく分からないと思うのです。
そうかもしれません。これまでの政治行政が反省しなければいけないことは、「人起点」ではなかったということです。
「国民の皆さん、ルールつくりました。はい、どうぞ」と伝えたつもりになっていたわけですが、本来、「このルールは実はあなたの生活がこうなるためにつくったんですよ」と、背景とその先に目指す社会像を伝えていければ、AI時代におけるそれぞれの生き方のイメージを持ちやすくなるのではないかと思います。
AIは、使い方によってはフェアでインクルーシブな社会の実現を本当に可能にするポテンシャルを持った技術だと思います。その可能性を、リスク面からも目を背けずに、どのように具体的に示し、出していけるかどうかが課題ということでしょうか。
従来の日本社会は、憲法で「個人の尊重」や「平等」を謳っておきながらも、現実には十分にこうした理念を実現できなかった。AIの利用によって、新たな元号の下、ようやくこうした理念が実現するかもしれない。これは素直に認めるべきです。ただ、その具体的かつ現実的な方向性を、文理融合したかたちで広く議論していかないと、日本社会は、それとは真逆の、排除的で予定調和的な監視社会へと転化しかねない。
今回の座談会が、今、私たちがその分岐点にいることを読者諸氏が気付くきっかけになれば幸いです。
今日は活発な議論を有り難うございました。
(2018年12月17日収録)
※所属・職名等は本誌発刊当時のものです。