日本の改革

日本の改革に関するブログです。あるべき改革や政策等について考えていきます。

「分からなかったら憲法の人権規定に戻れ」:AIのプロファイリングには、EUのGDPR同様の規制を!

リクナビ事件で、IT大手プラットフォーマーへの、従来型の規制の問題点が明らかになってきました。形式的な同意さえあればよいという、利用者の権利を無視した姿勢は間違いです。AIのプロファイリングのもたらす深刻な人権侵害の可能性を直視し、EUGDPR並みの規制が必要です。

リクナビ事件に関するセミナー

昨日9月9日、リクルートキャリアが就活生の「内定辞退率」予測データを無断売買した問題につき、一般財団法人情報法制研究所(JILIS)が、セミナーを開催しました。

www.bengo4.com

一般財団法人 情報法制研究所 イベント案内

大変な盛況だったようで、リクルートキャリアからも偵察に来ていたそうです。

上記リンクの弁護士ネットでは、議論の要点をいくつか紹介しています。

就職・転職支援の業界自体の体質について、JILIS参与の板倉陽一郎弁護士は、内定辞退率の企業への提供など、最初から同意が取れるわけがないのだから、そもそも「同意スキームでやろうとしていたことが全体としてだめ」とバッサリ。

そのうえで、リクルートキャリア社が行ってきた醜悪なビジネスモデルをこう批判しています。学生に対し大量エントリーを煽って内定辞退率を高め、それによって人事担当者の評価が下がりやすくして、そこにつけこんで、企業に内定辞退率を売るのだから、「武器商人のようなやり方だ」と。

また、倉重公太朗弁護士は新卒一括採用方式の問題点を指摘、「新卒が価値がある社会だから、内定辞退率の情報に価値があったが、欧米ではこのような事件自体が起きないだろう」としています。

こうした様々な問題点がありますが、ここでは、AIによるプロファイリングが行われて、それが明らかに学生の不利益になる形で使われていた、という点に着目します。この問題は、リクルートキャリアや就職・転職業界にとどまらず、一般にIT大手プラットフォーマー全体への規制の際に重要な問題です。

AIによるプロファイリングの問題点とGDPRでの規制

以下、AIによるプロファイリングの定義・問題点・EUのルールにつき、小泉雄介(2018)「プロファイリング・自動意思決定とプライバシーに 関するEUGDPR)・英国の動向」(国際社会経済研究所)によって、まとめます(国際社会経済研究所は、NEC系の研究所です)。

https://www.i-ise.com/jp/information/report/profiling_IISE_180925.pdf#search=%27%E3%83%97%E3%83%AD%E3%83%95%E3%82%A1%E3%82%A4%E3%83%AA%E3%83%B3%E3%82%B0+GDPR%27

プロファイリングとは、「ある人物について、既知の情報から、その人物の既知でない情報を推定したり、 将来の行動やリスクを予測すること」を言います。これを ビッグデータ・AIによって行うと、推測したデータは限りなく当人の 個人データと同等なものになります。

このため、本人から直接取得できないデータで本人が開示したくない属性等にについても、「個人データの取得」と実質的に同等な推測が可能になります。また、入力データやアルゴリズム自体にバイアスがあると、社会的差別の助長等が起きかねません。

一方、ターゲティング広告のように、社会的に有用な面もあるので、そのバランスの取り方が問題となります。AIのプロファイリングの応用例として、以下のようなものがあります。メリットはもちろんありますが、デメリットもそれに劣らず大きいことが分かります。

f:id:kaikakujapan:20190910125708p:plain

出所:小泉雄介(2018)「プロファイリング・自動意思決定とプライバシーに 関するEUGDPR)・英国の動向」(国際社会経済研究所)

これにつき、EUGDPR(一般データ保護規則)は、相当厳しい規制を課しています。規制の概要は以下の通りです。つまりは、ある個人の情報が、自動化された処理(AIのプロファイリング等)のみによる意思決定で処理されるとき、その意思決定が、本人に法的効果や重大な影響を及ぼすときは、原則として禁止です。ただし、契約の締結に必要だったり、当該処理について本人の明示的な同意があった場合は、関連する重要な情報や当該処理で予測される結果をちゃんと本人に知らせたうえで、本人のその他の権利を保護する処置を行うという条件で許可する、というものです。

f:id:kaikakujapan:20190910125800p:plain

出所:小泉雄介(2018)「プロファイリング・自動意思決定とプライバシーに 関するEUGDPR)・英国の動向」(国際社会経済研究所)

GDPRの概要・条文・ガイドライン等はこちらです。

GDPR

「分からなかったら、憲法の人権規定に戻れ」

こうした厳しい仕組みがあれば、リクナビ事件も防げた可能性が高いでしょう。

リクナビ事件について、本ブログでは、個人情報の定義が狭すぎて、個人と紐づけの可能なデータについての規制が足りなかった、だからこれからは、クッキーや閲覧履歴等についても、個人情報として扱うべきだ、と主張しました。そこでの問題意識も、AIのプロファイリング等で生成されたデータが、内定率だけでなく、学生のその後の人生の要所で本人に不利益な利用のされ方があるからです。

リクルートキャリアの悪辣な脱法行為:2020年の個人情報保護法改正で、EU同様、Cookieや閲覧履歴も個人情報にして、「忘れられる権利」も認めるべき! - 日本の改革

以前論じたように、個人情報の定義を広げるべきことはもちろん、これに加えて、そもそもAIを利用したプロファイリング自体についても、GDPR並みの厳しい規制を導入すべきだと思います。

大手ITプラットフォーマーへの対応として、公正取引委員会独占禁止法の指針を変更し、優越的地位の濫用について、四つの行為類型を示しました。そこには、リクナビ事件にも適用可能な部分はありますが、GDPRと比べればまだまだ簡潔に過ぎて不十分です。

f:id:kaikakujapan:20190910131836p:plain

出所:公正取引委員会

https://www.jftc.go.jp/houdou/pressrelease/2019/aug/190829_dpfpc3.pdf

www.nikkei.com

これまでなぜ、日本では、こうした問題に対応できてこなかったのでしょうか。要は、立法や裁判にあたっての判断が、企業の利益や便宜優先で、消費者・利用者の個人の権利を軽視しすぎたからです。

実はこの問題、憲法学者や情報法の専門家の以前から主張していたことでした。彼等の言い分を聞いておくべきだったのに国会も裁判所も無視する状態が続いていたところ、リクナビ事件のような大規模な被害が出て、初めて本当に関心を集めることになりました。

慶應義塾大学法務研究科の山本龍彦教授によると、国民が自分の個人情報をコントロールできる権利を認めるべきだ、という考え方は、日本でもなんと1970年代から唱えられてきました。インターネットなどない頃から言われてきたことです。

情報ネットワークシステムのなかで「個人」の自由を守るためには、「私生活をみだりに開示・公開されない消極的自由としての古典的プライバシー権概念では不十分で、自らの情報を積極的にコントロールできることが重要となる、という認識」に立って、ドイツの憲法判例等も参照して提唱されてきたのが、「自己情報コントロール権」です。日本国憲法で言えば、「個人の尊重」を謳う憲法13条を根拠に、この権利の重要性が説かれてきました。

ところが、日本の最高裁は、住基ネット最高裁判決等でその承認を拒みました。この事件では、大阪高裁では認められた権利を無視した形です。2003年に成立した個人情報保護法も、「自己情報コントロール権」という言葉は、あえて使っていません。

このように、個人情報を利用する企業・業界と、その個人情報の本来の権利者である個人との間で、企業・業界寄りの判断がされてきました。このため、いいかげんで分かりにくい規約・プライバシーポリシーについて、利用者が「同意」とクリックさえすれば後は何も問題はない、という状態が続いています。

GDPRが突きつける日本の選択 - 山本龍彦|論座 - 朝日新聞社の言論サイト

裁判所 | 裁判例情報:検索結果詳細画面

住基ネット最高裁判決(1)自己情報コントロール権には言及せず | 日経 xTECH(クロステック)

先の弁護士ネットのリンクにある通り、JILIS参与の板倉陽一郎弁護士は、内定辞退率について「そもそもこれに同意が取れるわけがない。ということは、同意スキームでやろうとしていたことが全体としてだめ。」と断じています。

リクナビ事件を徹底討論「国民が幸福かどうかという視点を」 個人情報保護法や経済法、労働法などの問題指摘 - 弁護士ドットコム

それなら、AIによるプロファイリングのための個人情報の利用を、GDPRのように厳しく規制してしまうべきです。

情報法制研究所(JILIS)理事長の鈴木正朝教授(新潟大学法学部)は、今回の事件につき、リクルートキャリアを含めた業界全体を、口を極めて批判しています。

 単純明快。馬鹿にはAI禁止。もちろん、このツイートは、この問題への一般の関心を呼ぶために、ツイッターという場で行われた私的な発信で、通常の?コメントは、以下にまとめられています。要点は、人間の選別だけではなく、差別的取扱いや人権侵害的結果を招くようなプロファイリングは、同意があっても禁止されるべき、ということです。

www.bengo4.com

この分野の権威が、ツイッターであそこまで言われるのには理由があります。日本は個人情報コントロール権の保護の問題からずっと逃げ回ってきました。メディアは、鈴木教授を含めて情報法の専門家が以前から主張されてきたことを無視、誤解、批判。以下のスレッドにある通りですが、加えて、大学教授として毎年学生を送り出されている立場で、今回のような事件は許せないというお気持ちもあることでしょう。

 「馬鹿にはAI禁止」を実現し、悪知恵の利く利口にも禁止し、AIという確かに極めて有用なツールを本当に国民の幸福のために使えるようにするために、実務的に可能なのは、一番厳しいルールであるGDPRに合わせるという落としどころでしょう。これなら、馬鹿にも利口にも公平に適用され、AIのメリットも生かせるでしょう。

なお、法律の分野に限らず、経済学者も、この問題に感度が弱かったと思います。冒頭に紹介した、情報法制研究所(JILIS)のセミナーで登壇した依田高典教授(京都大学大学院経済学研究科)は、IT大手プラットフォーマーの規制の議論で、優越的地位の濫用を消費者に適用することには当初慎重だったようですが、今回の事件については、濫用にあたる、と主張しています。依田氏は、今後は消費者・利用者の限定合理性を前提として、規制を作るべき、との主張をされています。依田氏は行動経済学者なので、こうした規制には理解がありますが、主流派経済学は、IT大手プラットフォーマーへの規制については、後ろ向きに見えます。

(依田氏の昨日のセミナーの資料を参照)

https://jilis.org/events/data/20190909tokyo_ida.pdf

このように、日本の政府、裁判所、企業、メディア等は、個人情報を使ったAIのプロファイリングに対して、個人が自分の情報についてコントロールするという権利をほとんど見てめてきませんでした。どいつもこいつも馬鹿だった、のかもしれませんし、逆に、サイコパス的に悪知恵を働かせる利口だったから、なのかもしれません。

我々国民としては、もちろん、AIという素晴らしい科学技術があくまで国民の幸福追求・実現のために使われて、国民の権利が侵害されないように使われるように、政治家・政党に声を上げていくべきです。

一方、私は個人的には、政府、裁判所、企業、メディア等が、この問題につき、馬鹿とサイコパスばかりだったとまでは思いません。両方確かにいるとは思いますが、それでも、新しい科学技術についてどう扱えばよいのか、本当に迷っている人達が多いのだろうと思います。

鈴木正朝教授も、そんなことは本当は十分お分かりのうえで、AIを使った新規ビジネスに取り組む企業に対して、以下のようにアドバイスをしています。

何が良いか悪いかわからなくなった場合は、憲法の人権規定を再度勉強し直すことがいいかもしれません。社会に出るととんとご無沙汰の憲法ですが、歴史的に確認されてきた欧米普遍的な価値の体系が示されています。例えば、思想良心の自由を読みながら、人の内心を推知するプログラムになっていないかどうかを考えてみる。

リクナビ問題「同意があれば万能」論を見直すべき…鈴木正朝教授が「思考停止の議論」に危機感 - 弁護士ドットコム

分からなくなったら憲法の人権規定に戻れ。

これは、AIに限らず、新たな科学技術に関する問題であっても、価値観や歴史観や国家観に関する問題であっても、全てに通用する規範でしょう。歴史のテストを経て我が国と国際社会の規範となった個人の権利保障に立ち返ることは、日本の改革にあたって、最も大事な原則の一つです。