立憲民主党は6日、第1回となる「デジタル化時代における個人情報のあり方PT」を開催しました。本PT(プロジェクトチーム)は、社会のデジタル化が進む中で、その利点を確保しつつも、個人情報が危険にさらされる等の問題に適切に対応しなければならないという問題意識のもとに立ち上げられたものです。

 第1回となる今回は、山本龍彦・慶應義塾大学大学院法務研究科教授より「AI時代の個人情報保護」をテーマに話を聞きました。

 山本教授は、AIは(1)プライバシー(2)差別(3)民主主義――の3つの領域に影響を与えていると指摘します。

 (1)プライバシーについて、日本では今まで情報漏洩をいかに防ぐかという「セキュリティ」の問題に限定して捉えられてきましたが、今後は個人の内的・私的な側面をアルゴリズムを用いて自動的に予測・分析する「プロファイリング」をいかに適切な形で規律していくのかが重要になってくると言います。これは、個人に関するデータについて、それ単体では重要なものでなくとも、プロファイリングを行い分析することで、センシティブな情報が予測され得る。本人の同意なく迂回的に個人情報を得ることが事実上可能になっている状況があるためです。

 (2)差別については、「データの偏り」「ブラックボックスの問題」があると指摘。「データの偏り」については、AIにより過去の差別を助長・固定化する懸念があることを指摘。例えば、アメリカではいくつかの州の刑事裁判でAIによる再犯可能性のスコアリングが行われていますが、過去のデータをそのままアルゴリズムに反映させると、黒人の再犯可能性が高く出てしまうと言います。黒人は経済的・社会的な構造的差別のせいで罪を犯してきたという側面があるにもかかわらず、それをそのままアルゴリズムに反映させると、結局黒人の数値は高くなること、その結果、偏見が再生産されてしまうことになるという問題があると指摘しました。

 これを受けて、アメリカの一部の自治体では、「アルゴリズム・フェアネス」という考え方に基づき、アルゴリズム上の人種のウェイトをあえて落としていると言います。しかし、調整をし過ぎると逆差別の批判も生じるために、難しい問題であると指摘しました。

 「ブラックボックスの問題」は、リーガル・ブラックボックス、つまりどういうロジックでAIが評価をしたのかが企業秘密のために開示されないという問題です。テクニカルブラックボックス、つまり深層学習のようなものを使うと、もはや人間がAIの判断ロジックを知ることができない。そして、スコアを上げるロジックが分からないためにスコアに基づく階層社会が生じかねないという問題があることを指摘。この信用スコアリングについて山本教授は、ポジティブな面として、資産や学歴といった伝統的な信用情報を持っていなかった人たちが、自らの行動が信用力として可視化されることで金融上の融資を受けることが可能となり、平等の実現に資すること等を挙げました。一方で、ネガティブな側面として、アルゴリズムにより形成されるデータ・ダブル(データ上の双子)、すなわち、リアルな実存する個人よりもプロファイリングにより形成される個人の虚像の方が人生にとって重要な役割を果たすようになってきているという問題、また、どのような行動が自らのスコアに影響を与えるのかが不透明なために、特定の行動を控えるようになる「委縮効果」が生じ、自由や多様性を縮減させる危険性を含んでいるという問題等を挙げました。

 (3)民主主義については、(a)AI社会で多くのデータを取られるということになると、データ上良く現れていなければならない、行儀をよくしていなければならないために、予定調和的な管理社会を生み出しかねない(b)エコー・チェンバーの効果を生む可能性、つまり、保守的な人には保守的な情報が、リベラルな人にはリベラルな情報が入ってくるために、自らの思想を極端化して、他者への寛容さを失い、社会に分断が生じる可能性があること。あるいは、政治に関心がない人には政治の情報が入ってこなくなるので、政治的無関心が増強されてしまう可能性がある(c)デジタル・ゲリマンダリング、つまり、投票行動を誘発する情報をあるグループには送り、あるグループには送らないということをすると、送ったグループの方の投票率が上がるために、プロファイリングをかけて特定の人に投票を誘発する情報を送ることで、投票行動を一定程度操作することができてしまう等の影響があることを指摘しました。

 次に、欧米の情報保護をめぐる状況として、EUのGDPR(General Data Protection Regulation:一般データ保護規則)についての話がありました。GDPRは、個人的なデータの保護を基本的人権として認めるEU憲法(EU基本権憲章)の具体化法として明確に位置付けられています。GDPRでは、アルゴリズムだけで決定をさせずに人間を関与させること、自らの見解を表明すること、その決定に異議申し立てをすることを権利として保障している。そして、アルゴリズムを用いた自動決定をする場合は、その決定に含まれているロジックについて説明しなければならないこと、データの取り扱いが人権に対してどういうリスクを与えるのかということについて事業者自らで評価しなければならないこと等が決められていると言います。その他、データの乱用や差別的な効果を防ぐための技術上・組織上の措置を講じているか、業界団体の行動規範を遵守しているか、認証に関する仕組みに参加しているか等の要素が制裁金を軽減する際に考慮されるようになっている、つまり、ガバナンスを作ることにインセンティヴを与えていること等、説明がありました。

 一方で、アメリカのデータ保護法制においては、表現の自由が非常に強く保障される文化があると言います。アメリカではマーケットにおける自由な情報流通プロセスが憲法上保障されてきたのであり、これがGAFA(アメリカを代表するIT企業、Google、 Apple、 Facebook、 Amazonの頭文字を取ったもの)が育つ環境だったのではないかと山本教授は指摘。ところが、ケンブリッジ・アナリティカ事件を契機として、アメリカ社会が重要視してきた表現の自由がデータの乱用によって歪められ得るという問題意識が醸成され、CCPA(California Consumer Privacy Act:カリフォルニア州消費者プライバシー法)、行政における顔認証の使用禁止条例(サンフランシスコ市)などが制定されるに至ったこともあり、情報の保護をめぐっては、EUと米国の間で一定の収斂(しゅうれん)を見せつつあるかもしれないと述べました。

 その上で、日本はEU型なのかアメリカ型なのかという議論について言及。個人情報保護法が自己情報に対するコントロールの仕組みを導入しているとの指摘もある一方で、Tポイントカード事件、リクナビ問題などが生じていることを受け、アメリカ型ではないかとの指摘もあると言います。しかし、山本教授は、アメリカは憲法によって原理づけられた「自由」であるが、日本の場合は理念なき無秩序な自由と言えるかもしれない、つまり、本来守らなければならないもの、例えばプロファイリングなどへの規律は過少であり、守らなくてもよいものを過剰に守っている。何のためにデータを保護するのかという理念がないために、「過少かつ過剰」の無秩序な状態になっていると指摘します。しかし、EUの動向やリクナビ問題に触発された最近の個人情報保護委員会、公正取引委員会、内閣府などの動きは地殻変動とも言えるといい、こうした地殻変動を踏まえた今後の日本の方向性として、(1)データ保護を基本的人権として捉え直すこと(2)個人の世界と集合の世界を切り分けること(個人の自己決定が尊重される人権の世界と、データをアセットとして使い倒す公共財の世界を切り分けること)(3)プロファイリングやスコアリングに対する本人関与手続きを設けること(4)ガバナンス構築のためのインセンティブを付与すること(5)「自己決定の尊重」と「同意至上主義」を峻別すること(簡単に同意をしてしまっている現状を踏まえると、同意を重視し過ぎることによって、逆に自己決定の原理を阻害される可能性があるので、同意の範囲を検討することが必要)(6)「人間中心」の体系的なデータ保護法制を構築することが必要であること――を指摘し、講演を締めくくりました。講演終了後には質疑応答が行われました。

あいさつする山花PT座長