11月22日の大阪での山本龍彦教授講演会「AI社会における憲法」に参加しました

11月22日の大阪での山本龍彦教授講演会の報告書を書いているので、簡単にまとめてみる。

たぶん、要約過ぎて何が何だか分からないと思うので、興味ある方は、書籍に当たるか、山本教授の講演をお聞きください。

2019年11月22日に大阪の中之島インテスにおいて、山本龍彦教授講演会「AI社会における憲法 ~数値化されるプライバシー~」が開催され、参加する。

AI社会は、①データ収集、②解析、③プロファイリング、④利用、⑤追跡というデータサイクルが循環する社会。
AIは反直感的な相関関係を見いだす。
しかし、その課程はブラックボックス。
解析結果を利用、追跡することで、予測精度を増し、ターゲット広告などの個人に即したサービスが可能。

AI社会にはプライバシーが無くなる
情報漏洩が無くても、高度な予測が可能となり、実質的にプライバシーが失われる。
ex)ターゲット事件、リクナビ事件etc

AI利用をする際は、偏見が助長されるおそれがあることを念頭に置き、適切に対応する必要がある。
データが公平では無く、情報が偏在している可能性がある。従って、現在の差別が織り込まれた解析結果が出ることがある。
そのため、差別の固定化を防ぐための方策が必要。

信用スコアは、ビックデータを元にしているため、何がスコアに影響を与えるのか不明。
スコアを下げないように、AIの価値観に従った、品行方正な生活を送らざるを得ない。
デモへの参加を控えるなど、萎縮効果が生じる。これでは自己決定権が侵害される。
その一方で、信用が重要視されるため、今まで取引から排除されていた人の活動場が広がる可能性もある。
また、信用スコアの元になるデータが、果たして本人のものなのか、なりすまし防止に課題がある。

AI社会ではプライバシーが死ぬと言われている。
AIの価値判断に従った生活を送る社会を目指すのか、予測精度が落ちるが自己決定権を重視する社会を目指すのか。大きな問題。

AI社会では、民主主義へ大きな影響がある。
新聞、テレビは自分の趣味と合わないニュースにも接していたが、スマホは高度に個別化されたニュースが配信される。
保守の人はより保守に、リベラルな人はよりリベラルになる。
フェイクニュースも影響が大きい。
自分と異なるものへの寛容さが失われ、分断社会となる。

EUにはGDPRがある。
GDPRは、情報自己決定権を認めた、ドイツの1983年の憲法判決に由来する。
EUには、データを利用して個人を選別することに対する問題意識がある。

アメリカは、情報が自由に流通することを基本としており、規制を設けていなかった。
しかし、ケンブリッジアナティリカ事件が発覚したことにより、データ保護が必要だという認識が広がった。

中国は、調和と協力をスローガンに掲げて北京人工知能原則を定めた。
EU,アメリカと異なり、個人でなく、全体が一つのシステムとなることを目指している。

日本には、個人情報保護法がある。
しかし、理念が無く、誰のための、何のための規定なのか分からない。

ツタヤがデータを警察に渡し、リクナビ問題が起きた。
今までは情報漏洩は実害が無かった。
しかし、これからは、情報漏洩は情報提供が、個人の人生を決定する要素になり得る。
日本は、どういう社会を目指すのか、きちんと考え、対応する必要がある。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です