何が「学習」されるか問題

承前*1

國枝すみれ「シリーズ 疫病と人間 神里達博千葉大教授」『毎日新聞』2020年9月5日


神里達博氏曰く、


世界中で、AI時代にプライバシーをどう守るべきか、を議論している。市民的価値観を重視する立場からみて、プライバシー対策が信頼できるレベルに達しているIT企業は決して多くはないだろう。たとえば、社内で情報にアクセスできる人間をどう制限するかが問題だが、どうしたら外からは見えにくい。さらに深刻な問題は、AIの判断がどんな情報に基づいているのか分からないことだ。
AIの出す答えは案外いいかげんだという認識が必要だろう。AIはあくまで、これまでに蓄積されたデータに基づいて答えを出すので、善かれあしかれ(sic.)、この社会の実態を反映している。そのため、私たちが持つ偏見をむしろ増幅する可能性がある。例えばもし、女性は経営者向きではない、黒人は犯罪をしやすい、なとど結論づけるデータセットをAIが作り出したとき、だれが責任を取るのか。AIの決定をうのみにすると人権侵害になる場合もあるだろう。
一方で、SF的なイノベーションでも起きない限り、AIは自由意志を持ち得ない。責任を取るべきなのは、やはり人間だ。恐ろしいのは、プログラムした研究者やそれを使った経営者、政治家がAIに責任を転嫁することだ。
大岡もとい大澤昇平*2にはこうした問題を滑稽な仕方で可視化したという功績があるか?