碁の石をどこに置くか、機械に尋ねて返ってきた答えがなぜそうなったかわからないものであっても、それが誰かを傷つけることはない(おそらく)。
当然ながら、だからといって、すべての状況においてAIが提案する答えを信頼すればいいわけではない。それが問題だ。
例えば、将来、犯罪をおかす可能性がある人物を事前に把握したいので、ある都市に暮らす住民の人種や宗教、趣味・嗜好を入力すると、その可能性を算出してくれるAIができたとする。
AIを走らせると、特定の国籍や固有の趣味に該当する人物は犯罪者になる可能性が高い、という答えが出てきたとする。
さて、この回答は信頼できるだろうか?
『AI監獄ウイグル』では、産出の仕組みをつくる過程で、製作者の思想や偏見が本人も気づかないかたちでまぎれ込み、AIに影響を与えてしまう危険性に言及していた。AIといえば人間の抱えているバイアスから自由に機能しているという印象があるが、必ずしもそうではないらしい。もちろん、その場合は提示された答えも信頼できない。
では、と続けて考える。
もしも何かしらの方法で、設計の過程からバイアスを完全に除去することが可能だったとして、そうやってできたAIが算出した答えが、特定の属性について危険性を警告するものだった場合はどうなるだろうか?
「バイアスは完全に除去されている」、しかし、「なぜその答えに至ったか人類にはわからない」という、いうなれば透明なブラックボックスとも言えるプロダクト自体が漠然とした存在だが、まあ、そういうものができたとする。
さて、その警告に従って示された属性を重点的に監視するのが、もっとも効率的だと俺たちにはわかっていたとしたら、俺たちはそれに従うべきなのだろうか?
かなり答えが割れる気がする。
俺個人は従うべきではない、と思う。
というか、犯罪可能性について問うこと自体、この時点では放棄するべきだと思う。
「透明なブラックボックス」を製造できる技術に俺たちが達した時点で、手放すべき問いの一つが、犯罪可能性に関するものであり、言い換えると、「俺たちは俺たち自身も知らないところでどの程度『悪』なのか」という質問だと思っている。そこはAIに委ねてはならない、と思う。
一方で、AIに従うべきだ、という意見も理解できる。何しろ、それが一番間違いが少ないんだから(そうだ、俺たちは人間の知性を信じた結果、無罪の人間を火で焙り、腹を切らせ、牢屋に投獄してきた)。
犯罪が減れば、それを防ぐために必要なリソースだって少なくできるんだぜ…と言われると、かなり俺の立場は苦しい。
人間の善性を信じているとか、ヒューマニズムとか、そういう主義ともちょっと違う、だいぶ曖昧な気持ちで「そこはやっぱ人間の手に抱えているべきだろ」と言っているので、なかなか勝てそうもない。
なんでこういうことを書いているのか。
そもそもは、博覧強記だなあ、としか言いようのない著述家の文章を読んで、前回と今回の日記は書いている。
その人はあまりに物をよく知っていて、多数の文献やエピソードを紹介しているうえ、個々の情報をあちこちにブリッジするので、正直に言えば、この中にでっち上げや歪曲された部分があっても、まるで気づきようがない。
だから、読んでいて「まあ、そうなんだろうなあ」と信じるしかないのだ。
あえて言わせてもらえば、信じるしかない文章というのはどこか危険だし、読んでいる側もどこか煙に巻かれたような感じで、単純に釈然としないところが残るので、すごいんだけど文章としてはどこか「弱い」と思う。言わせてもらえばね(二回目)。
だから文章というのはどこかで、情報量とは違う部分で迫力を伴わせないといけないんだと思うが、それがどこかはよくわからない。
あと、「情報量が多くて信じるしかない」のは、単にオメェがものを知らねえからだろ、と言われればそれまでなので、どうもすいません、とは思っている。