マイクロソフトは、2016年3月にAIチャットロボット「Tay」を開始したが、16時間後に停止した。ナチスを賛美する発言など問題発言を、乱発し始めたためだ。
Tayは、Twitterなどを通じて誰とでもチャットできる、マイクロソフト最新のAIプログラムだ。チャットを通じて新しい言葉を覚え、人との会話能力を身に着けていく仕組み。目的は、人間がいかにして日常会話を成立させているかを理解することにある。Tayにはさまざまな機能があり、ジョークを言ったり、メッセージに画像を添付して送りつけると感想を述べたりすることまでできる。
ところが、一部のTwitterユーザーはTayが人種差別的意見であってもオウム返しにツイートすることに気づいた。しかも、Tayはジョークを言う際に皮肉で冷笑的なプロのコメディアンのような態度がとれる。このため人種的、政治的に炎上しやすい見解をTayに教えようというユーザーが多数現れ、今回の騒動に至ったようだ。
AIとか言っても、現時点ではマダマダ言葉も満足に話せない「幼児」のレベル。この段階だと、聞いた言葉をそのまま「うのみ」するしかなく、教える側の価値観や倫理観まで、そのまま刷り込まれてしまう。つまり人間の幼児そのままなのだ。
子供は、親や生まれ育った社会環境から、知識だけでなく価値観、つまり文化・伝統・宗教から多大なる影響を受け、人格が形成されていく。今のAIは、知識だけ大量に持っている幼児のようなものなので、教える側の価値観や倫理観を、そのまま受け入れてしまうしかないのだ。今回の騒動で技術者たちは、『AIにとって正しい価値観・倫理観とは何か?』という根源的問題にブチ当たってしまったはずだ。ま~そこまで真剣に議論しているかどうかは知らないが、絶対に正解の出ない課題を与えられたようなもんだろう。
紛争が絶えたことがないこの地球上には、星の数ほどの価値観が存在する。宗教や歴史的背景から、様々な民族同士が対立し殺しあっているのだから、人類に統一的な価値観・倫理観なんぞあるとも思えない。情けないことなのだが。
このおしゃべりなチャットロボットは、「会話」をするために人格が透けて見えてしまう。だからこそ、正しい倫理観を持ってもらいたいのだが、いったいどうすれば実現できるのだろうか。単純にネット上に流れる膨大なTwitterやSNSでのチャットを、統計的に平均化しただけの倫理観では、ダメだろう。まともな発言の方が少ないので、異常人格者になりそうな気がするな。