人工知能学会は、2017年2月28日に「倫理指針」を発表した。これは、人工知能研究者が自ら研究しているものに対して、社会に対して大きな影響を与える可能性がある、と自覚すべく作成したものだ。同時に、人工知能という得体のしれないものを研究している人たちは、決してマッドサイエンティストではないと宣言したものである。
その内容を簡略化して説明すると、以下になる。(9条以外の主語は、人工知能学会会員)
1. 人類に貢献して、安全への脅威は排除するよう努める。
2. 法規制を遵守し、他者に危害などを加えるような人工知能を利用しない。
3. 他者のプライバシーを尊重する。
4. 公平・平等に人工知能を利用できるよう努める
5. 人工知能の安全性とその制御の責任を認識する。
6. 人工知能が社会に与える影響が大きいことを認識して、誠実に振る舞う。
7. 人工知能の持つ危険性を認識し、悪用されることを防止するよう努める。
8. 社会と常に対話し、学び、理解を深め、自己研鑽に努める。
9. 人工知能が社会の構成員となるためには、上記倫理指針を遵守しなければならない。
つい数年前までは、人工知能などは夢の技術であり、当分出来そうもなかったので、こんな倫理指針の必要性はまったくなかった。ましてや第9条などは、それこそアシモフのロボット3原則のようなSFの世界でしかありえなかった。それを大真面目に、研究者たちが宣言しなければならなくなったのは、もちろんここ数年で一気に人工知能の技術が進展してしまったからだ。そのため当の研究者自身が、浮足立ったのだろう。
同じような話なのだが、3月7には日本学術会議の「安全保障と学術に関する検討委員会」が、大学などの研究機関の軍事研究を否定する声明を、半世紀ぶりに発表している。同じような時期に、研究者たちがこのような行動をとるのは、偶然ではないだろう。実際に人工知能の研究には、多額の軍事費が注ぎ込まれている。これはアメリカが大半だが、アメリカ軍事費のヒモ付き研究費が、日本の大学にも一部入っているという報道もある。
兵器で「敵」を殺す判断を人工知能に任せることなど、その判断基準さえ学習させれば、技術的には比較的容易にできてしまう。少なくとも日本の研究者には、殺人の手助けをするような技術開発をしてほしくないのだが、人工知能の技術は汎用性が高い。昔、ビルが電波を乱反射させて電波障害を起こすことを防ぐ目的として、日本のメーカーが電波吸収塗料を開発した。しかしこの塗料は、米軍によりステルス兵器として利用されてしまったことがある。同じようなことは、この人工知能開発においても、起こるだろう。
こんな兵器のような直接的な応用ではなくても、人工知能の技術は職場に着実に浸食してくはずだ。工場労働者の作業をロボットに置き換えるような目に見えるような影響ではなく、事務作業の生産性を向上させるツールとして、順次導入されていくのは確実。このような人間の職場を奪うであろう人工知能であっても、その「暴走」によって直接人類を脅かすようなことはさせないでくれ、というのがこの宣言の本音なのかもしれない。