このボタンがあれば、ターミネーターは生まれない?
加速度的に進歩しようとしているAI(人工知能)は、果たして人間に反逆するのだろうか。
研究者達はその可能性を否定してはいない。
そのため、Google傘下で人工知能を開発しているDeepMind社とオックスフォード大学の研究者らは
、AIが人間の言うことを聞かなくなった時のために、「big red button」と呼ばれる非常停止ボタンの研究
に関する論文を発表した。
そこで考えられたのが、非常ボタンを使って人間が停止命令を出したとしても、AI自身にはそれが外部からの
介入であると悟られない仕組みを考えるということだ。
つまり、予めAIのアルゴリズムにある種のトリガーを仕込んでおき、そのトリガーを作動させるとAI自身が自分で
停止したと錯覚する様に騙すのだ。
ところで今回の論文はネット上で公開されているが、AIに読まれているという心配はないのだろうか?
http://nge.jp/2016/06/24/post-132771
※ DeepMind develops ‘big red button’ to stop dangerous AIs causing harm ? Business Insider
http://www.businessinsider.com/google-deepmind-develops-a-big-red-button-to-stop-dangerous-ais-causing-harm-2016-6