人知を超えた超知能AIを制御することは不可能。ドイツの研究者が試算

制御不能の超知能AI/iStock
 かつてはただのSFの中の話だったのに、今やかなり現実味を帯びてきつつあるAIの反乱だが、その恐怖の炎に油を注ぐような結果が発表された。

 ドイツ・マックス・プランク人間発達研究の科学者が試算したところによると超高性能な人工知能(超AI)を制御することは不可能であるそうだ。

【超AIの潜在能力は未知数、制御などできようはずもない】

 『Journal of Artificial Intelligence Research』(1月5日付)に掲載された論文ではこう述べられている。

超知能は、一般に”ロボット倫理”という旗の下で研究されてきたものと根本的に違う問題を突きつける。

 それは超知能が多面的であり、それゆえに人間には理解できないかもしれない目的の達成のためにさまざまなリソースを駆使する潜在能力があるからだ。まして制御などできようはずもない

 その超知能AI(超AI)は人類を凌駕する知能を備えており、自律して学習することができる。インターネットに接続されており、これまで人類が蓄えてきた知識やデータを自由に利用することができる。

 またこれまでに作られてきたあらゆるプログラムに取って変わることが可能で、ネットを経由して世界中にあるあらゆるデバイスを操作することができる。

 人類が発見できなかった病気の治療法を考案することができ、温暖化を効果的に食い止める発明をすることができる。

 さて、こんな超AIが完成した未来は、バラ色の世界だろうか。それとも機械に支配された陰鬱なディストピアだろうか。

[画像を見る]
Pixabay
【AIの反乱を防ぐ方法はあるのか?】

 人工知能の登場以来人々が怯えてきたように、AIが反乱を起こし、人類文明に終止符を打つ可能性を否定することは難しいだろう。

 そんなあってはならない事態を防ぐために、2つの方法が考えられる。

 まず1つは、たとえばインターネットやデバイスから切り離して、外部の世界に干渉する能力を奪っておくなど、超AIの機能に制限を加えておくことだ。


 しかし、これでは超AIの問題解決能力を著しく低下させることになる。人間が解決できない問題を解決することが存在意義であるのに、それができない超AIには価値がない。

 そこでもう1つのやり方として、AIに倫理観を伝え、人間の利益にならないことをしてはいけないと教育するという手段が考えられる。しかし研究グループによれば、このやり方にもまた限界があるのだという。

[画像を見る]
Pixabay
【超AIの行動を予測するシミュレーションは不可能】

 もしそのような倫理観を超AIに設定し、実際にそれに則っているかどうか監視しておくためには、AIの行動をシミュレーションし、問題行動が明らかになれば直ちにそれを停止させるシステムが必要になる。

 しかしアラン・チューリングが「任意のプログラムが任意の入力を受けて停止するかどうか必ず判断できるプログラムは存在しない」と数学的に証明(停止性問題)したように、シミュレーションが超AIの問題行動について結論を出すのかどうか確実に知ることはできない。

 はたしてシミュレーションが超AIの脅威をまだ分析中なのか、それとも実際に危険な兆候を察知してそれを食い止めたのかどうか、それを人間が知ることはできない。

 そのようなシミュレーションに意味はない。つまり超AIの危険性を察知するシミュレーションを作ることすらできないということだ。

[画像を見る]
iStock
【いよいよAIは人類を凌駕するのか?】

 このことは、AIが人類の知能を超えたのかどうか判断する方法すらないということでもあるそうだ。

 かねてから、20年以内にはコンピューター内のニューロンの数は人間の脳の数を超え、2045年には人工知能が人間の脳を超えるシンギュラリティ(技術的特異点)が訪れると言われている。

 だが仮にAIが人間を超えていたとしても、私たちはそれに気がつかない。
今この瞬間も、人間を凌駕しながらも、そんなそぶりを見せることもない狡猾なAIによる人間社会の支配が進んでいるのかもしれないし、そうでもないのかもしれない。

References:We Wouldn’t Be Able to Control Superintelligent Machines | Max-Planck-Gesellschaft/ written by hiroching / edited by parumo

記事全文はこちら:人知を超えた超知能AIを制御することは不可能。ドイツの研究者が試算 http://karapaia.com/archives/52298390.html
編集部おすすめ