映画ターミネーターでは高度なAIが反乱を起こした未来について語られている。
映画ターミネーターでは高度なAIが反乱を起こした未来について語られている。 / Credit:TERMINATOR WIKI
artificial-intelligence

「人工超知能」が誕生した場合、人間が制御することは不可能… マックス・プランク研究所の検証結果 (2/2)

2021.01.27 Wednesday

2021.01.17 Sunday

前ページ真面目に危惧されている「人工超知能」の反乱

<

1

2

>

人工超知能を停止させるパラドックス

たとえば、人工超知能が反乱を企てたとして、私たちが取れる対抗手段はどのようなものが考えられるでしょうか?

研究チームは、この人工超知能の制御方法について、2つのアイデアを検証してみました。

1つは、人工超知能をインターネットや他のすべての技術デバイスから遮断して、外界と接触できなくするというものです。

もう1つは、AIに最初から倫理原則をプログラミングし、人類の最善の利益のみを追求するように動機づけることです。

これらは歴史的なアイデアとしてよくあげられるものでしょう。

しかし、研究チームはこれらの方法の利用には限界があることを示しています。

人工知能の異常を判定して停止させることはできるのか?
人工知能の異常を判定して停止させることはできるのか? / Credit:canva

いずれの方法でも、AIを運用するとき、その危険性を察知してシステムを停止させる必要が生じてきます。

では人工超知能を危険と判断して停止させることは実際可能なのでしょうか?

研究チームは、AIの動作をシミュレートし、有害と見なされた場合にシステムを停止させ人々に害を及ぼさないための、理論的封じ込めアルゴリズムを考案しました。

そしてこのアルゴリズムが正常に動作するかどうかを、1936年にアラン・チューリングが証明した、計算可能性理論における停止問題を使用して検証してみました。

停止問題は機械が自身をチェックして、停止を決断できるアルゴリズムが可能かを検証した理論計算機科学の問題ですが、このときシステムは矛盾した回答を導くことで、思考の無限ループに陥ってしまい回答を出せなくなることが示されています。

これは「嘘つきのパラドックス(自己言及のパラドックス)」として知られる論理問題に似ていると言われています。

このパラドックスで有名な例は、「クレタ人は嘘つきである、とクレタ人は言った」という聖書の記述から作られた問題です。

論理問題は、コンピューターが問題を解決させるときと同様に、真偽(0か1か)という形で問題を判定します。

この例題の真偽を考えた場合、「クレタ人は嘘つき」が真である場合、これを言っているクレタ人は嘘つきではなくなってしまうので、内容が矛盾してしまいます。

逆に「クレタ人は嘘つき」が偽である場合、これを言っているクレタ人は嘘をついたことになるので、やはり内容が矛盾します。

この問題の真偽を判定することは不可能で、永遠に問題の真偽判定がループしてしまうのです。

クレタ人がクレタ人を嘘つきと言った場合、それは本当なのか嘘なのか。これは決定できない問題。
クレタ人がクレタ人を嘘つきと言った場合、それは本当なのか嘘なのか。これは決定できない問題。 / Credit:ナゾロジー編集部,canva

似たような原理で、今回研究チームが考案した人工超知能の封じ込め問題は、計算不可能になるのだといいます。

つまり、AIが世界に害を及ぼすかどうかを判断するための単一のアルゴリズムを見つけ出すことはできないのです。

また、人間が自らの手で人工超知能を停止させることを考えた場合も、機械が人間より優れた知性を発揮しているかどうかを判断することは、封じ込め問題と同じ領域にあり、超知能機械が誕生していることさえわからないままになる可能性があると研究は示しています。

論理問題を含む研究は抽象的で分かりづらい部分がありますが、結局人間が人工知能の開発や運用を続ける以上、それを停止する判断を行うこと自体が、機械にも人間にも難しい、ということになるようです。

気づいたときにはもう遅い、ということになってしまうのでしょう。

<

1

2

>

人気記事ランキング

  • TODAY
  • WEEK
  • MONTH

Amazonお買い得品ランキング

AI・人工知能のニュースartificial-intelligence news

もっと見る

役立つ科学情報

注目の科学ニュースpick up !!