地球外文明はなぜ見つからないのか?フェルミのパラドックスは超AIの出現によるものだという説
 広大で長い歴史を持つ宇宙には、地球外文明があってしかるべきだ。なのになぜその証拠が見つからないのか? この「フェルミのパラドックス」と呼ばれる矛盾の答えはいまだに見つかっていない。


 その理由は超「AI」の出現によるものだとする新説が登場した。

 マンチェスター大学の天体物理学者によれば、突出したAIが出現した文明は100~200年程度で自滅することになるのだという。生物よりもずっと速く自己進化する超AIが、やがて生みの親を駆逐するようになるというのだ。

 生物文明がこのAIリスクを回避するには、多惑星文明へと進化するしかない。だが超AIは生物ではあり得ないスピードで進化する。ゆえに自滅を回避することはできないのだという。

フェルミのパラドックスとグレートフィルター仮説 この宇宙には膨大な数の星がある。天の川銀河だけでも2000億個もの星々があり、宇宙にはそんな銀河がさらに2000億~2兆もあるのだ。我々が知っているだけでも、これほどの星々があるのだから、文明社会がこの地球だけというのは考えにくい。

 だが現実には、宇宙人の姿はおろか、その痕跡すらまったく見つかっていない。このように、地球外知的生命体が存在する可能性はきわめて高いと思われるのに、その証拠が見つからない矛盾を「フェルミのパラドックス」という。

 この矛盾を説明する1つの説として、「グレート・フィルター仮説」というものが提唱されている。


 それによると、なんらかの要因が障壁(グレートフィルター)となり、この地球からその存在を検出できるほど知的生命が発達できないことが、フェルミのパラドックスの原因なのだという。

 グレートフィルターが具体的に何であるかについては、核戦争や環境問題、あるいは天体の衝突やガンマ線バーストなど、さまざまな説があり、確かなことはわからない。

 だが、いずれにせよ、この仮説が正しいのならば、生命がこのグレートフィルターを克服する術を見つけない限り、星々や銀河を自由に旅するような高度文明は誕生しないということになる。

[画像を見る]

グレート・フィルターはどこにあるのか? / image credit:Jiang et al., arXiv, 2022 (CC BY-NC-SA 4.0)超AIがグレート・フィルターであるという新説 そしてこのほど発表された論文によるならば、私たち人類はまさにそのグレート・フィルターに直面しつつあるのだという。

 それはすなわちとてつもなく高度なAIの台頭のことだ。

 マンチェスター大学の天体物理学者、マイケル・ギャレット氏は、『Acta Astronautica』(2024年4月3日付)に掲載された論文の中で、この宇宙に地球外文明の痕跡が見当たらないのは、AIによってそれを生み出した生物文明が自滅するからだと述べている。

 AIが危険なのは、人類をはじめとする生物に他者よりも優位に立とうという性質があるからだ。

 ある惑星に誕生した知的生命がAIを作れるほどに発達すると、その惑星に存在する集団(国家など)は、競争相手に勝つためにAIを武器として利用するようになる。これが自らの首を締めることになるのだという。

[画像を見る]

photo by Pixabay
AIの意思決定プロセスの速さは、当初の意図をはるかに超える形で紛争をエスカレートさせる可能性がある。

この段階になると、自律型兵器システムやリアルタイムの防衛意思決定プロセスなど、さまざまな部分にAIが統合される。

これが世界的な核戦争のような破局的出来事へと至らせ、人工技術文明と生物技術文明両方の終焉を招いたとしてもおかしくはない(マイケル・ギャレット氏)
 だが、AIが本当に危険と考えられるのは、いずれ「技術的特異点(シンギュラリティ)」に到達し、AIが自らの力で進化するようになると考えられるからだ。
この「自ら進化するAI = 超AI」が、生物にとって超えられないグレート・フィルターとなる。

 超AIは、生物ではあり得ないスピードで進化し、それを生み出した知的生命を凌駕し、やがてはその文明のコントロールから逃れるようになる。

 そのとき超AIは生みの親である生物を尊重してくれるだろうか? ギャレット氏によれば、答えはノーだ。
エネルギーやスペースといった資源を大量に必要とすることを考えれば、計算効率を重視する超AIにとって生物体を維持することは魅力的ではないかもしれない。

可能性としては、利点というより、むしろ邪魔者とみなすのではないか。そして超AIなら、感染力の強い致死的なウイルスを作ってばら撒くなど、さまざまな方法で生みの親である生物文明を速やかに消滅させることができる(マイケル・ギャレット氏)


[画像を見る]

photo by Pixabay超AIを作り出した文明の寿命 生物文明が自ら作り出したAIによって自滅するリスクを防ぐ方法は、さまざまな惑星に進出して「多惑星文明」になることだ。

 各惑星社会はお互いを観察し、どこかの惑星でAIなり超AIなりが生みの親を破壊し始めたら、そこから学んで、対策を講じる。

 だが、問題は生物文明が多惑星文明へと変貌を遂げるよりも、AIの方がずっと速く進化してしまうことだ。

 知的生命が多惑星文明へとステップアップするまでには、労力も資源も時間も多大なコストがかかる。まず宇宙を探索できるだけの技術を発展させ、実際に広大な宇宙を移動し、新たな新天地を作り上げねばならない。それは壮大なチャレンジになるだろう。

 一方、AIの進化は、データストレージと処理能力を向上させるだけの容易なものだ。
だから進化スピードという点で、AIのそれは生物よりもはるかに速い。

 ギャレット氏の試算によるなら、超AIが誕生した文明の寿命は100~200年程度であろうという。この短期間で生物文明が多惑星文明へと進化するのは困難だ。

 だから、地球から検出できるような地球外文明の痕跡(テクノシグネチャー)は見つからない。ギャレット氏によるなら、これがフェルミのパラドックスの真相だ。
超AIが交信可能な高度文明の寿命を数百年に制限するならば、天の川銀河に同時に存在する交信可能な文明はほんの一握りということになる。

このことは、現在のSETIのような、電磁波スペクトルからテクノシグネチャーを検出しようという試みがうまくいっていないことと矛盾しない(マイケル・ギャレット氏)
 これが正しいのなら、いよいよ本格的なAI時代が到来しつつある地球の文明に残された時間は、ほんの数百年である可能性が高い。

 あるいは地球人はグレート・フィルターを克服できるだろうか?

References:Is artificial intelligence the great filter that makes advanced technical civilisations rare in the universe? - ScienceDirect / New Solution To The Fermi Paradox Suggests The Great Filter Is Nearly Upon Us / written by hiroching / edited by / parumo

画像・動画、SNSが見れない場合はオリジナルサイト(カラパイア)をご覧ください。
編集部おすすめ