AIの“軍拡競争”を回避するには、世界は科学的協力の拡大が必要だ

チャールズ・オッペンハイマー
2023年4月12日

人間は科学と工学を用いてテクノロジーを生み出す。そのプロセスは、野に咲く花々のように自然で、宇宙が何十億年という時をかけて膨張し今日の姿へと至った結果だ。イギリスの哲学者アラン・ワッツは「海が“波打つ”とき、宇宙は“人で満ちる”」と言った。人が増えるにつれ、人は創造する―蟻がコロニーを作るのと同じように、私たちの都市、道路、船、橋が世界を覆い尽くしている―そしていま地球は確実に人新世の時代に差し掛かっていることを誰もが夜の飛行機の窓からはっきりと見ることができる。

私たちの集団的進化の円弧は、1945年7月16日、ニューメキシコ州ホルナダ・デル・ムエルトで行われたトリニティ実験と呼ばれる最初の原子爆弾の爆発によって生じたキノコ雲の形をした変曲点に辿り着いた。原子爆弾は人類を突然変えた単発の稀な発展ではなく、現在進行中の進化における消すことのできない一歩だ。その進化の現段階で、人間は頭脳と道具を使って自然界をコントロールすることができる―そして、そうすることを選びさえすれば、人間社会の構造自体を破壊してしまえるほど完全に支配することもできる。

1945年の時点で、人類が経験しつつある変化に気付いていた人々がいた―とりわけ、ロスアラモス研究所所長のJ・ロバート・オッペンハイマー、ノーベル賞受賞者のニールス・ボーア、ヘンリー・スティムソン陸軍長官、アルバート・アインシュタイン―彼らは科学に基づく世界の協調を提唱していた。権力政治を信奉し人類よりも予算を守ることに熱心だった役人や官僚たちは、原子兵器がもたらした人間社会の根本的な変化を理解していなかった。彼らの単純な理解が、新石器時代の祖先の部族的恐怖を繰り返すような他は敵と決めつけ敵対する政策を駆り立てていった。こうして第二次世界大戦後に世界が手に入れたのは、新たな段階での人間の協
働ではなく核軍拡競争だったのである。

原子爆弾の製造を可能にする物理的な事実を発見した科学者たちは、自らが到達した極めて危険な科学技術の進歩に対して何をすべきか考えざるを得なかった。1945年11月2日、ロスアラモスで原爆製造の指揮を執った科学者たちにオッペンハイマーは次のように胸中を語った:「もしあなたが科学者なら、世界がどう動くか、現実とは何かを見出すことは良いことだと信じているだろう、そして、世界をコントロールする可能な限り最大限の力を広く人類に委ね、その力を彼らの知識と価値観に従って扱うことが良いことだと信じているだろう」。現在では気候変動や人工知能による脅威を含む他の技術上の脅威についても同じことが熟考されている。

歴史は、その方向が危険であるかどうかに関係なく、人間は科学を新しい方向に推し進めていくことを示している。たとえある分野における科学的探究や進歩の追求があまりに危険だとしても、過去の事例は、その進歩はある集団が提唱する道徳的、政治的、あるいは規制的な決定によっても止めることはできなかったことを示している。世界がもし広島に投下された原爆の千倍の威力を持つ熱核兵器のような完全に邪悪なものに歯止めをかけることができなかったら、コンピューターが文字列を出力する仕組みの開発が止まってしまうと考えるのはおかしな話だ。AIを進歩させる研究が米国で行われないなら、他の誰かがそれをやるのだろう。

人類が危険度にかかわらず技術を創り出すなら、それを私たちはどう管理すべきなのか?そはいつも変わらぬ疑問で、技術的な科学以上に人間関係の問題だ。私たちの科学は新たな高みへと進歩してきたかもしれないが、人類は内面ではまだ何百万年にもわたって自然な競争と対立の中で共に成長してきた部族的類人猿のままだ。もちろん現代的かつ進化していく形の協力や新たな意識もある。問題は、人間が関わり方を根本的に変え、古代の部族間抗争よりも、さらに科学に基づく政策に近い国際協力の形を作り上げることができるかどうかだ。

今となって考えてみれば、1945年半ばから1947年にかけて科学者たちが行った核兵器の扱いについての政策提言―とりわけ、核兵器を国際管理下に置くこと―が功を奏して軍拡競争を防いでこられたことは明らかである。米国や他の世界の指導者たちが当時協力し合おうとしなかったことは驚くことではない。無駄で危険な核軍拡競争への突入を選択したことが私たち皆を死なせていないことだけが驚くべきことなのだ。まだ、今のところはだが。

では、破滅的なリスクをもたし得る人工知能(AI)やその他の技術の進歩に対して、私たちは今何をすべきなのか?1945年の時点で私たちがすべきだったことと同じ、また現代史で最も賢明で知恵を持った人々が助言したこと、つまり国境や内密を利用して私たちの“敵”から権力を奪おうとする代わりに科学的な協力を拡大することだ。米国、中国、ロシアの科学者たちは、たとえ自国の政治家たちが恐怖と対立を煽ったとしても、協力することはできるだろう。

(仮訳)

気候変動に関して進むべき道は明らかである:解決策は地球全体を対象として、マンハッタン計画と同等の規模と緊急性をもってカーボン・フリーのエネルギー生産とエネルギー革新の推進に集中し、私たち全てに共通の気候変動問題に対処するものでなければならない。同様に、私たちは単に商業本位ではなく科学本位でAIを管理するための新たな国際機関を設立することができるはずであるし、そうすべきである。このような生産的な同盟を築いて拡大していくことで、人間は自らが直面する破滅的な脅威を解消することができるだろう―人類を脅かすような高度なAIが登場するよりもずっと前に。

私たちが創り出した技術は私たち自身を殺してしまうことができるのだ。そして今後は絶えず威力と範囲を拡大していくだろう。技術的および科学的な進歩の影響を管理するための協働と協力こそ、人間が改善し、集中し、投資すべき分野だ。危険な技術を互いに共有し協働する最善の時は、信頼が失われ軍拡競争が始まる前だ。しかし、もはや1945年ではなく、中国の諺のように、予想される優位性のために科学知識を内密に蓄積するのではなく、共有することによって私たちが技術的な脅威に取り組むために力を合わせるのに次善の時は、まさに今なの
だろう。

著者はJ・ロバート・オッペンハイマーの孫。現在サンフランシスコ在住。X(旧ツイッタ
ー、@choppen5)や『オッペンハイマー・プロジェクト』のウェブサイトで動向を知ることができる。

原文: Charles Oppenheimer. (2023). To avoid an AI “arms race,” the world needs to expand
scientific collaboration. Bulletin of the Atomic Scientists.
https://thebulletin.org/2023/04/to-avoid-an-ai-arms-race-the-world-needs-to-expand-
scientific-collaboration/#post-heading.

Got Nuclear