OpenAIの科学者たちは、AGIが人間の知能を超え人類を脅かす前に「終末のバンカー」を望んでいた

多くのユーザーは、プライバシー、セキュリティ、そして実存的な懸念から、AIの波に乗ることに抵抗を感じ、距離を置いている。p(doom)によると、AIの安全性研究者であり、ルイビル大学サイバーセキュリティ研究所所長のローマン・ヤンポルスキー氏は、AIが人類を滅ぼす確率は99.999999%だと警告している。
最近の報告が示すように、ほとんどのAI研究室は、切望されるAGI(汎用人工知能)ベンチマーク達成の瀬戸際にいる可能性があります。具体的には、OpenAIとAnthropicは、AGIが10年以内に実現される可能性があると予測しています。
AGIが人類にもたらす潜在的な脅威にもかかわらず、OpenAIのCEOであるサム・アルトマン氏は、その脅威はAGIの実現時には顕在化しないと主張しています。むしろ、社会への影響は驚くほど小さく、ただ通り過ぎるだけだとしています。
しかし、OpenAIの元主任科学者イリヤ・スツケバー氏は、AIが人間の認知能力を超えてより賢くなることへの懸念を表明した。
回避策として、幹部は、AGI のリリース後に前例のない携挙が起こった場合に、同社で働く研究者が避難できる「終末のバンカー」を構築することを推奨しました (The Atlantic 経由)。
2023年夏にOpenAIで行われた主要な科学者たちの会議で、Sutskever氏は次のように述べた。
「AGI をリリースする前に必ずバンカーを建設するつもりです。」
Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。
サツケヴァー氏のバンカーに関するコメントは、 サム・アルトマン氏のOpenAIから出版予定のカレン・ハオ氏の著書『AIの帝国:夢と悪夢』で初めて引用されました。興味深いことに、このAI科学者がバンカーについて言及したのはこれが初めてではありませんでした。
幹部はOpenAI社内の議論や会議で、このバンカーについて頻繁に話していた。ある研究者によると、複数の人がスツケヴァー氏と同様に、AGIとその人類を滅ぼす可能性について懸念を抱いていたという。
Safe Superintelligence Inc.の創業者イリヤ・スツケヴァー氏はこの件についてコメントを控えているものの、ChatGPTをはじめとする主力AI製品の開発に深く関わっていたことを考えると、大きな懸念材料となる。私たちは本当に、人間よりも強力で賢いAIシステムが存在する世界に備えができているのだろうか?
このニュースは、DeepMindのCEOであるデミス・ハサビス氏が、GoogleがGeminiモデルの最新アップデートをリリースした後、AGIの実現に近づいている可能性を示唆した後に発表された。ハサビス氏は、社会がまだ準備できていないこと、そして「汎用人工知能(AGI)」の将来が不安で夜も眠れないことを理由に懸念を表明した。
一方、アントロピックのCEO、ダリオ・アモデイ氏は、自社のモデルがどのように機能するのか理解していないことを認めた。さらに、社会は理解不足とそれがもたらす潜在的な脅威について懸念すべきだと示唆した。
ケビン・オケムワは、ケニアのナイロビを拠点とするベテランのテクノロジージャーナリストです。Windows Centralで業界の最新トレンドや動向を幅広く取材し、豊富な経験を有しています。イノベーションへの情熱と細部への鋭い洞察力を持つ彼は、OnMSFT、MakeUseOf、Windows Reportといった主要メディアに寄稿し、Microsoftエコシステムを取り巻くあらゆるトピックについて、洞察力に富んだ分析と最新ニュースを提供しています。常に変化するテクノロジーのトレンドを追っている暇な時は、世界を旅したり、音楽を聴いたりしています。