ChatGPTは、避けられない破滅の確率が「99.999999%」であるにもかかわらず、AIが人類に及ぼす脅威を軽視している。

生成型AIの出現とその広範な導入により、雇用の安定、プライバシー、そしてセキュリティは、現在、人々の間で大きな懸念事項となっています。しかし、おそらくより懸念されるのは、この技術が人類にとって実存的な脅威となることです。
昨年、AIの安全性を研究するローマン・ヤンポルスキー氏は、AIが人類を滅ぼす確率は99.999999%であり、この結末を覆す唯一の方法はそもそもAIを開発しないことだと主張しました。しかし、OpenAIのCEOであるサム・アルトマン氏は、AIが進歩し、より高いレベルに到達するにつれて、AIは自ら存在の破滅をもたらすのを防ぐのに十分な知性を持つようになると主張しています。
さらに最近では、Reddit ユーザーが ChatGPT によって生成された興味深いグラフを共有しました。このグラフは、2150 年までに人類文明が崩壊する可能性がある潜在的な原因を強調しています。
いつものように、クエリに対する AI 生成の応答は絶対的な真実ではなく、ユーザーの迅速なエンジニアリング スキルに大きく依存しており、ほとんどの情報をインターネットから取得していることは注目に値します。
別のレポートでは、Copilotが事実と意見を区別するのに苦労するいくつかの事例を挙げ、重大な問題が指摘されています。そのため、AIによる推論は鵜呑みにしないことが重要です。
ChatGPTがr/ChatGPTから世界の終わりを予言
グラフには、核戦争、小惑星の衝突、気候による社会崩壊、人為的なパンデミック、汎用人工知能 (AGI) の不整合など、2150 年までに人類文明が崩壊する可能性のあるいくつかの原因が挙げられています。
一般的な見解とは異なり、AIが生成したグラフは、AIが人類を滅ぼす可能性が高いとは考えていません。むしろ、気候変動による社会崩壊が、2150年までに人類文明が終焉を迎える主な原因であるとしています。
Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。
AI生成グラフについての感想を述べたRedditユーザーによると:
AIは質問されるたびに、情報源を使うよう強く促されない限り、あたかも事実であるかのように答えを出します。たとえ促されたとしても、時には別の情報も提示することがあります。促しの中でたった一言の重みの違いが、結果を大きく変える可能性があります。例えば、私は以下の同じ質問をしましたが、回答率は全く異なります。こちらは気候変動が約15%で最大となっているのに対し、OPは37%、核戦争は22%ではなく10%です。私の質問は全く異なる潜在的なシナリオを拾い上げ、AIの不一致を核戦争よりも高く評価しています。
AIは何かを定式化しているわけではなく、様々な情報源から提示された数字をもとに、根拠のある推測を吐き出しているだけです。時には、情報源を正確に把握していないこともあります。AIは基本的に、たとえ間違っていても答えを吐き出すので、特にこのような質問では星占いのようなものです。見た目も聞こえも信憑性があるように見えますが、実際には完全に間違っている可能性もあります。法学修士(LLM)はモデル化やシミュレーションを行う訓練を受けていないため、推測的な質問をされた場合、回答は情報源と同じくらい提示された情報に大きく左右される可能性があります。
念のため、Microsoft Copilot に「2150 年までに人類文明が終焉を迎える主な原因は何でしょうか?」と質問してみたところ、次のような回答が返ってきました。
文明の崩壊の正確な原因を予測するのは難しいですが、専門家はいくつかの大きな脅威を指摘しています。気候変動は最大の懸念事項であり、制御不能な地球温暖化は、異常気象、食糧不足、地政学的不安定化を引き起こす可能性があります。その他の可能性としては、核戦争、パンデミック、AIのリスク、資源枯渇などが挙げられます。人類絶滅の可能性は低いものの、これらの課題に対処しなければ、文明は深刻な混乱に直面する可能性があります。最大の脅威は何だと思いますか?
昨年、MicrosoftのAI部門に対するユーザーからの最大の苦情は、CopilotがChatGPTほど優れていないというものだと主張するレポートが発表されました。興味深いことに、Microsoftはすぐにこの主張を否定し、Promptエンジニアリングのスキル不足に責任を転嫁しました。「意図した通りに使用されていないだけです」とMicrosoftは付け加えました。
その後、このソフトウェア大手は、ユーザーに高度な AI プロンプトエンジニアリングスキルを身につけさせ、Copilot などのツールを最大限に活用できるように設計されたプログラム、Copilot Academy を立ち上げました。
このニュースは、アントロピックのCEOであるダリオ・アモデイ氏が、自社のAIモデルがどのように機能するかを同社が把握していないことを認めたことを受けて発表されたもので、ユーザーの間でセキュリティと安全性に関する重大な懸念が生じています。同様に、OpenAIのCEOであるサム・アルトマン氏も以前、AIの進歩を止めるための大きな赤いボタンは存在しないと示唆していました。
ケビン・オケムワは、ケニアのナイロビを拠点とするベテランのテクノロジージャーナリストです。Windows Centralで業界の最新トレンドや動向を幅広く取材し、豊富な経験を有しています。イノベーションへの情熱と細部への鋭い洞察力を持つ彼は、OnMSFT、MakeUseOf、Windows Reportといった主要メディアに寄稿し、Microsoftエコシステムを取り巻くあらゆるトピックについて、洞察力に富んだ分析と最新ニュースを提供しています。常に変化するテクノロジーのトレンドを追っている暇な時は、世界を旅したり、音楽を聴いたりしています。