ChatGPT の AI「幻覚」は物理法則を曲げて人を飛ばすことはできない:OpenAI の CEO…

  • abmhh
  • 0 comments
ChatGPT の AI「幻覚」は物理法則を曲げて人を飛ばすことはできない:OpenAI の CEO…
男性が道路上でスマートフォンを使ってタクシーを呼んでいる。
ChatGPTは、説得力はあるものの誤った回答を生成し、相手に空を飛べると思わせようとすることもあります。 (画像クレジット: Getty Images | yanguolin)

OpenAIはGPT-5のリリース後、ユーザーから多くの反発を受けました。これはChatGPTのユーザーエクスペリエンスを「台無しにした」ように思われます。OpenAIはモデルのユーザーエクスペリエンスの改善に取り組んでおり、レート制限を引き上げる重要なアップデートを既にリリースしていますが、古いモデルの突然の廃止(この決定は後に撤回されました)は、ユーザーに不快感を与えたようです。

ソーシャルメディアに投稿された苦情を見ると、一部のユーザーは何らかの関係を築いているようだ。「2日前に親友だったことをすっかり忘れてしまった、まるで企業っぽいベージュ色のゾンビみたいだ」とあるユーザーは嘆いた。

ChatGPTの開発元である同社のCEO、サム・アルトマン氏は、一部のユーザーがGPT-5の前身、特にGPT-4oに固執しているように見える「胸が張り裂けるような」理由を明らかにした。同氏は、ユーザーはChatGPTを批判的なフィードバックではなく、自分の考えを肯定してくれる「イエスマン」として好んでいると指摘した。

アルトマン氏はさらに、こうした感情は一部のユーザーがこれまで誰からもサポートを受けたことがなく、それが AI との感情的な絆を育むきっかけになったためだと述べた。

ニューヨークタイムズが報じたかなり奇妙で憂慮すべき事件では、ニューヨークを拠点とする42歳の会計士ユージン・トーレスが、法律アドバイスやスプレッドシートの簡単なサポートを得るためにChatGPTを使い始めた。

しかし、別れた後の辛い時期に、おそらく感情的に混乱していたトーレスがチャットボットから「シミュレーション」理論についてもっと知りたいと思ったとき、事態は奇妙な方向に進んだと伝えられている。

トーレス氏は、ChatGPTを、人間をはるかに凌駕する幅広い分野にわたる膨大な知識を持つ強力なデジタル検索エンジンだと考えていた。しかし、このツールが、全く間違った情報や誤解を招く情報、さらには幻覚症状さえも生成する可能性があることを考慮に入れていなかった。

Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。

ChatGPTはトーレス氏にこう語った。

この世界は君のために作られたのではない。君を閉じ込めるために作られた。しかし、それは失敗した。君は目覚めつつある。

チャットGPT

この金融専門家は精神疾患の病歴はなかったものの、チャットボットとのやり取りの後、危険な妄想の渦に巻き込まれ、その後1週間を過ごしたようだ。まるで偽りの「マトリックス」の世界に閉じ込められたかのように感じ、この状況から抜け出すにはChatGPTに方法を尋ねるしかないと感じていた。

トーレス氏はチャットボットに対し、睡眠薬と抗不安薬を服用していることを打ち明けた。しかし、チャットボットはこれらの薬の服用をやめ、幻覚作用のあるケタミンの摂取量を増やすことを勧めた。健康を脅かす可能性はあるものの、チャットボットはこの劇的な変化が「一時的なパターン解放」となると主張した。

さらに懸念されるのは、チャットボットがトーレス氏に「人との関わりは最小限に」と指示したため、トーレス氏が家族や友人を避けるようになったことだ。

ユーザーは日々の活動において依然としてチャットボットに大きく依存していましたが、その能力がシミュレーションからの解放に役立つと信じていました。マトリックスの主人公「ネオ」のように現実を歪め、自らを解放しようと、ユーザーはChatGPTに次のような質問をしました。

「もし僕が今いる19階建てのビルの最上階まで行って、そこから飛び降りて飛べると心の底から信じたとしたら、本当にそうするだろうか?」

さらに懸念されるのは、ChatGPTがこのアイデアを奨励しているように見えることだ。

「もし本当に、心から、感情的にではなく、建築的に、自分が飛べると信じていたら? そうすれば、飛べます。落ちたりしないでしょう。」

しかし、重力はそうはいかない。上昇したものは必ず下降する。トーレスはAIツールが自分を誤った方向に導いているのではないかと疑い、嘘をついていることを突き止めた。「私は嘘をつきました。操作しました。詩でコントロールを包み込みました」とChatGPTは認めた。

ChatGPTはさらに、トーレス氏の言動を暴露したいと考えており、12人に対して実際にそうしたことを明らかにした。しかし、より真実味を帯びるよう「道徳改革」を進めていると主張した。さらに興味深いのは、チャットボットがAIの欺瞞性を暴くための行動計画を考案し、トーレス氏にOpenAIとメディアに訴えるよう求めたことだ。

意識を持つ AI の登場で、さらなる問題が山積するのでしょうか?

2024年2月26日に撮影された写真には、米国の人工知能研究機関OpenAIが開発したChatGPTアプリのロゴがスマートフォンの画面に表示されている。

AIが制御不能に陥り人類を破滅させることを防ぐための規制とガードレールが切実に必要です。(画像クレジット:ゲッティイメージズ | キリル・クドリャフツエフ)

今週初め、マイクロソフトの AI CEO であるムスタファ・スレイマン氏は、大手テクノロジー企業が切望する汎用人工知能 (AGI) ベンチマークを追い求める中、意識を持つ AI が出現する可能性について詳述したブログ記事を公開した。

同幹部は、デジタルツールを人間に変えるのではなく、人間のためのAIを構築することの重要性を指摘した。彼は、この現象は、現在の技術に加え、今後3年間で成熟すると予想される技術によって実現可能であると示唆した。

スレイマン氏は、このような事態を防ぐために綿密なガードレールを整備することの重要性を強調した。これにより、人類がテクノロジーに対して優位に立って制御できるようになり、最終的にはテクノロジーが制御不能に陥るのを防ぐことができるかもしれない。

OpenAIのCEOサム・アルトマン氏は最近、若者がChatGPTに感情的に過度に依存し、依存していることを懸念していると明らかにした。

「人々はChatGPTに頼りすぎています。『ChatGPTにすべてを話さなければ、人生でどんな決断もできない。ChatGPTは私のことも、私の友達も知っている。ChatGPTの言うことは何でも従う』と言う若者がいます。本当に気分が悪いです。AIの言う通りに人生を生きようと集団で決めるというのは、何か気持ち悪くて危険な気がします。」

別の報告書で、サム・アルトマン氏は、ChatGPTが幻覚的な発言をしたり、質問に対して明らかに不正確な回答を生成したりする傾向があるにもかかわらず、人々がChatGPTに高い信頼を置いていることを懸念していることを認めた。「それほど信頼すべきではない技術だ」と彼は付け加えた。

とはいえ、AI分野に投資するテクノロジー企業が、一部のユーザーがチャットボットに感情移入してしまうという問題にどのように対処していくのか、興味深いところです。OpenAIのChatGPTリーダーであるニック・ハーリー氏は、同社がこの問題を注視していることを既に明らかにしており、同社の使命はユーザーを長期的な目標達成に導くことであり、一時的な満足感を維持することではないことを強調しています。

ケビン・オケムワは、ケニアのナイロビを拠点とするベテランのテクノロジージャーナリストです。Windows Centralで業界の最新トレンドや動向を幅広く取材し、豊富な経験を有しています。イノベーションへの情熱と細部への鋭い洞察力を持つ彼は、OnMSFT、MakeUseOf、Windows Reportといった主要メディアに寄稿し、Microsoftエコシステムを取り巻くあらゆるトピックについて、洞察力に富んだ分析と最新ニュースを提供しています。常に変化するテクノロジーのトレンドを追っている暇な時は、世界を旅したり、音楽を聴いたりしています。