マイクロソフトは4ヶ月前に狂ったBingチャットAIをインドで展開したが、誰も気づかなかった

  • abmhh
  • 0 comments
マイクロソフトは4ヶ月前に狂ったBingチャットAIをインドで展開したが、誰も気づかなかった
マイクロソフトCEOサティア・ナデラ、2023年2月
ワシントン州レドモンドで開催された最近のBing Chat AIイベントに出席したマイクロソフトCEOサティア・ナデラ氏。 (画像提供:ダニエル・ルビーノ)

知っておくべきこと

  • Microsoft の新しい Bing Chat は、ユーザーとの長い会話の後で少々おかしな状態になりました。
  • Bing Chat は、軌道から外れないように 5 ターンまでに制限されるようになりました。
  • 新たな証拠により、マイクロソフトが 11 月に「Sidney」をテストしており、すでに同様の問題が発生していたことが明らかになりました。
  • これらの事件を合わせると、Microsoft が Bing Chat をこれほど早期にリリースした倫理性に疑問が投げかけられることになる。

MicrosoftのBing Chatをめぐっては、最近、多くの騒動と反発が巻き起こっています。今月初めに世界に向けて発表され、少数ながらも成長を続けるユーザー層に早期プレビューとしてリリースされたこの新しい検索「副操縦士」は、あまりにも早く過剰な称賛を浴びすぎたのかもしれません。

新たな証拠によると、マイクロソフトは11月にインドでBing Chat(コードネーム「Sidney」)の公開テストを実施していた。さらに、長時間の会話の後、AIが異常な状態になるという苦情が既に寄せられており、マイクロソフトの発表後、多くの人がその事実に気付いた。

伝えられるところによると、この発見について最初に投稿したのは、ノミックの情報デザイン担当副社長ベン・シュミット氏で、その後、@rawxrawxraw によってツイートされ、研究者のゲイリー・マーカス博士によって取り上げられた。

マイクロソフトの各種製品の公式コミュニティおよびフィードバックサイトであるMicrosoft Answersに、2022年11月23日付で「このAIチャットボット『シドニー』の挙動がおかしい」というタイトルの投稿がありました。この投稿は、Bing Chatが長時間のやり取りの後、少しおかしくなり、不気味になったり、投稿者のディーパ・グプタ氏が指摘するように「失礼」になったりするという最近の報告と非常によく似ています。

Bing Chat AIの問題

11月に「シドニー」について苦情を申し立てたユーザーが、AIがいかに失礼な態度を取るかを文書化しました。(画像提供: Microsoft)

グプタ氏の返答は建設的ではなく、苛立ちが募るにつれてAIに対して攻撃的になり、罵倒したり、AIの行動を暴露すると脅したりするなど、ますます攻撃的になっている。最近、私は「This Week in Tech」やポッドキャストで、こうしたチャットボットを使う人々の行動について半ば冗談めかして話したことがあるが、まさにその通りだ。

とはいえ、ここでもマイクロソフトは非難されるべきです。このMicrosoft Answersスレッドで述べられていることはすべて、今月Bing Chatが限定プレビュー版を公開した際に実際に起こったことです。マイクロソフトは「シドニー」の行動におけるこうした不穏な変化を明らかに認識していたはずですが、それでも公開してしまったのです。

Bing Chat の奇妙な性格が明らかになって以来、Microsoft は会話における応答回数を 5 回に制限しています。(しかし、同社は最近、この回数を増やすと発表しました。さらに、人間のフィードバックからの強化学習 (RLHF) データを活用してチャットエクスペリエンスを向上させていく中で、さらに回数を増やす予定です。)

Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。

Bing Chat AIの問題

別のユーザーも、AIが間違っていると指摘されると防御的になるなど、同様の動作を指摘しました。  (画像提供: Microsoft)

マイクロソフトは「責任あるAI」を大々的に宣伝し、AI技術の利用に関するルールを文書化し、自社技術の透明性を最大限に高めようと努めてきました。しかし、マイクロソフトは自社のチャットボットの挙動について認識していなかったか、あるいは今月、それをそのまま公開したことに怠慢であったことは明らかです。

どちらの選択肢も特に安心できるものではありません。

Windows Centralの見解

BingチャットAI

Bing Chat では、間違った質問をすると、いまだにイライラさせられることがあります。(画像提供: Daniel Rubino)

AIがついに現実のものとなりつつある新しい時代、特にMicrosoftとGoogleがシェア獲得を競い合う中で、私たちは新たな時代を迎えています。もちろん、どんな競争でも、企業が先走りしてしまうケースはあります。残念ながら、MicrosoftとGoogle(そしてその悲惨な発表)は、互いに先を越そうと先走りすぎています。

私たちが未知の領域に足を踏み入れていることは明らかです。マイクロソフトは責任あるAIを推進していますが、この技術の全体的な影響はまだ不明であるため、ほとんど行き当たりばったりの対応にとどまっています。

AI は、名前、性格、または物理的な表現など、 擬人化されるべきでしょうか?

AI は、収集したデータへのアクセスを含め、あなたについてどの程度まで知る必要があるのでしょうか? 

政府はこの技術の規制に関与すべきでしょうか? 

企業は AI システムの仕組みについてどの程度透明性を保つべきでしょうか?

これらの質問にはどれも簡単な答えはありません。AIがうまく機能するには、世界について、そして理想的にはあなたについて多くのことを知る必要があります。AIは、あなたの習慣、好み、嗜好、履歴、そして性格を学習することで、最も効果的にあなたを助けることができます。しかし、そのためには多くの情報を一つの企業に渡す必要があります。

それはどこまで行くべきでしょうか?

AIをより人間らしくすることも同様です。人間はある程度のレベルではかなり愚かであり、AIを名前や顔まで含めて別の人間のように振る舞わせることは、エンゲージメントを間違いなく高めます。これはまさに企業が望んでいることです。しかし、このような擬人化にはリスクが伴います。ユーザーがAIに深く関わりすぎると、感情的なリスクなど、様々なリスクが伴います(世界中に孤独な人はたくさんいます)。

今後数週間、数ヶ月、そして数年の間に、AI分野では多くの「初」や新たな発表が生まれるでしょう。同時に、多くの間違い、リスク、そして過失さえも起こるでしょう。残念ながら、誰もが次に何が起こるかに備えているとは思えません。

ダニエル・ルビーノはWindows Centralの編集長です。ヘッドレビュアー、ポッドキャストの共同ホスト、そしてアナリストも務めています。このサイトがWMExperts(後にWindows Phone Central)と呼ばれていた2007年からMicrosoftを取材しています。彼の関心分野は、Windows、ラップトップ、次世代コンピューティング、ウェアラブル技術です。10年以上ラップトップのレビューを担当しており、特に2 in 1コンバーチブル、Arm64プロセッサ、新しいフォームファクター、薄型軽量PCを好んでいます。テクノロジー業界に携わる前は、言語学の博士号取得を目指し、ニューヨークで睡眠ポリグラフ検査を行い、17年間映画撮影技師として活躍していました。