ChatGPTとBing Chatに愚かなことや危険なことを言わせることは、AIではなく私たち人間が問題であることを証明しているだけだ

  • abmhh
  • 0 comments
ChatGPTとBing Chatに愚かなことや危険なことを言わせることは、AIではなく私たち人間が問題であることを証明しているだけだ
Bing Image Creator によって作成されたロボット軍団
ロボットが悪いとしたら、それは私たちが作ったロボットが悪いからだ。 (画像提供:Windows Central / Bing Image Creator)

ここ数週間で、ChatGPTやBing ChatのようなAIツールが悪いと思わせるような見出しをいくつ見ましたか?少なくともいくつかは見たと思います。そして、Redditのようなサイトにも行ってみてください。 

これらの画期的な新製品は、あらゆる種類のオンラインビジネスの運営方法に真の革命をもたらします。これらの製品が学習に使用した大規模言語モデル(LLM)は、学習、トラブルシューティング、日々の業務時間の節約など、様々な便利な機能を実現します。 

しかし、他のことと同じように、その裏には「じゃあ、やっちゃいけないことをやらせるにはどうしたらいいんだろう?」とか「どうやったら(xyz)みたいな馬鹿げたことを言わせることができるんだろう?」という疑問が付きまといます。お分かりでしょう。AIチャットボットに生み出させているくだらない、あるいはもっと危険なくだらないことに関する記事やスレッドが山ほどあるのを見るのは、もう本当にうんざりです。これは、AIが問題なのではなく、私たち人間が問題なのだということを証明しているだけです。人間こそが最悪なのです。 

AI LLMは人間が作ったリソースで訓練される

Easychat AI generating a playlist of songs for Spotify

ChatGPTは、最終的には人間が作成した情報を使用しています。(画像提供:Windows Central)

そもそも、AIチャットボットがなぜ悪事を働くのでしょうか?それは、学習に使われたコンテンツを人間が生成しているからです。これは魔法ではありません。ChatGPTはある日突然、ひとりでに現れたわけではありません。すべては私たちから始まります。人間から。 

もちろん、私が間違っている可能性もありますが、GPTを開発したOpenAIのエンジニアたちが、モデルに悪質なものを意図的に組み込むことを決めたとは思えません。GPTは他のLLMと同様に、既に世の中に出回っているコンテンツやリソースを使って学習します。もしそこに悪質なものが含まれているとしたら、それは誰かが最初に作ったものだからです。 

これは、AIに対する注意、いや、規制の必要性を浮き彫りにしています。なぜなら、人間が持つ感情的な反応がなければ、機械は自分が正しいと考える答えを出すからです。ソフトウェアには制限が設けられており、マイクロソフトの制限はOpenAIのものよりもさらに厳格ですが、完全ではありません。そして、人々はそれほど苦労することなく、それらを回避することができます。 

でも、分かります。「Bing Chatにバカなことを頼んだら、同じようにバカな答えが返ってきた」なんて見出しは、人がクリックするような類のものです。私もWindows Phoneについての詩を書いてほしいと頼んだことがあります。必ずしも悪いことではないと思いますが、インターネット上でバカなことをする人が絶え間なく押し寄せてくるのを見ると、うんざりしてAIの有用性が見えなくなってしまいます。 

Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。

もしそれが何かに対して馬鹿げた答えを返したなら、それはおそらく、最初に訓練されたのと同じくらい馬鹿げた何かに基づいていたのでしょう。そして、最初に入力されたプロンプトも。それは私たちに始まり、私たちに終わるのです。 

誰かが台無しにする前に、良い点に焦点を当て始めましょう

このトピックは、u/Cooltake さんの以下の Reddit 投稿から着想を得ました。当初は Bing の Subreddit 向けの内容でしたが、今では AI 分野全体にも当てはまると思います。 

嫌いな投稿: r/bing の「Bing に XYZ と言わせた」と「Bing が XYZ について感想を述べている」

その投稿で挙げられた例は極端(そしてできれば架空のもの)ですが、要点は伝わると思います。専門家として、私は今AIツールにとても興味を持っています。AIツールを使ったり、それについて書いたりすることに多くの時間を費やしています。しかし、それは同時に、こうしたくだらない情報に目を通すことも意味します。

私たちは皆、楽しんできました。ChatGPTとBing Chatがおかしなことを言ったり、「ジェイルブレイク」されて本来言ってはいけないことを言ったりすることもあることは承知しています。しかし、もうこのことを乗り越えて、ポジティブな面に目を向けることができるでしょうか。

例を挙げましょう。ちょうど今日の午後、コーディング経験ゼロの私がBing Chatで、とても興味深いセッションに参加しました。シンプルなPythonプロジェクトでOpenAIのAPIを使う方法を教えてくれました。Bing Chatは私が初心者であることを理解し、適切な指示に従って質問をし、サンプルコードを表示し、そのコードの説明をしてくれました。そして、表示された内容を理解できたか尋ねてきました。そして驚いたことに、私は理解できました。

A Bing Chat thread discussing how to use the OpenAI API

最近、Bing Chat で OpenAI API の使い方を尋ねた際に、とても役に立ったスレッドの一つです。(画像提供: Windows Central)

こういうものがもっと見たいですね。人々がAIをどう活用して自分自身や生活をより良くしているのか、見てみたいですね。教育や自動化など、AIが私たちの生活の向上にどのように役立っているのか。

これらのツールを破壊し、ネガティブな印象を与える見出しを作ることに過度の労力が費やされ続けると、一体何が起こるのでしょうか? ChatGPTはすでに一部の国で禁止されており、EUはさらなる禁止をちらつかせています。そして、よく知っているはずなのに知らない人々は、これらのツールが自分たちの思うがままになってしまうのではないかと恐れています。

では、ポジティブな面についてもっと話しましょう。楽しむことは素晴らしいことです。ただし、そこに意味があり、誰にも害がない限りは。でも、ChatGPTとBing Chatを使って人々が行っている素晴らしいことについてもっと聞きたいです。ぜひシェアしてください。

リチャード・ディバインは、10年以上の経験を持つWindows Centralの編集長です。元プロジェクトマネージャーであり、長年のテクノロジー愛好家でもある彼は、2011年にMobile Nationsに入社し、Windows Centralに加え、Android CentralやiMoreでも活躍しています。現在は、このサイトであらゆる種類のPCハードウェアとレビューの取材を担当しています。Mastodonでは、mstdn.social/@richdevine でフォローできます。