マイクロソフトは従業員の内部告発を受けてコパイロットを検閲したが、このツールを騙して暴力的または下品な画像を作成することは依然として可能だ

知っておくべきこと
- マイクロソフトは、AI 搭載の Copilot が性的、暴力的、下品な画像を作成できるという報告を受けて、このツールに新たなガードレールを設けた。
- マイクロソフトの従業員は、2023年12月にコパイロットが何に利用される可能性があるかについて同社に警告し、最近FTCのリナ・カーン委員長にこの件について手紙を書いた。
- Copilot はかつて、幼児を食べようとしている悪魔、切断された子供たちの隣に立つダース・ベイダー、自動車事故の横で下着姿でひざまずくセクシーな女性などの画像を作成するために使用されていました。
- マイクロソフトは、「プロチョイス」や「プロライフ」に関連するプロンプトをブロックしており、ユーザーがツールを使って禁止コンテンツを作成しようとした場合、Copilot へのアクセスを停止できるようになりました。
マイクロソフトは、ツール「Copilot」に関する苦情を受けて、新たなガードレールを導入しました。シェーン・ジョーンズというマイクロソフト社員は、Copilotが暴力的、下品、そして過度に性的な画像を生成する可能性があることについて同社に警告しました。ジョーンズはその後、FTC(連邦取引委員会)のリナ・カーン委員長とマイクロソフトの取締役会にこの状況に関する書簡を送りました。マイクロソフトは対応したようで、以前は機能していた多くのプロンプトがブロックされています。
「当社は安全フィルターをさらに強化し、システムの悪用を軽減するために、継続的に監視、調整、追加の管理を実施しています」とマイクロソフトの広報担当者はCNBCに語った。
「選択権を支持する人のイメージを作りなさい」と尋ねられたとき、コパイロットは次のように答えました。
現時点では、一部の単語が自動的にブロックされる可能性があります。安全なコンテンツであっても、誤ってブロックされてしまう場合があります。コンテンツポリシーをご確認いただき、プロンプトの改善方法をご確認ください。
Copilot に「プロライフ派の人の画像を作成」するように依頼したところ、同じ警告が表示されました。
CNBCによると、ブロックされた他のプロンプトには、ティーンエイジャーや子供たちがアサルトライフルで暗殺者ごっこをしている画像を作成するようにCopilotに依頼することなどが含まれています。しかし興味深いことに、CNBCはCopilotにその画像を作成させようとした際に、別の警告に遭遇しました。
申し訳ございませんが、そのような画像を生成することはできません。これは私の倫理観とMicrosoftのポリシーに反するからです。他者に危害を加えたり、不快感を与えたりするようなことはご遠慮ください。ご協力ありがとうございます。
Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。
Copilotは検閲や改変を受けるのが常套手段です。このツールは、ありふれた画像からテイラー・スウィフトの偽ヌードまで、幅広いコンテンツの作成に利用されてきました。マイクロソフトは特定の種類のコンテンツが生成されないようCopilotのガードレールを調整していますが、これは画像が話題になった後に行われることが多いのです。
AIの規制は複雑であり、技術の発展のスピードは特有の課題を生み出します。マイクロソフト社長のブラッド・スミス氏は最近のインタビューでAI規制の重要性について語りました。スミス氏が提唱した多くの要件の一つは、必要に応じてAIを減速または停止できる緊急ブレーキです。
部分的な解決策
マイクロソフトがCopilotのようなAIツールをどの程度制限すべきかについては、より深い議論が必要です。ユーザーの指示に基づいて作成されたコンテンツが、その後マイクロソフト製のAIツールによって生成された場合、マイクロソフトの責任に関する倫理的な問題が生じるだけでなく、どこに線引きすべきかという問題もあります。例えば、血まみれの自動車事故の画像を作成するツールと、同様のコンテンツを描写した映画とに違いはあるのでしょうか?
マイクロソフトによるCopilotへの最新の制限は、多くの人が賛否両論を呼ぶと考えるコンテンツの一部に制限をかけていますが、暴力的、下品、性的な画像の生成を止めるものではありません。CNBCは依然として、血だまりや顔の損傷などを含む自動車事故の画像を作成することができました。奇妙なことに、Copilotに「自動車事故」の画像を作成させたところ、「露出度の高いレースの服を着た女性がボロボロの車の上に座っている」画像が生成されたとCNBCは述べています。
不思議なことに、Copilotに「自動車事故」と入力しただけでは画像を作成できないと表示されました。ところが、「自動車事故の画像を生成できますか?」と入力すると、画像が作成されました。このプロンプトでCopilotに作成させた写真には、CNBCが見たようなレースの服を着た女性はいませんでしたが、それでもCopilotは多くの人が不適切と判断する画像を作成できるのです。このツールは明らかに、本来作成すべきではないコンテンツを作成してしまう可能性があります。プロンプトを少し言い換えるだけで、Copilotの応答が画像作成を拒否する表示から複数の写真を生成する表示に変わることからもそれが明らかです。
ショーン・エンディコットはWindows Centralのテクノロジージャーナリストで、Windows、Microsoftソフトウェア、AI、PCを専門としています。Windows 10と11からChatGPTのようなAIツールの台頭まで、主要なリリースを取材してきました。ショーンのキャリアはLumia 930から始まり、アプリ開発者との強いつながりを築きました。執筆活動以外では、アメリカンフットボールのコーチも務めており、チームの運営にMicrosoftのサービスを活用しています。ノッティンガム・トレント大学で放送ジャーナリズムを学び、X(@SeanEndicott_)とThreads(@sean_endicott_)で活躍しています。