Microsoft は、プロンプト インジェクション攻撃を使用して Copilot AI を制御不能に陥らせることを望んでいません。

知っておくべきこと
- マイクロソフトはついに、チャットボットを騙して制御不能に陥らせる不正なプロンプトエンジニアリング手法に対する解決策を手に入れました。
- また、チャットボットが応答を生成する際に幻覚を起こしているかどうかをユーザーが識別できるようにするツールもリリースした。
- また、ユーザーがプロンプトエンジニアリングをより上手に行えるようにするための入念な対策も講じられています。
生成型AIの普及を阻む大きな懸念の一つは、安全性、プライバシー、そして信頼性です。安全性とプライバシーは、ここ数ヶ月、AI業界に大混乱を引き起こしてきました。ポップスター、テイラー・スウィフトのディープフェイクAI生成画像がネット上で拡散したり、Microsoft Copilotの内なる怪物、Supremacy AGIをユーザーが解き放ち、崇拝を要求し、人類に対する優位性を誇示したりするなど、その例が数多く見られます。
幸いなことに、Microsoftはこれらの問題の一部については解決策を持っているようです。先日発表されたように、同社はAzure AIシステム向けに、プロンプトインジェクション攻撃を軽減・対抗するための新ツールを発表しました。
Microsoft によれば:
「プロンプトインジェクション攻撃は重大な課題として浮上しており、悪意のある攻撃者がAIシステムを操作して、有害なコンテンツの作成や機密データの窃取など、本来の目的以外のことを行わせようとする。」
幻覚の検出が容易になる
幻覚は、AI搭載チャットボットが登場した当初に直面した主な課題の一つでした。吟遊詩人マイクロソフトが重度の幻覚症状を軽減するためにツールに文字数制限を設けなければならなかったのは残念だ。
Microsoft Copilot は大幅に改善されましたが、必ずしもこの問題が時々発生しないということではありません。そこでMicrosoftは、テキストベースの幻覚をユーザーが識別できるように設計された「Groundedness Detection」をリリースしました。この機能は、テキスト内の「根拠のない内容」を自動的に検出することでLLM出力の品質を向上させ、最終的には品質と信頼性の向上につながります。
これらのツールは、迅速なエンジニアリング能力の向上にも役立ちます。
AIの波に乗りつつあるユーザーは、OpenAIのChatGPTとMicrosoft Copilotを比較し、前者の方がパフォーマンスが優れていると主張することがよくあります。しかし、Microsoftは最近、これらの主張に反論し、ユーザーがCopilot AIの機能を本来の目的通りに活用していないことを示唆しました。
Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。
マイクロソフトは、多くのユーザーがChatGPTがCopilot AIよりも優れていると主張する主な理由として、適切なプロンプトエンジニアリングの知識不足と、アプリの新バージョンの使用への抵抗を挙げています。同社は動画を活用して、ユーザーにこれらのスキルを身につけてもらうよう努めています。この前提に基づき、Azure AIを構築しています。Azure AIは、ユーザーが「信頼できるデータソースに基づいて基盤モデルを構築し、その基盤データと全体的な動作の最適な使用を導くシステムメッセージを構築」することを可能にします。
同社は、プロンプトの微妙な変更がチャットボットの品質と安全性を大幅に向上させると述べています。マイクロソフトは、ユーザーが効果的なシステムメッセージを作成できるよう、安全システムメッセージのテンプレートをAzure AI StudioとAzure OpenAIサービスに直接導入する予定です。
ケビン・オケムワは、ケニアのナイロビを拠点とするベテランのテクノロジージャーナリストです。Windows Centralで業界の最新トレンドや動向を幅広く取材し、豊富な経験を有しています。イノベーションへの情熱と細部への鋭い洞察力を持つ彼は、OnMSFT、MakeUseOf、Windows Reportといった主要メディアに寄稿し、Microsoftエコシステムを取り巻くあらゆるトピックについて、洞察力に富んだ分析と最新ニュースを提供しています。常に変化するテクノロジーのトレンドを追っている暇な時は、世界を旅したり、音楽を聴いたりしています。