Microsoft Copilot や ChatGPT などの AI が悪化する一方である 3 つの理由と、そうである必要がない理由

  • abmhh
  • 0 comments
Microsoft Copilot や ChatGPT などの AI が悪化する一方である 3 つの理由と、そうである必要がない理由
マイクロソフト コパイロット
(画像提供:Windows Central | Jez Corden)

AI — 今やどこにでも存在しています。 

毎日のようにAIに関する新しいニュースが報道されているように感じます。新たな技術革新、AIに参入する新企業、あるいはAIカスタマーサービスボットが顧客に悪態をつくなど、AIは今まさに注目を集めており、今後も定着する可能性が高いでしょう。 

実際、コンテンツの作成、キュレーション、LLM トレーニングの共生関係を実現するための機能的な基盤を築くのではなく、Microsoft Copilot Pro などの製品で利益を優先することを選択したことで、Microsoft とその競合他社は、少なくとも部分的には、最初から自社のモデルを不注意にも破滅させてしまったのかもしれません。 

現在 AI LLM が直面している最大の脅威のいくつかと、Microsoft とその仲間がそれに対して何をすべきかについて見ていきましょう。 

1. Microsoft Copilot、Google Bard、OpenAI ChatGPTはインターネットを破壊し、そして自らも破壊している

副操縦士

Microsoft Copilot は Bing.com で利用可能で、まもなくすべての Windows PC に組み込まれる予定です。  (画像提供: Windows Central)

LLMモデル崩壊という概念をご存知ですか?これは現在、OpenAI、Microsoft、Googleといった組織が直面している最大の脅威と言えるでしょう。しかし、どの組織もこの脅威を特に深刻に受け止めているようには見えません。 

モデル崩壊とは、ChatGPTのような大規模言語モデルがAI生成のジャンクデータで学習する際に発生する劣化プロセスを指します。JPEGファイルが長年にわたり何千回もの圧縮と共有の繰り返しを経るのと同様に、ChatGPTやCopilotのようなツールによって、質の低い、幻覚に満ちたジャンクデータでインターネットを氾濫させることが容易になれば、LLMの出力品質に対する累積的かつ悪化する劣化効果が繰り返し再現されることになります。 

Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。

ChatGPTとCopilotがここ数ヶ月で「怠惰」になり、質の低い検索結果を生み出していることを説明するミームが既に出回っています。そして今、新たな研究(Vice経由)によると、インターネット上のコンテンツの大部分は既にAIによって生成されており、誤りや不正確な情報、そして時には有害な嘘が含まれていることが示唆されています。未発表の論文によると、この研究は、インターネット上の最大57%が既にAIによって生成されており、特にリソースが不足している地域や言語に強い偏りがある可能性があると示唆しています。例えば、ウェブ上のあらゆるトピックについて英語のコンテンツが増えており、AIのトレーニングとローカライズ精度の向上に役立っています。しかし、これが常に当てはまるとは限りません。既に英語向けのコンテンツもAIによって生成されています。YouTube ShortsやTikTokを2分ほどスクロールするだけで、AIが生成したジャンクコンテンツが見つかります。 

Android 版 Google Bard

マイクロソフトとグーグルは、AIツールの普及をめぐって熾烈な競争を繰り広げている。  (画像提供:Future)

実際、現在、Google、Microsoft、そしてOpenAIは、AIモデルの学習に頼っている人間のコンテンツクリエイターと、維持しがたい関係にあります。Microsoft、そして特に検索市場の90%を支配しているGoogleが、人間のクリエイターに損害を与え続けるならば、皮肉なことに、長期的には自らを傷つけることになるだけです。

こうした状況を踏まえ、別の調査(Gizmodo経由)では、GoogleがAI生成のジャンクコンテンツとの戦いに敗れている様子が詳細に示されています。大規模な言語モデルは、ヘッドセットを実際に操作して、私の最高のXboxヘッドセットに関する記事(恥知らずな宣伝です)のような高品質なガイドを作成することはできません。そのため、手っ取り早く儲けたい人々が、似たような記事を人工的に生成し、LLM(法務・法務・法務)に私のコンテンツを盗用させている可能性があります。この調査は、Googleが人間が直接調査したオリジナルの体験とAIが生成した偽の体験を区別するのに苦労していることを示唆しており、そもそもこれらのモデルのトレーニングに頼っているコンテンツの経済的実現可能性が低下する可能性を示唆しています。 

人間のクリエイターの不足は、質の高いデータの低下、検索の実現可能性の低下、そしてAIの質の低下を意味します。Microsoft、Googleなどがモデルの崩壊を真剣に受け止めたいのであれば、クリエイターと検索アルゴリズムの間に現在存在する(相対的な)共生関係をどのように維持していくかを検討する必要があるでしょう。もしGoogleとMicrosoftがそうすることを拒否したとしても、裁判所はいずれにせよ彼らにそうするよう強制するかもしれません。 

2. 迫り来る法の終末

ミッキーマウスのAI生成画像

ディズニーはおそらく気に入らないであろう、独房で泣いているミッキーマウスのAI生成画像(Microsoft Image Creatorより)。  (画像提供:Bing Image Creator)

RedditやTwitter (X)のようなプラットフォームは、大手テクノロジー企業がトレーニング目的で自社のデータにアクセスすることをますます遮断しています。これは、企業が自社のモデルをトレーニングできるようにするためという理由もありますが、Microsoftなどが許可を求めなかったという単純な理由もあります。CopilotやGoogle Bardのようなプラットフォームがコンテンツプラットフォームからユーザーを奪っているという事実を理由に、他の様々なパブリッシャーも訴訟の準備を進めています。 

しかし、GoogleやMicrosoftと法廷で戦うための何百万ドルもの資金がなければ、どうすればいいのでしょうか? 実は、独立系コンテンツクリエイターやアーティストでさえ、反撃する方法を見つけているようです。 

3. LLM操作攻撃ツールの蔓延

Microsoft Azure servers

MicrosoftのAzureデータセンターは、AIの稼働を維持するために毎日数十万ドルを費やしています。  (画像提供:Microsoft)

朝5時にベッドから起きてこの記事を書こうと思ったきっかけは、RedditでNightshadeというツールを紹介するスレッドを見たことでした。Nightshadeは、アーティストをコンテンツの盗難から守る方法を専門に研究する研究者によって開発されました。実際、こうしたツールを開発している企業は、こぞってコンテンツの盗難に手を染めています。 

Nightshadeの仕組みは実に驚くべきものです。Glazeという類似ツールと組み合わせることで、アーティストはAIモデルから自分のスタイルを保護するだけでなく、人間の目には見えないジャンクピクセルや不正確なピクセルをミックスに注入することができます。 

人間の目には元の画像とほとんど変わらない陰影付きの画像が映りますが、AIモデルは画像の構成を劇的に変化させます。例えば、人間の目には緑の野原にいる牛の陰影付きの画像がほとんど変化していないように見えるかもしれませんが、AIモデルは草むらの中に大きな革製のハンドバッグが置かれていると認識するかもしれません。牛が写っている陰影付きの画像を十分な数学習させることで、モデルは牛が美しい茶色の革製のハンドルと滑らかなジッパー付きのサイドポケット、そしておそらくは素敵なブランドロゴを持っていると確信するようになります。

将来的には、こうしたツールが他のクリエイターにも利用可能になる可能性は十分に考えられます。声優の発言が盗まれたり、ミュージシャンの作品が再構成されたり、作家のストーリーが再利用されたりといった状況です。前述の共生的な著作権料がなければ、コンテンツクリエイターは、有力な弁護士に代わり、LLMコンテンツスクレイパーを弱体化させる方法をますます(そして当然のことながら)模索するようになるでしょう。 

国家が支援する反法学修士制度は、偽の科学、分断を煽る政治的言説、あるいはフェイクニュースを検索ツールに注入することを目的としたものになるのだろうか? まあ、それは既に起こっていることなので、あまり深く考える必要はないだろう。

コンテンツ作成者が、人間には認識できないが AI には完全に認識できる「汚染された」データを導入することが標準化された慣行になると、モデル崩壊の可能性は高まるばかりです。

独立したクリエイターの枠を超えて、敵対的な国家政府によるAIデータの操作を阻止するにはどうすればいいのでしょうか? 偽科学、分断を煽る政治的言説、フェイクニュースを検索ツールに注入することを目的とした、国家支援による反法学修士(LLM)はどのようなものになるでしょうか? まあ、あまり深く考える必要はありません。なぜなら、既にそれが起こっているからです。フリーダム・ハウスの最近の報告書では、47の政府がAIツールを導入し、オンラインのコメントスレッドの言説を操作して世論に影響を与えようとした経緯が詳しく述べられています。AIはコメントデータもスクレイピングしており、これもまたモデルの崩壊に寄与しています。

LLM(法学修士)企業がこれに対抗するためのツールを開発し、今日のスパムボットとの戦いのように軍拡競争へと発展していく姿を想像できます。AIは人間のなすがままであり、人間もAIのなすがままである可​​能性があります。共生と思慮深さがなければ、AIは機能しないでしょう。

AIでさえ未来を予測することはできない

Microsoft Logo Building Redmond

以前私たちの1人が撮ったこの写真の左側の茂みを、Photoshopの生成AIを使って拡張しました。最近は16:9の画像を使うことになっているからです。このような小さな世界ではAIは確かに役立ちますが、その行く末については懐疑的になるのが合理的で健全なのかもしれません。  (画像クレジット: Windows Central)

Microsoft Copilot、Google Bard、そしてOpenAIのモデルといったプラットフォーム間の有害な関係は、おそらく2024年以降も論争と議論の的となるでしょう。インターネットやそれ以前の内燃機関といった、あらゆる画期的な新技術と同様に、法学修士課程は業界全体を根底から覆し、崩壊させる可能性を秘めています。 

AIは全職種の最大40%に影響を与え、あるいは削減し、世界的な不平等を拡大させる可能性があるという予測が出ています。これは既に政治的不安定の嵐を引き起こしています。そうなれば、もはやモデルの崩壊というレベルを超えてしまいます。購買力の崩壊を招く条件を作り出してしまったAI誘発の経済不況で、一体どうやって利益を上げられるというのでしょうか? 

AIが悪用され、フェイクニュースが大量に発信されたり、敵対的な国家主体による世論操作が大規模に行われたり、感情に訴える逆張りのプロパガンダによって科学的議論が曖昧にされたりする事例は既に目にしてきました。AIの直接的な結果として雇用が失われる事例も既に目にしていますし、OpenAIが以前は協力しないと約束していたにもかかわらず、今や急いで米軍との協力に踏み切ろうとしていることも目にしています。Metaのマーク・ザッカーバーグ氏も今週、誰でも使えるオープンソースのAGIを作りたいと発言しました。これは決して悪用されることはないはずです。 

関連: Microsoft は OEM に AI Windows PC に 16GB の RAM を追加するよう強制するのか?

AIが世界の病を悪化させるという悲観的な見方は多いものの、紛れもなく肯定的な側面も存在します。AIは、医薬品用の新分子や電池などの新素材の発見など、時間のかかる科学的タスクの迅速化に活用されています。AIは学習を加速させ、複雑な概念を用途に合わせてカスタマイズされた方法で説明することができます。AIの最も理想的なビジョンは、AIが人間の仕事を代替するのではなく、副操縦士としてサポートし、支援することです。 

未来を予測することは誰にもできないが、楽観的になるのは難しい。OpenAI、Google、Microsoftは、これらのモデルがもたらす大きな悪影響の可能性について、広く目に見える形で考慮することなく、法学修士号(LLM)で手っ取り早く儲ける方法を見つけることに躍起になっている。皮肉なことに、AIは機能するために人間の入力に依存している。モデルがどのように害を及ぼす可能性があるかを適切に事前に検討せず、頼りにする人間の開発者と健全な関係を築かなければ、AI企業は自らの顔に爆発する時限爆弾を抱えていることになるかもしれない。 

ジェズ・コーデンはWindows Centralのエグゼクティブエディターで、Xboxとゲーム関連のニュースを中心に取り上げています。ジェズは、お茶を飲みながら、Microsoftエコシステムに関する独占ニュースや分析を発信することで知られています。Twitter(X)でフォローして、XB2ポッドキャストもお聴きください。その名の通り、Xboxに関するポッドキャストです!