ジャック・ドーシー氏は、AI生成コンテンツとディープフェイクの蔓延により、今後5~10年で何が現実なのか分からなくなると述べ、「シミュレーションの中にいるような気分になるだろう」と語った。

  • abmhh
  • 0 comments
ジャック・ドーシー氏は、AI生成コンテンツとディープフェイクの蔓延により、今後5~10年で何が現実なのか分からなくなると述べ、「シミュレーションの中にいるような気分になるだろう」と語った。
ジャック・ドーシー、元Twitter CEO
ジャック・ドーシーは、AIの普及と近い将来ディープフェイクを見分けることがいかに困難になるかについて語る (画像提供:AP通信)

知っておくべきこと

  • ツイッターの元CEOで共同創業者のジャック・ドーシー氏は、「画像やディープフェイク、動画の作成方法のせいで、本物と偽物を区別するのは不可能になるだろう」と述べている。
  • ドーシー氏は、その信憑性を主張するためには、もっと注意深くなり、自分自身で物事を体験する必要があると語る。
  • OpenAI は、これらの問題の一部を軽減するために ChatGPT と DALL-E 3 技術を使用して生成された画像に透かしを入れましたが、それが「来歴の問題に対処するための特効薬」ではないことを認めています。

生成型AIの急速な普及により、スマートフォンやパソコン、そして安定したインターネット接続があれば、誰でもこの技術の機能を活用できるようになりました。これは理論的には良いことであり、画期的なブレークスルーにつながる可能性がありますが、欠点もあります。

インターネットに溢れるディープフェイクの数は驚くほど増加しています。AIが生成した偽物と本物の偽物を見分けることが難しくなってきています。X(Twitter)の共同創設者で元CEOのジャック・パトリック・ドーシー氏も最近、同様の意見を述べています。

「信じるのではなく、検証してください。自分で体験し、自分で学ばなければなりません。今後5年、10年でこの時代を迎えるにあたり、これは非常に重要になるでしょう。なぜなら、画像、ディープフェイク、動画の作り方が、文字通り何が本物で何が偽物か分からなくなるからです。」

ジャック・ドーシーは、今後5~10年で偽コンテンツが急増し、何が真実なのか分からなくなり、まるでシミュレーションの中で生きているように感じるようになるだろうと述べている(r/ChatGPTより)

MicrosoftのDesignerのImage CreatorやOpenAIのChatGPTといったAI搭載ツールは、構造設計図の作成に非常に優れており、建築業界の専門家を失業させるほどです。これは画像に限った話ではなく、Soraのような高度なツールは最長1分間の動画も生成でき、近い将来、ハリウッド映画にも匹敵するほどの作品になるかもしれません。

インターネット上で本物と偽って表示されるディープフェイクの蔓延を防ぐための対策はほとんど講じられていません。OpenAIは、ChatGPTやDALL-E 3技術を用いて生成された画像に透かしを入れるなど、これらの問題を軽減するための対策をいくつか示しています。しかし、OpenAIはこれが「出所の問題に対処するための万能薬」ではないことを認めています。

億万長者でスクエアのCEOであるジャック・ドーシー氏はさらにこう述べた。

「見分けるのはほぼ不可能でしょう。まるでシミュレーションの中にいるような気分になるでしょう。すべてが人工的に作られたように見え、すべてが生産されたように見えるからです。自分の経験と直感を通して、必要だと感じるものを検証するために、考え方を変える、あるいは変えようと試みることが非常に重要です。」

Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。

X(旧Twitter)で共有されたドーシー氏の動画に反応した億万長者でXのオーナー、イーロン・マスク氏も同様の意見を述べたようだ。「私たちが既にそこにいないとどうして言えるだろうか?」とマスク氏は付け加えた。

ジャック・ドーシーは、今後5~10年で偽コンテンツが急増し、何が現実なのか分からなくなり、シミュレーションの中で生きているように感じるようになるだろうと述べている。pic.twitter.com/l1cStyFJmm 2024年6月23日

ドーシー氏はまた、従来は人間の脳が担っていたタスクをAIで自動化することについても言及した。そして、ほとんどの機能は複数のデバイスで利用できるため、「脳内でのつながりを構築する必要がなくなる」と付け加えた。

AI革命は目の前にあるが、それでも人間の手が必要なのだ

AIを監視するターミネーターのようなロボット

AIはより多くの仕事を担うようになりますが、ロボットらしさをなくすには依然として人間の手が必要なのです。(画像クレジット:Windows Central | Image Creator by Designer)

最近の調査では、AIが人間の仕事を奪いつつあると報告されています。ライターや編集者は、AIの波と、数秒で大量のテキストを生成できるCopilot AIやChatGPTといった強力なチャットボットの登場によって、悪影響を受けています。 

複数の出版物は、ライターの作業の一部を自動化することを決定しました。これは、本来であれば人件費に充てられるはずだったコストを削減するためです。しかし、これは期待通りには機能しておらず、Wikipediaでのランキングと評価に悪影響を与えています。この調査は、新たな傾向の出現を明らかにしています。出版物は、大量のテキストを読み、文法上の誤りを修正し、ロボットのような印象を軽減するためにライターを雇っていますが、その報酬は低いのです。

OpenAIは最近、テキスト、画像など様々なデータに対する推論機能を備えた、新たなフラッグシップモデルGPT-4oをリリースしました。このモデルが、従来のモデルと比較して、これらのタスクにおいてどのようなパフォーマンスを発揮するかは興味深いところです。既に人間のような会話が可能で、テキスト生成においても同様のことが言えるかもしれません。

ケビン・オケムワは、ケニアのナイロビを拠点とするベテランのテクノロジージャーナリストです。Windows Centralで業界の最新トレンドや動向を幅広く取材し、豊富な経験を有しています。イノベーションへの情熱と細部への鋭い洞察力を持つ彼は、OnMSFT、MakeUseOf、Windows Reportといった主要メディアに寄稿し、Microsoftエコシステムを取り巻くあらゆるトピックについて、洞察力に富んだ分析と最新ニュースを提供しています。常に変化するテクノロジーのトレンドを追っている暇な時は、世界を旅したり、音楽を聴いたりしています。