OpenAIの最新AIビデオは、米国大統領選挙を前にSoraへのアクセスを制限することが賢明だった理由を証明している。

知っておくべきこと
- OpenAI は、Sora モデルを紹介する 2 つのビデオを共有しました。
- Sora はテキストの指示に従ってリアルなビデオを作成できます。
- ビデオではソラの潜在能力が紹介されているが、不自然な瞬間や非現実的に見えるアーティファクトもいくつか含まれている。
- OpenAIは、この技術の潜在的なリスクを調査するため、Soraへのアクセスを限られた数のクリエイターに限定した。
OpenAIは今年初めにSoraモデルを発表しました。このAIツールは、テキストプロンプトに従わせることで、ほぼリアルな動画を生成できます。Soraで作成されたコンテンツにはまだ明らかな問題がいくつかあるものの、生成された動画の多くは説得力があります。OpenAIは、技術の進歩を示すため、YouTubeで2本の「Soraショーケース」動画を公開しました。
どちらの動画も、ソラの可能性を示すことを目的としたプロのクリエイターによって制作されました。1つはシンガポールのアーティスト、Niceauntiesが、もう1つはイギリス出身の韓国人アーティスト、David Sheldrickが制作しました。
芸術は主観的なものなので、動画の内容について分析する価値はないと思います。私は芸術家ではないので、内容の背後にある深い意味について議論してもあまり意味がありません。その代わりに、動画のリアリティについてお話ししたいと思います。Niceauntiesの動画には、特に一目見ただけで印象的な静止画がたくさんあります。卵、時計、調理器具など、人間ではない物体も、いくつかのショットではまるで生きているかのように見えます。
よくあることですが、人間や動きの再現はより困難です。動画に登場する非現実的な人物の一部は、おそらくスタイル上の選択によるものでしょうが、ぎこちない映像のすべてがクリエイティブな判断によるものだとは思えません。
シェルドリックの動画も同様の傾向を示しており、動きの少ない静止画やクリップは、人物が動き回る長時間の動画よりもはるかにリアルに見えます。特に腕や手は、動画のいくつかの場面で非現実的に見えます。繰り返しますが、これらのアーティファクトはすべてクリエイティブな判断によるものではないと思います。
SORAはまだ比較的新しいので、完璧を求めるのは無理があるでしょう。これらの動画にこれほど多くの動きがあるという事実は、クリエイターたちがAIの限界に挑戦する意欲を持っていることを示しています。AIモデルのトレーニングをさらに進め、クリエイターによるプロンプトの改良をさらに進めれば、近い将来、このような動画がまるで生きているかのようなリアルさを見せるようになる可能性は非常に高いでしょう。
AIへのアクセスを制限する
生成型AIは素晴らしい技術である一方で、多くの懸念も抱かせています。技術が進歩するにつれて、AIが仕事を奪う可能性もあるでしょう。また、AIは大量の水と電力を消費するため、環境問題への懸念もあります。しかし、これらの懸念がすべて満たされた仮想の世界であっても、AIは依然として倫理的な問題を提起します。
Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。
思い浮かぶものをいくつか挙げると、次のとおりです。
- テイラー・スウィフトや他の有名人の下品な画像を作成しても大丈夫ですか?
- ディープフェイクに関してどのような法律を制定すべきでしょうか?
- 合意のないディープフェイクポルノの作成と拡散を阻止するにはどうすればよいでしょうか?
- 誤った情報から人々をどのように守るのでしょうか?
理想的な状況で動作している場合でも、現状のAIは幻覚を起こしやすく、不正確な回答を共有する傾向があります。GoogleのAIは、Googleが死んだと発言し、石を食べることを推奨し、落ち込んでいる場合は自殺を勧めました。これは5月の出来事で、当時はAIの技術はまだ比較的新しいものでしたが、一般消費者の手にはまだ届いていました。私が主張したいのは、AIの出力は文脈の中で捉えられるべきであり、AIの長期的な健全性のためには、ある程度の制限が不可欠だということです。
アメリカ大統領選が大きな話題となっている今、ソラのようなモデルが限られたユーザーだけに利用されていること、そして数年後には誰でもマウスを数回クリックするだけで説得力のあるフェイク動画を作れるようになるだろうということに感謝したい。その日は近いとは思うが、まだそこまでには至っていない。
政治はしばしば人々の最悪の部分を露呈させます。ソーシャルメディアでは、明らかに不正確と思われる虚偽の主張でさえ、既に誤情報が拡散しています。政治の激しい感情がソーシャルメディアの拡散力、そして瞬時に説得力のある偽動画を作成できる能力と組み合わさると、悪夢のようなシナリオが生まれる可能性があります。
AIが偽情報の拡散に利用される事例は既に見受けられます。悪意のある行為者がより多くのツールを与えられ、制御不能な状態に放置されれば、より大きな被害をもたらす可能性があります。マイクロソフトは米国大統領選挙期間中、人々をAIから守る計画を立てていますが、犯罪者や悪意のある行為者には、法律や保護策がしばしば影を潜めているように思います。
OpenAIがSoraへのアクセスを制限したのは賢明でした。AIモデルを使って動画コンテンツを作成できるようになるには、より厳格なガードレールを設ける必要があります。他にも利用可能なモデルがあることは承知していますが、OpenAIの決定は高く評価されるべきです。
ショーン・エンディコットはWindows Centralのテクノロジージャーナリストで、Windows、Microsoftソフトウェア、AI、PCを専門としています。Windows 10と11からChatGPTのようなAIツールの台頭まで、主要なリリースを取材してきました。ショーンのキャリアはLumia 930から始まり、アプリ開発者との強いつながりを築きました。執筆活動以外では、アメリカンフットボールのコーチも務めており、チームの運営にMicrosoftのサービスを活用しています。ノッティンガム・トレント大学で放送ジャーナリズムを学び、X(@SeanEndicott_)とThreads(@sean_endicott_)で活躍しています。