OpenAIはCEOサム・アルトマンが率いる新しい安全チームを結成し、新しいAIモデル(おそらくGPT-5)をテストしていることを発表した。

知っておくべきこと
- OpenAI はスーパーアライメント チームが解散した後、新しい安全チームを立ち上げました。
- 新しいチームは、OpenAI の技術的進歩が重要な安全性とセキュリティの基準を満たすことを確実にすることに重点を置きます。
- OpenAIは、新しいAIモデルがテスト段階にあると発表したが、どのモデルか、いつ広く利用可能になるかは明確に示さなかった。
OpenAIは、安全対策よりも「派手な製品」を優先したことなど、複数のメンバーが離脱した後、スーパーアライメントチームを解散したと思われていた。しかし、同社は新たな安全チームを結成し、CEOのサム・アルトマン氏を筆頭に、アダム・ダンジェロ氏とニコール・セリグマン氏(OpenAIの取締役も兼任)がチームを率いている。
安全チームの任務は、OpenAIのAI分野における技術進歩が重要な安全性とセキュリティ基準を満たすことを保証することです。チームは「OpenAIのプロセスと安全対策を評価し、さらに発展させること」を任務としています。
その結果、チームはその発見をOpenAIの理事会に提示します。理事会は調査結果を分析した後、結論を導き出し、安全チームによる安全に関する推奨事項を最も効果的に実施する方法を強調します。
ChatGPTの開発元である同社は、新しいAIモデルのテスト段階にあることも確認した。しかし、それが「非常に優れた、つまり実質的に優れた」GPT-5モデル(もしそう呼ばれるのであれば)であるかどうかについては言及しなかった。
光沢のある製品よりも安全性を優先しますか?
OpenAIは、推論機能を備えた新たな主力モデルGPT-4oをリリースした直後、複数のトップ幹部を退社した。この注目のスタートアップを去った従業員のほとんどは、アライメント部門を率いていたJan Leike氏を含め、同社のスーパーアライメントチームのメンバーだった。
ライケ氏は、同社が「人間よりも賢いAIシステムをどのように操縦し、制御するか」を研究するのに世界最高の場所だと考えたため、入社したと述べた。しかし、セキュリティ、監視、準備、安全性、敵対的耐性、(スーパー)アライメント、機密性、社会への影響など、次世代モデルの中核となる優先事項について、ライケ氏は経営陣と常に意見が対立していた。
元調整責任者によると、OpenAIは提起された問題の一部に対処するのが難しく、会社が正しい方向に進んでいないと感じていたという。むしろ、同社は「派手な製品」に注力し、安全文化やプロセスは後回しにされているように見えた。
Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。
@AnthropicAI に参加してスーパーアライメントのミッションを継続できることに興奮しています!新しいチームでは、スケーラブルな監視、弱から強への一般化、自動アライメントの研究に取り組みます。参加にご興味のある方は、DM をお待ちしています。2024 年 5 月 28 日
一方、OpenAIの元アライメント責任者であるJan Leike氏は最近、AmazonのAnthropic AIに加わり、スーパーアライメントのミッションを継続すると発表した。Leike氏は特に、「スケーラブルな監視、弱から強への一般化、そして自動アライメント研究」に注力する。
ケビン・オケムワは、ケニアのナイロビを拠点とするベテランのテクノロジージャーナリストです。Windows Centralで業界の最新トレンドや動向を幅広く取材し、豊富な経験を有しています。イノベーションへの情熱と細部への鋭い洞察力を持つ彼は、OnMSFT、MakeUseOf、Windows Reportといった主要メディアに寄稿し、Microsoftエコシステムを取り巻くあらゆるトピックについて、洞察力に富んだ分析と最新ニュースを提供しています。常に変化するテクノロジーのトレンドを追っている暇な時は、世界を旅したり、音楽を聴いたりしています。