元OpenAI研究者は、AGIは2027年までに実現可能だと述べているが、派手な製品がセキュリティよりも優先されることを嘆いている。

  • abmhh
  • 0 comments
元OpenAI研究者は、AGIは2027年までに実現可能だと述べているが、派手な製品がセキュリティよりも優先されることを嘆いている。
ChatGPTのプライバシー設定
(画像提供:Future)

知っておくべきこと

  • 元 OpenAI 研究者が、AI の進歩と成長、セキュリティ上の課題などを概説した 165 ページのレポートを公開しました。
  • 論文では、OpenAI が 2027 年までに汎用人工知能 (AGI) を実現できる可能性があると示唆しているが、電力供給と GPU の需要増加がベンチマークに大きな脅威をもたらしている。
  • 著者によれば、この技術とその進歩が将来にどのような影響を与えるかについて状況認識を持っているのは、わずか数百人だけだという。 

ジェネレーティブAIは、現在テクノロジー業界において大きな注目を集めています。マイクロソフトのような企業は、AIによって時価総額3兆ドルを超える世界で最も価値のある企業へと成長しました。市場アナリストは、この急成長の要因として、レドモンドの巨大企業がこの技術をいち早く導入し、リードしてきたことを挙げています。NVIDIAでさえ、AIの進歩を支えるGPUの需要の高さから、最近Appleを追い抜いて世界第2位の企業価値となり、AIでiPhoneのような成功を収めようとしています。

マイクロソフトとOpenAIは、AIに多額の投資を行っているトップクラスのテクノロジー企業と言えるでしょう。しかし、両社の提携は論争を巻き起こしており、関係者はマイクロソフトが「注目のスタートアップ企業の誇張されたIT部門」と化していると指摘しています。一方、億万長者のイーロン・マスク氏は、OpenAIはマイクロソフトのクローズドソースの事実上の子会社に変貌したようだと述べています。

両社のパートナーシップが複雑であることは周知の事実であり、OpenAIを巡る最近の論争は状況をさらに悪化させています。GPT-4oのリリース後、少数の上級管理職がOpenAIを去りました。彼らの退職理由は依然として不明瞭ですが、元スーパーアライメントリーダーのJan Leike氏は、同社におけるAIの進歩の方向性を懸念していると示唆しました。さらに、同社はセキュリティとプライバシーを後回しにして、派手な製品の開発を優先しているようだと述べました。

そのため、今後数年間のAIの軌跡を予測することは不可能ですが、NVIDIAのCEOであるジェンスン・フアン氏は、私たちはまさに次のAIの波に遭遇しようとしていると示唆しています。さらに、フアン氏は、ロボット工学が次の大きな潮流であり、自動運転車とヒューマノイドロボットがこの分野を席巻すると述べています。

しかし、最近 AI、セキュリティなどの急速な成長と導入を強調した 165 ページのレポートを発表した OpenAI の元研究者によると、今のところ、私たちは将来に何が待ち受けているのかについて少し洞察を得ているようです (Business Insider 経由)。 

レオポルド・アッシェンブレンナー氏はOpenAIのスーパーアライメントチームの研究者として働いていましたが、汎用人工知能(AI)への同社の準備状況に関する重要な情報を漏洩したとして解雇されました。しかしアッシェンブレンナー氏は、自分が漏洩した情報は公開情報に基づいていたため「全く問題ない」と述べています。彼は、OpenAIは単に彼を排除する方法を探していたのではないかと疑っています。

この研究者は、昨年取締役会によって解任されたサム・アルトマン氏のCEO復帰を求める書簡への署名を拒否したOpenAI従業員の一人です。アッシェンブレナー氏は、これが解任の一因となったと考えています。これは、OpenAIの元取締役が、CEOからの精神的虐待を訴えて取締役会に連絡を取り、社内の有害な雰囲気の一因となっていたと主張した後に起こりました。元取締役はまた、アルトマン氏のCEO復帰を必ずしも支持していなかったOpenAI従業員が、報復として「恐れられた」ため書簡に署名したと示唆しました。

Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。

OpenAIは予想よりも早くスーパーインテリジェンスのベンチマークに到達するかもしれない

OpenAIロゴ

(画像クレジット:OpenAI)

アシェンブレナー氏の報告書によると、AIの進歩は上昇軌道を辿るだろう。サム・アルトマンCEOがスーパーインテリジェンスに強い関心を持っていることは、インタビューでこのテーマについて熱く語ることからも明らかだ。1月、アルトマンCEOはOpenAIがこの驚異的な偉業の実現につながる可能性のある技術革新を積極的に模索していることを認めた。しかし、その追求において、同社が急進的な軌道を辿っているのか、それとも漸進的な軌道を辿っているのかについては明らかにしなかった。

ご存知の通り、超知能とは人間の推論能力を凌駕する認知能力を持つシステムのことです。しかし、この基準とそれが人類に及ぼす影響について懸念が高まっています。あるAI研究者は、p(doom)によると、超知能は人類を滅ぼす可能性が99.9%あると発表しました。この結末を避ける唯一の方法は、そもそもAIの開発をやめることです。興味深いことに、サム・アルトマン氏はAIの進歩を止めるための大きな赤いボタンは存在しないと認めています。

GPT-4oのような、テキスト、音声など様々なデータから推論する能力を備えた新たなフラッグシップAIモデルの登場により、AIの進化はすぐには止まらないようです。計算能力とアルゴリズムの効率性の向上傾向は、AIが今後も急速な成長を続けることを示しています。しかしながら、電力供給に関する深刻な懸念もあり、OpenAIは近い将来、核融合を現実的な代替手段として検討しています。 

アシェンブレンナー氏は、AI開発は2027年までに飛躍的に発展し、人間のAI研究者やエンジニアの能力を超える可能性があると述べています。これらの予測は完全に突飛なものではなく、GPT-4(せいぜい少し恥ずかしいと言われる程度)は、定性データにアクセスすることなく将来の収益動向を予測する点で、既にプロのアナリストや高度なAIモデルを凌駕しています。マイクロソフトのCTOであるケビン・スコット氏も同様の見解を示し、新しいAIモデルは博士号取得のための適性試験に合格できると予測しています。 

このレポートはまた、より多くの企業がAI開発に参入し、データセンターやGPUなど、AIの進歩を支えるシステムの開発に数兆ドル規模の投資を行うと示唆しています。これは、MicrosoftとOpenAIが、GPUにおけるNVIDIAへの過度な依存から脱却するため、「Stargate」と呼ばれるプロジェクトに1,000億ドル以上を投資するとの報道が続く中での出来事です。

AIが進歩する中、セキュリティ、プライバシー、規制は依然として重要な優先事項である

サティア・ナデラとサム・アルトマンが OpenAI Dev Day に出席

(画像クレジット:OpenAI)

AIは最終的に人間よりも賢くなり、人間の仕事を奪い、仕事が趣味になってしまうという報告があります。これが人類に及ぼす影響について、懸念が高まっています。OpenAIのCEO、サム・アルトマン氏でさえ、AIの進歩が安全であり、航空会社のように規制され、「壊滅的な結果」を回避するための独立した国際機関が必要だと考えています。

おそらくもっと興味深いのは、アシェンブレナー氏の報告書が、AIが未来に与える影響を理解している人がわずか数百人しかいないことを示唆している点だ。彼はさらに、そのほとんどがサンフランシスコのAIラボ(おそらくOpenAIのスタッフのことを指している)で働いていると付け加えた。

ケビン・オケムワは、ケニアのナイロビを拠点とするベテランのテクノロジージャーナリストです。Windows Centralで業界の最新トレンドや動向を幅広く取材し、豊富な経験を有しています。イノベーションへの情熱と細部への鋭い洞察力を持つ彼は、OnMSFT、MakeUseOf、Windows Reportといった主要メディアに寄稿し、Microsoftエコシステムを取り巻くあらゆるトピックについて、洞察力に富んだ分析と最新ニュースを提供しています。常に変化するテクノロジーのトレンドを追っている暇な時は、世界を旅したり、音楽を聴いたりしています。