OpenAIのChatGPTはMicrosoft Azureでのみ可能だとMicrosoftは言う

新しいブログ投稿で、マイクロソフトは、OpenAI の特定の要求を満たすために拡張された大規模な Azure クラウドについて熱く語った。
数年前、マイクロソフトは人工知能研究の最先端を行くチーム、OpenAIと大規模な提携を結んだ。今となっては皮肉な社名かもしれないが、この企業はこのテクノロジー界の巨人と、いわば閉鎖的な提携関係を結んだ。この提携はAI開発競争を加速させ、ここ数週間、Google自身の拙速な取り組みが嘲笑の的となっている。Googleの検索市場における支配力に対する脅威は、同社がここ数十年に直面したことのないほどのものであり、マイクロソフトはこの機会を逃すつもりはない。
そのため、マイクロソフトは本日、ChatGPT やその他の OpenAI モデルは、OpenAI のニーズを満たすために急速かつ大規模に拡張された独自の Azure クラウドでのみ可能であると主張しました。
「大規模な変革型AIモデルの構築に必要なGPU、InfiniBandネットワーク、そして独自のAIインフラストラクチャを提供できるのはMicrosoft Azureだけです。だからこそ、OpenAIはMicrosoftとの提携を選択しました」と、MicrosoftのAIおよびクラウド担当エグゼクティブバイスプレジデント、スコット・ガスリー氏は述べています。「Azureはまさに今、大規模な変革型AIワークロードを開発・実行できる場所です。」
マイクロソフトは、AIの産業化における課題について議論しました。AIは、ここ数ヶ月で研究室での作業やニッチなユースケースから、大規模な商用化へと急速に進展しました。そのため、マイクロソフトのAzureハイパフォーマンスコンピューティング製品責任者であるニディ・チャペル氏は、AIモデルをより迅速にトレーニングできるものを構築する必要性について説明しました。「より大規模なモデルをより長期間トレーニングしたいという強い要望がありました。つまり、最大のインフラストラクチャが必要になるだけでなく、それを長期間にわたって確実に実行できる必要があります。」
そのために、マイクロソフトはNVIDIAと提携し、NVIDIA独自の400GB/秒のQuantum-2 Infinibandネットワーク技術を活用した数千基のNVIDIA A100 GPUを連携させました。これらのGPUが連携することで、膨大な量のデータを処理し、推論とコンテキストを生成することができます。これは、かつての低能なチャットボットを、今日のBing ChatやChatGPTで見られるような不気味なほど自然な応答へと進化させるために必要なデータです。
MicrosoftはAIファースト企業への変革を加速させており、OpenAIの技術をほぼすべての製品に統合しています。Word、Github、Visual Studioなど、同社が提供する多くのツールは、ワークフローの高速化と作業の簡素化を目的として、少なくとも何らかの形でAIを統合しています。
Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。
AIとその文明向上の可能性をめぐる期待は、雇用喪失、偽ニュースの質と拡散の加速、そしてあらゆる種類のサイバー犯罪における悪意ある行為者への加担といった懸念と隣り合わせです。あらゆる技術革命と同様に、勝者と敗者は存在しますが、マイクロソフトのAI技術がどれだけの勝者とどれだけの敗者を生み出すのかはまだ分かりません。AIは一般人の生活を向上させるのでしょうか、それとも単に不平等を助長するだけなのでしょうか。いずれにせよ、この産業技術における最新の実験は、勢いを失わずに続いています。
ジェズ・コーデンはWindows Centralのエグゼクティブエディターで、Xboxとゲーム関連のニュースを中心に取り上げています。ジェズは、お茶を飲みながら、Microsoftエコシステムに関する独占ニュースや分析を発信することで知られています。Twitter(X)でフォローして、XB2ポッドキャストもお聴きください。その名の通り、Xboxに関するポッドキャストです!