ChatGPTは3万基のNVIDIA GPUを必要とするかもしれない。PCゲーマーは心配すべきだろうか?

  • abmhh
  • 0 comments
ChatGPTは3万基のNVIDIA GPUを必要とするかもしれない。PCゲーマーは心配すべきだろうか?
NVIDIA A100 GPU
(画像提供:NVIDIA)

知っておくべきこと

  • 調査会社TrendForceのレポートによると、ChatGPTの動作には最大3万個のNVIDIA GPUが必要になるという。
  • これらの計算は、価格が 10,000 ドルから 15,000 ドルの NVIDIA A100 の処理能力に基づいています。
  • 非常に多くの GPU が ChatGPT の実行専用になっていることでゲーマーが影響を受けるかどうかは不明です。

ChatGPTは2022年末にテクノロジーシーンに突如として登場しました。今年1月には月間ユーザー数が1億人に達したと報じられています。翌月には、MicrosoftがChatGPTを搭載したBingの新バージョンを発表し、ユーザー数はさらに増加し​​ました。この技術がこれほど多くの関心を集め、実際に利用されていることを考えると、企業がChatGPTの人気から利益を得るのも当然と言えるでしょう。

調査会社TrendForceによると、NVIDIAはChatGPTによって最大3億ドルの収益を上げる可能性があるとのことです(Tom's Hardware経由)。この数字は、ChatGPTの動作には3万個のNVIDIA A100 GPUが必要だというTrendForceの分析に基づいています。NVIDIAが実際に得る収益は、OpenAIがどれだけのグラフィックカードを必要としているか、そしてNVIDIAが大量注文に対してOpenAIに割引を与えるかどうかによって決まります。

NVIDIA が ChatGPT を実行するためのグラフィック カード内のコンポーネントの配置を優先すると、他の GPU の可用性に影響する可能性があります。

ChatGPTは、ゲーミングPCに搭載されているGPUとは異なるタイプのGPUを使用しています。NVIDIA A100は10,000ドルから15,000ドルの価格で、ChatGPTがシステムに要求する負荷に対応するように設計されています。そのため、ChatGPTの動作にこれほど多くのA100 GPUが使用されていても、ゲーマーには影響がないと思われるかもしれませんが、必ずしもそうではありません。

世界的なチップ不足は、グラフィックカード全体の不足ではなく、チップ自体の不足によって引き起こされました。そのため、自動車メーカーとコンピューターグラフィックカードメーカーが同じ部品をめぐって競合するという奇妙な状況が発生しました。もちろん、テスラを除けばほとんどの車にはゲーミングGPUが搭載されていませんが、チップは製造業、コンピューティング、その他多くの業界で使用されています。

NVIDIA が ChatGPT を実行するためのグラフィック カード内のコンポーネントの配置を優先すると、他の GPU の可用性に影響する可能性があります。

これらすべてにかかわるもう一つの要因は、MicrosoftとOpenAIの最近のパートナーシップ延長です。ChatGPTはNVIDIA A100 GPU 3万基相当の処理能力を必要とする可能性がありますが、その処理能力はMicrosoft独自のAzureシステムの形で提供される可能性があります。そうなれば、ChatGPTの実行に必要な物理GPUの数は劇的に変化するでしょう。

Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。

ショーン・エンディコットはWindows Centralのテクノロジージャーナリストで、Windows、Microsoftソフトウェア、AI、PCを専門としています。Windows 10と11からChatGPTのようなAIツールの台頭まで、主要なリリースを取材してきました。ショーンのキャリアはLumia 930から始まり、アプリ開発者との強いつながりを築きました。執筆活動以外では、アメリカンフットボールのコーチも務めており、チームの運営にMicrosoftのサービスを活用しています。ノッティンガム・トレント大学で放送ジャーナリズムを学び、X(@SeanEndicott_)とThreads(@sean_endicott_)で活躍しています。