インテルは、Microsoft Copilotをローカルで実行できるようになるなど、AI PCがユーザーに提供する特典について説明しています。

知っておくべきこと
- インテルは今週、台北で開発者向けの AI サミットを開催しました。
- イベント中、インテルは、Microsoft Copilot が近い将来 AI PC 上でローカルに実行されるようになると説明しました。
- PC 上のローカル AI サービスへの移行は、Intel Core Ultra プロセッサーなどの AI 対応 CPU によって可能になりました。
- Intel は、Copilot などの AI サービスをローカルで実行できることの利点として、コスト削減、パフォーマンスの信頼性、プライバシー (個人データと組織データ)、パーソナライゼーション機能の向上などを挙げました。
- カンファレンスで、Intel は AI ソフトウェア開発を支援することを目的とした Core Ultra NUC 開発キットについて説明しました。
今週、台湾の台北で数千人の開発者がIntel AI Summitに集まりました。私もこのイベントに参加することができました。Intelは、開発者のAIソフトウェア開発を支援するため、Intel Core UIを搭載したNUC開発キットについて説明しました。その後、Intel幹部との質疑応答の中で、Microsoft Copilotが、現在のクラウド経由ではなく、AI PC上でローカルに動作できるようになることを知りました。これは以前から噂されていましたが、確認されていませんでした。Intelのクライアントコンピューティンググループ担当副社長であるトッド・ルウェレン氏は、Copilotサービスの特定の機能は、AI PC上で正常に動作するために、依然としてクラウドアクセスが必要になる可能性があることを明らかにしました。
「次世代に移行すると、より多くのものをローカルで実行できるようになります」とルウェリン氏は述べた。「Copilotのより多くの要素がクライアント上でローカルに実行されるのと同じように。Copilotのすべてがローカルで実行されるという意味ではありませんが、NPUで実行されることで多くの重要な機能が利用できるようになります。私たちは現在Core Ultraからスタートしていますが、次世代へと移行していく中で、マイクロソフトと肩を並べていくつもりです。」
当然のことながら、Intel と Microsoft は AI PC の特徴と最高のユーザー エクスペリエンスを提供する方法について話し合うために会合を重ねてきました。
「ここ3ヶ月、AI搭載PCに関してマイクロソフトと非常に緊密な連携をとってきたと言えるでしょう」とルウェリン氏は述べた。「インテルでは、AI搭載PCとはNPUを統合したUltraだと考えています。もしマイクロソフトが今私と一緒に座っていたら、『トッド、その通りだ。だが、それには他に2つの機能がある。CopilotとCopilotキーだ。この3つだ』と言うだろう」
マイクロソフトが以前、AI搭載PCキーボードに新しいCopilotキーが搭載されると発表したことを覚えている方もいるかもしれません。これは、新しいDell XPSノートパソコン(Dell XPS 14のレビューをご覧ください)、ASUS Zenbook、そして新たに発表されたSurface ProとSurface Laptopなどで既に確認されています。今年も引き続き、AI搭載PCが続々と登場する予定です。
さて、話をIntelに戻しましょう。ご存知の方もいらっしゃると思いますが、Intel Core Ultraプロセッサ(Meteor Lakeとも呼ばれます)は、PCの動作を従来よりもはるかに高速化します。これは、従来のCPUとGPUに加えて、ニューラル・プロセッシング・ユニット(NPU)を搭載しているためです。詳しくは私のNPUガイドをご覧ください。要点は、NPUは特定のAIおよび機械学習(ML)タスクを処理するように特別に設計されており、CPUとGPUの負荷を軽減することで、より効率的に動作できるようにするということです。そのため、システム全体の処理能力が向上します。
また別の話ですが、AIタスクをGPUではなくNPUに割り当てると、システム全体のバッテリー寿命が向上することが判明しました。Lewellyn氏の説明によると、IntelはAIサービスをPC上でローカルに実行するための最良の方法についてMicrosoftと頻繁に協議しており、バッテリー寿命の延長はその協議の重要なポイントでした。
Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。
「昨年、マイクロソフトと長い議論を重ねてきました」とルウェリン氏は語る。「『なぜGPUで実行できないのか?』と。マイクロソフトは『だめだ、だめだ。GPUとCPUを他の作業に使えるようにしたい。でも同時に、バッテリー駆動時間も長くしたい。CopilotなどのワークロードをGPUで実行すれば、バッテリー駆動時間に大きな影響が出るのは目に見えている」
「つまり、適切なワークフローマップを適切なプロセッサに割り当てなければならないのです。私たちはマイクロソフトと協力してこれを行っていますが、ISV(独立系ソフトウェアベンダー)とも協力しています。」
AI PCとCopilotをローカルで実行することに注目すべき理由
しかし、なぜAI PCとCopilotをローカルで動作させることに注目すべきなのでしょうか?Intel AI Summitのオープニング基調講演で、コンピュータービジョン・ソフトウェア・エンジニアのJamie Chang氏は、クラウドベースのAIサービスからローカルAI運用への移行による5つの主なメリットを説明しました。具体的には、コスト削減、パフォーマンスの信頼性向上、個人データと組織データの両方におけるプライバシーの強化、そしてパーソナライゼーションオプションの追加を挙げました。
これらはすべて非常に良い点ですが、AI PCの将来について考えていたところ、いくつか追加の点が思い浮かびました。例えば、CopilotのようなAIサービスをローカルで実行できるようになると、最終的にはラップトップで特定のAIやMLタスクを実行する際にインターネット接続を使用する必要がなくなるかもしれません。外出先で信頼できるWi-Fiが利用できない状況で、ラップトップで特定のAIサービスにアクセスしたいのに、帰宅するまで待たなければならないことが何度もありました。Copilotをローカルで実行できるようになれば、外出先でのAIやMLタスクの実行に間違いなく役立つでしょう。
2つ目の考えは、Intelのパフォーマンスにおける信頼性に関する指摘をさらに詳しく検証するものです。現状では、Copilotはクラウドベースであるため、ユーザーはサービスがプロンプトを処理し、応答を生成するまで待つ必要があります。この作業は遠隔地のサーバーで行われるため、遅延の問題が頻繁に発生し、ユーザーエクスペリエンスが損なわれたり阻害されたりする可能性があります。そのため、ローカルコンピューターで作業することで、インターネットに依存せず、よりスムーズで高速な応答を実現できる可能性があります。
Intel AI Summitに参加して、IntelとMicrosoftの両社がAI PCとAIサービスの将来を計画する際に、優れたユーザーエクスペリエンスの創出に注力していることが明らかになりました。デバイス上でMLやAIタスクをローカルに実行できるようになれば、ノートパソコンの使い勝手が今よりはるかに向上する可能性があり、これは私が期待している未来の一面です。
自称ゲームオタクのレベッカ・スピアは、Windows Centralの編集者兼レビュアーの一人。ゲーミングハンドヘルド、ミニPC、PCゲーミング、ノートパソコンなどを専門に扱っています。Xbox Game Pass、PC、ROG Ally、Steam Deckで最新ゲームをチェックしていない時は、ワコムタブレットでデジタルイラストを描いています。ここ数年、論説、レビュー、プレビュー、特集記事、プレビュー、ハードウェアレビューなど、数千もの記事を執筆しています。ゲーム関連の情報をお探しなら、彼女の記事がきっと役に立ちます。また、ゲームアクセサリや最新のテクノロジーのテストも大好きです。X(旧Twitter)で@rrspearをフォローできます。