OllamaをインストールしてWindows 11 PCでローカルにAI LLMを実行する方法

  • abmhh
  • 0 comments
OllamaをインストールしてWindows 11 PCでローカルにAI LLMを実行する方法
Ollama が Razer Blade 18 で Gemma3:12b モデルを実行しています。
Ollamaは、Windows PCだけでなく、WSL、Mac、Linuxマシン上のローカルLLMと連携できる使いやすいツールです。 (画像提供: Windows Central)

現在、私たちのほとんどがAIと最も頻繁にやり取りするのは、ChatGPTやCopilotといったクラウドベースのツールです。これらのツールを使用するにはインターネット接続が必要ですが、その代わりに、基本的にあらゆるデバイスで使用できます。

しかし、AIの利用にクラウドに依存したいと考えている人は必ずしも多くありません。特に開発者はそうでしょう。そのため、LLMをローカルマシン上で実行したいと考えるでしょう。そこでOllamaの出番です。

Ollamaは、PC上で幅広いLLMをネイティブに実行できる推論ツールです。これが唯一の方法ではありませんが、最もシンプルな方法の一つです。

Ollamaを起動して使い始めると、Ollamaとそれを介して使用するLLMを使って様々なことができるようになりますが、まずはセットアップが重要です。それでは、その手順を順に見ていきましょう。

Ollamaを実行するために必要なもの

LinuxのOllamaが私に物語を語ってくれと頼まれる

Ollamaは、低スペックのハードウェアでもAI LLMへのアクセスを提供します。(画像提供:Windows Central)

Ollamaの実行自体はそれほど面倒ではなく、幅広いハードウェアで実行できます。Windows 11、macOS、Linuxと互換性があり、WSL経由でWindows 11内でLinuxディストリビューションからも使用できます。

より強力なハードウェアが必要になるのは、LLMを実行する部分です。モデルが大きくなるほど、より多くの処理能力が必要になります。モデルの実行にはGPUが必要ですが、現時点では新しいCopilot+ PCのNPUでの実行には最適化されていません。

基本的に、少なくとも 8GB の RAM と専用 GPU を搭載した比較的新しい PC をお持ちであれば、Ollama を使用してある程度の性能を得られるはずです。

Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。

専用GPUをお持ちでなくてもOllamaは使用できますが、CPUとRAMが活用されます。つまり、専用GPUと同じパフォーマンスは得られませんが、それでも動作します。

同じルールが適用されます。ローカルLLMを使用する場合、メモリは非常に重要です。メモリが十分であれば、より大きなモデルを実行できます。また、ラップトップCPUでも1b、3b、4bのモデルを問題なく使用できます。

Windows 11にOllamaをインストールする方法

Windows 11 で Ollama アプリを使用して、さまざまな種類のファイルを解釈します。

Ollamaはバックグラウンドで動作しますが、LLMを操作するためにターミナルを使用する必要がなくなる公式GUIアプリケーションも搭載されています。(画像提供: Windows Central)

Windows 11 に Ollama をインストールするのは、Web サイト (または GitHub リポジトリ) からインストーラーをダウンロードしてインストールするだけです。

文字通りそれだけです。

インストールして起動すると、デスクトップには何も表示されません。完全にバックグラウンドで実行されますが、タスクバーにアイコンが表示されます。

また、 Web ブラウザでlocalhost:11434に移動して、正常に実行されていることを確認することもできます。

Ollama に最初の LLM をインストールして実行する

Windows 11 上の Ollama で 10 億パラメータの Gemma 3 モデルを取得します。

OllamaのCLIインターフェースを使えば、1つのコマンドでさまざまなモデルを取得できます。(画像提供:Windows Central)

Ollamaには現在、CLI(コマンドラインインターフェース)とGUIインターフェースの両方が搭載されています。ただし、GUIアプリはまだ非常に基本的な機能しか備えていないため、Ollamaを最大限に活用するには、PowerShellまたはWSLのいずれかに慣れておくことが不可欠です。

より高度なサードパーティ製のオプションも利用できます。最も簡単なのは、Ollamaで使用できる完全なウェブアプリを起動するブラウザ拡張機能「Page Assist」です。より人気がありますが、インストールが少し難しいのが「OpenWebUI」です。

知っておくべきターミナルの主なコマンドは次の 2 つです。

ollama pull <llm name> ollama run <llm name> 

Ollamaに現在インストールされていないLLMを実行させる場合、Ollamaは賢くそれを取得してから実行します。必要なのは、インストールしたいLLMの正しい名前だけです。正しい名前はOllamaのウェブサイトで簡単に入手できます。

たとえば、10 億のパラメータを持つ Google Gemma 3 LLM をインストールする場合は、次のように入力します。

ollama pull gemma3:1b 

名前の後に「:1b」を追加することで、10億パラメータのモデルを指定することになります。40億パラメータのモデルが必要な場合は、「:4b」に変更します。

ターミナルでモデルを実行すると、使い慣れたチャットボット体験が実現します。プロンプトを入力して応答を受け取ることができます。すべてローカルマシン上で実行されます。実行速度を確認したい場合は、起動時に--verboseタグを追加してください。

モデルを終了して PowerShell に戻るには、「/bye」と入力するだけで終了します。

あるいは、Ollama GUIを起動してすぐに使い始めることもできます。ドロップダウンボックスでモデルを検索し、「こんにちは」などの簡単なメッセージを入力すると、新しいモデルが自動的に取得されます。

Page Assist と OpenWebUI には、より高度なモデル管理ツールがあり、モデルの検索、取得、削除を簡単に行うことができます。


OllamaをPCにインストールして、利用可能なLLMのホストを使用するための基本的な手順はこれで説明しました。基本的な操作は非常にシンプルで使いやすく、セットアップに技術的な知識はほとんど必要ありません。私にできるのなら、あなたにもできるはずです!

リチャード・ディバインは、10年以上の経験を持つWindows Centralの編集長です。元プロジェクトマネージャーであり、長年のテクノロジー愛好家でもある彼は、2011年にMobile Nationsに入社し、Windows Centralに加え、Android CentralやiMoreでも活躍しています。現在は、このサイトであらゆる種類のPCハードウェアとレビューの取材を担当しています。Mastodonでは、mstdn.social/@richdevine でフォローできます。