AI 界の新星である DeepSeek は、業界大手に匹敵する強力な言語モデルで話題を呼んでいます。 DeepSeek には Web サイトやモバイル アプリを通じてアクセスできますが、これらのモデルを Windows PC 上でローカルに実行すると、明確な利点が得られます。このガイドでは、DeepSeek R1 および V3 を自分のマシンにインストールして使用するプロセスを説明し、AI インタラクションの制御とプライバシーを強化します。
DeepSeek R1 は、複雑な問題解決タスクに優れた推論に重点を置いたモデルです。 Windows システムで実行する方法は次のとおりです。
オラマをインストールする
ステップ 1:オラマのウェブサイトにアクセスしてください (https://ollama.com/) を選択し、Windows インストーラーをダウンロードします。ファイルを実行し、画面上のプロンプトに従ってインストールを完了します。
ステップ 2:Ollama がインストールされたら、Ollama Web サイトに戻り、「モデル」タブに移動します。
DeepSeek R1 モデルを選択してインストールする
ステップ 1:「モデル」セクションで、DeepSeek-R1 オプションを見つけます。さまざまなサイズが利用可能です (1.5b、7b、8b、14b など)。コンピューターの機能に最適なモデルを選択してください。ほとんどのユーザーには、1.5b または 7b バージョンから始めることをお勧めします。
ステップ 2:選択したモデルのインストール コマンドをコピーします。たとえば、1.5b バージョンをインストールするには、コマンドは次のようになります。
ollama run deepseek-r1:1.5bステップ 3:Windows PC でコマンド プロンプトを開きます。コピーしたコマンドを貼り付けて Enter キーを押します。インストールプロセスが開始されますが、インターネット速度とモデルのサイズによっては時間がかかる場合があります。
DeepSeek R1 の実行
ステップ 1:インストールが完了すると、コマンド プロンプトで直接 DeepSeek R1 の使用を開始できます。インストールに使用したのと同じコマンドを実行するだけです。
ollama run deepseek-r1:1.5bステップ 2:コマンド プロンプトにクエリまたはプロンプトを入力することで、DeepSeek R1 モデルを操作できるようになりました。
もっと詳しく知る:Windows 11 から DeepSeek モデルをアンインストールする 2 つの方法
コマンド プロンプトから DeepSeek R1 を使用するのは簡単ですが、チャット履歴は保存されません。継続的な会話でよりユーザー フレンドリーなエクスペリエンスを得るには、グラフィカル インターフェイスをセットアップすることをお勧めします。
DeepSeek R1 のユーザー インターフェイスのセットアップ
DeepSeek R1 のグラフィカル インターフェイスを追加するには、主に 2 つの方法があります。
方法 1: チャットボックス AI を使用する
ステップ 1:Chatbox AI を公式 Web サイトからダウンロードしてインストールします (https://chatboxai.app/en).
ステップ 2:Chatbox AI を起動し、その設定に移動します。
ステップ 3:「モデル」タブで「DeepSeek API」を選択します。
ステップ 4:DeepSeek API キーを入力する必要があります。 DeepSeek API ドキュメント ページ (https://api-docs.deepseek.com/) キーを取得します。
ステップ5:Chatbox AI に API キーを入力し、変更を保存します。このインターフェイスを通じて DeepSeek R1 を使用できるようになりました。
方法 2: Docker を使用する
ステップ 1:Docker の公式 Web サイトから Windows 用 Docker Desktop をダウンロードしてインストールします。
ステップ 2:Docker アカウントをまだお持ちでない場合は作成します。
ステップ 3:Docker Desktop を起動してサインインします。
ステップ 4:コマンド プロンプトを開き、次のコマンドを実行して DeepSeek Web UI をセットアップします。
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:mainステップ5:コマンドが完了したら、Docker Desktop を開き、「コンテナー」セクションに移動します。ポート番号 3000:8080 の新しいコンテナが表示されるはずです。
ステップ6:Docker Desktop でポート番号 3000:8080 をクリックします。これにより、デフォルトの Web ブラウザにアドレス localhost:3000 の新しいタブが開きます。
ステップ 7:名前、電子メール、パスワードを入力して、このローカル Web インターフェイスでアカウントをセットアップします。これらの詳細は、DeepSeek R1 をローカルで使用するたびに必要になるため、覚えておいてください。
この Web インターフェイスを通じて DeepSeek R1 を使用するには、Ollama と Docker の両方がバックグラウンドで実行されていることを確認してください。最初に Ollama を起動し、次に Docker を起動し、Web ブラウザで localhost:3000 にアクセスする前に、関連するコンテナが Docker で実行されていることを確認します。
DeepSeek V3 をローカルにインストールして実行する
DeepSeek V3 は、多彩な AI 機能を提供する高度な専門家混合 (MoE) 言語モデルです。 Windows PC でのセットアップ方法は次のとおりです。
ステップ 1:Python の公式 Web サイトから Python 3.9 をインストールします。インストール中に、Python をシステム PATH に追加するオプションを必ずチェックしてください。
ステップ 2:Git をインストールする場所git-scm.com。インストール後、コマンド プロンプトを開いて次のように入力して、動作していることを確認します。
git --versionステップ 3:NVIDIA GPU を使用している場合は、次のサイトから CUDA Toolkit バージョン 11.8 をダウンロードしてインストールします。developer.nvidia.com.
ステップ 4:コマンド プロンプトを開き、次のコマンドを実行して DeepSeek V3 環境をセットアップします。
git clone https://github.com/khanfar/DeepSeek-Windows.git
cd DeepSeek-Windows
python -m venv venv
venvScriptsactivateステップ5:PyTorch とその他の必要なパッケージをインストールします。
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
pip install -r requirements.txtステップ6:DeepSeek V3 モデルの重みをダウンロードします。
python download_model.pyステップ 7:DeepSeek V3 サーバーを起動します。
python windows_server.py --model model_weights_bf16 --trust-remote-codeステップ8:新しいコマンド プロンプト ウィンドウでモデルをテストします。
python test_client.pyDeepSeek V3 サーバーにアクセスできるようになりました。https://127.0.0.1:30000.
DeepSeek モデルをローカルで実行すると、Windows PC 上で強力な AI 機能が得られます。いくつかのセットアップが必要ですが、プライバシーとオフライン アクセスの利点により、多くのユーザーにとって価値があります。コンピューターの機能に最適なモデル サイズを選択して、クラウド サービスに依存せずに AI の世界を探索してください。











![Microsoftチームでオフィスを出す方法[デスクトップ&モバイル]](https://elsefix.com/tech/alice/wp-content/uploads/cache/2025/09/Teams-set-up-out-of-office.png)



