Como executar modelos DeepSeek AI localmente no Windows

DeepSeek, uma estrela em ascensão no mundo da IA, fez sucesso com seus poderosos modelos de linguagem que rivalizam com os gigantes da indústria. Embora você possa acessar o DeepSeek por meio de seu site ou aplicativos móveis, executar esses modelos localmente em seu PC com Windows oferece vantagens distintas. Este guia orientará você no processo de instalação e uso do DeepSeek R1 e V3 em sua própria máquina, proporcionando mais controle e privacidade sobre suas interações de IA.

Configurando DeepSeek R1 localmente

DeepSeek R1 é um modelo focado no raciocínio que se destaca em tarefas complexas de resolução de problemas. Veja como fazê-lo funcionar em seu sistema Windows:

Instalar Ollama

Etapa 1:Visite o site da Ollama (https://ollama.com/) e baixe o instalador do Windows. Execute o arquivo e siga as instruções na tela para concluir a instalação.

Etapa 2:Assim que o Ollama estiver instalado, retorne ao site do Ollama e navegue até a guia “Modelos”.

Escolha e instale seu modelo DeepSeek R1

Etapa 1:Na seção Modelos, localize as opções do DeepSeek-R1. Você verá vários tamanhos disponíveis (1,5b, 7b, 8b, 14b, etc.). Selecione o modelo que melhor se adapta às capacidades do seu computador. Para a maioria dos usuários, é recomendado começar com a versão 1.5b ou 7b.

Etapa 2:Copie o comando de instalação para o modelo escolhido. Por exemplo, para instalar a versão 1.5b, o comando seria:

ollama run deepseek-r1:1.5b

Etapa 3:Abra o prompt de comando em seu PC com Windows. Cole o comando copiado e pressione Enter. O processo de instalação será iniciado, o que pode demorar um pouco dependendo da velocidade da sua internet e do tamanho do modelo.

Executando o DeepSeek R1

Etapa 1:Assim que a instalação for concluída, você pode começar a usar o DeepSeek R1 diretamente no prompt de comando. Basta executar o mesmo comando que você usou para instalação:

ollama run deepseek-r1:1.5b

Etapa 2:Agora você pode interagir com o modelo DeepSeek R1 digitando suas consultas ou prompts no prompt de comando.

Saber mais:2 maneiras de desinstalar modelos DeepSeek do Windows 11

Embora usar o DeepSeek R1 por meio do prompt de comando seja simples, ele não salva seu histórico de bate-papo. Para uma experiência mais amigável com conversas persistentes, você pode querer configurar uma interface gráfica.

Configurando uma interface de usuário para DeepSeek R1

Existem dois métodos principais para adicionar uma interface gráfica ao DeepSeek R1:

Método 1: usando Chatbox AI

Etapa 1:Baixe e instale o Chatbox AI de seu site oficial (https://chatboxai.app/en).

Etapa 2:Inicie o Chatbox AI e navegue até suas configurações.

Etapa 3:Na guia “MODELO”, selecione “API DeepSeek”.

Etapa 4:Você precisará inserir uma chave de API DeepSeek. Visite a página de documentação da API DeepSeek (https://api-docs.deepseek.com/) para obter sua chave.

Etapa 5:Insira sua chave API no Chatbox AI e salve as alterações. Agora você pode usar o DeepSeek R1 por meio desta interface.

Método 2: usando Docker

Etapa 1:Baixe e instale o Docker Desktop para Windows do site oficial do Docker.

Etapa 2:Crie uma conta Docker se ainda não tiver uma.

Etapa 3:Inicie o Docker Desktop e faça login.

Etapa 4:Abra o prompt de comando e execute o seguinte comando para configurar a interface da web do DeepSeek:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Etapa 5:Assim que o comando for concluído, abra o Docker Desktop e vá para a seção “Containers”. Você deverá ver um novo contêiner com o número de porta 3000:8080.

Etapa 6:Clique no número da porta 3000:8080 no Docker Desktop. Isso abrirá uma nova guia em seu navegador padrão com o endereço localhost:3000.

Etapa 7:Configure uma conta nesta interface da web local digitando seu nome, e-mail e senha. Lembre-se desses detalhes, pois você precisará deles sempre que usar o DeepSeek R1 localmente.

Para usar o DeepSeek R1 por meio desta interface da web, certifique-se de que o Ollama e o Docker estejam sendo executados em segundo plano. Inicie o Ollama primeiro, depois o Docker e certifique-se de que o contêiner relevante esteja sendo executado no Docker antes de acessar localhost:3000 em seu navegador da web.

Instalando e executando o DeepSeek V3 localmente

DeepSeek V3 é um modelo avançado de linguagem Mixture-of-Experts (MoE) que oferece recursos versáteis de IA. Veja como configurá-lo em seu PC com Windows:

Etapa 1:Instale o Python 3.9 do site oficial do Python. Durante a instalação, certifique-se de marcar a opção de adicionar Python ao PATH do seu sistema.

Etapa 2:Instale o Git degit-scm.com. Após a instalação, verifique se está funcionando abrindo o Prompt de Comando e digitando:

git --version

Etapa 3:Se você tiver uma GPU NVIDIA, baixe e instale o CUDA Toolkit versão 11.8 emdeveloper.nvidia.com.

Etapa 4:Abra o prompt de comando e execute os seguintes comandos para configurar o ambiente DeepSeek V3:

git clone https://github.com/khanfar/DeepSeek-Windows.git
cd DeepSeek-Windows
python -m venv venv
venvScriptsactivate

Etapa 5:Instale o PyTorch e outros pacotes necessários:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
pip install -r requirements.txt

Etapa 6:Baixe os pesos do modelo DeepSeek V3:

python download_model.py

Etapa 7:Inicie o servidor DeepSeek V3:

python windows_server.py --model model_weights_bf16 --trust-remote-code

Etapa 8:Em uma nova janela do Prompt de Comando, teste o modelo:

python test_client.py

Agora você pode acessar o servidor DeepSeek V3 emhttps://127.0.0.1:30000.

A execução local de modelos DeepSeek oferece recursos poderosos de IA diretamente no seu PC com Windows. Embora exija alguma configuração, os benefícios da privacidade e do acesso offline fazem com que valha a pena para muitos usuários. Lembre-se de escolher o tamanho do modelo que melhor se adapta às capacidades do seu computador e aproveite para explorar o mundo da IA ​​sem depender de serviços em nuvem.

Related Posts