DEV Community

Cover image for Como Usar o DeepSeek R1 de Graça no Visual Studio Code com Cline ou Roo Code
Douglas Toledo
Douglas Toledo

Posted on

Como Usar o DeepSeek R1 de Graça no Visual Studio Code com Cline ou Roo Code

Se você está procurando uma IA que seja boa de raciocínio e ainda por cima de graça, pois é open source, o recém lançado DeepSeek R1 é uma ótima pedida. Ele compete e ganha de modelos como o GPT-4, o1-mini, Claude 3.5, ente outros. Eu testei e só tenho elogios!

Se você quer rodar ele direto no seu Visual Studio Code, como um code agent similar ao GitHub Copilot, sem gastar nada, vem que eu te mostro como fazer isso usando ferramentas como LM Studio, Ollama e Jan.


Por que o DeepSeek R1 está tão falado nos últimos dias?

  • É de graça e open source: Diferente de muitos modelos que cobram uma fortuna, você pode usar ele sem pagar nada. Inclusive ele está disponível para chat em https://chat.deepseek.com.

  • Desempenho: Ele compete e ganha de outros modelos em tarefas de lógica, matemática e até geração de código (que é a minha parte preferida).

  • Várias versões: Para rodá-lo localmente (LLM) há modelos de 1.5B a 70B parâmetros, então você escolhe o que roda melhor no seu PC dependendo do hardware.

  • Fácil de integrar: É possível conectá-lo ao VSCode com extensões como Cline ou Roo Code.

  • Sem custos: Se você rodar localmente, você não paga por tokens ou APIs. Uma placa de vídeo é recomendada, pois rodando só pelo processador é mais lento.


Dicas Importantes antes de começar

  • Economize recursos: Se seu PC não é tão forte, fique com os modelos menores (1.5B ou 7B parâmetros) ou quantizados.

  • Calculadora de RAM: Use o LLM Calc pra saber o mínimo de memória RAM você precisará.

  • Privacidade: Rodando localmente, seus dados ficam só no seu PC, sem ir pra servidores externos.

  • Sem custos: Rodar localmente é de graça, mas se você quiser usar a API da DeepSeek, vai precisar pelo uso de tokens, a boa notícia é que o preço deles está muuuuito abaixo dos concorrentes.


Qual Modelo Escolher? Depende do Seu PC!

O DeepSeek R1 tem várias versões, e a escolha depende do seu hardware:

  • 1.5B Parâmetros:

    • RAM necessária: ~4 GB.
    • GPU: Integrada (tipo NVIDIA GTX 1050) ou uma CPU moderna.
    • Pra quê?: Tarefas simples e PCs mais modestos.
  • 7B Parâmetros:

    • RAM necessária: ~8-10 GB.
    • GPU: Dedicada (tipo NVIDIA GTX 1660 ou melhor).
    • Pra quê?: Tarefas intermediárias e PCs com um hardware melhor.
  • 70B Parâmetros:

    • RAM necessária: ~40 GB.
    • GPU: High-end (tipo NVIDIA RTX 3090 ou superior).
    • Pra quê?: Tarefas complexas e PCs super potentes.

Como Rodar o DeepSeek R1 Localmente


1. Usando o LM Studio

  • Baixe e instale o LM Studio: É só entrar no site do LM Studio e baixar a versão pro seu sistema.

  • Baixe o modelo DeepSeek R1: No LM Studio, acesse a aba Discover, pesquise por "DeepSeek R1" e selecione a versão mais compatível com seu sistema. Se estiver usando um MacBook com processadores Apple, mantenha a opção MLX selecionada ao lado da barra de pesquisa (essas versões são otimizadas para o hardware da Apple). Para Windows ou Linux, escolha a opção GGUF.

  • Carregue o modelo: Depois de baixar, vá em Local Models, selecione o DeepSeek R1 e clique em Load.

  • Inicie o servidor local: Na aba Developer, habilite Start Server. Ele vai começar a rodar o modelo no http://localhost:1234.

  • Siga para a etapa 4 Integrando com o VSCode!


2. Usando o Ollama

  • Instale o Ollama: Baixe no site do Ollama e instale.
  • Baixe o modelo: No terminal, rode*:
   ollama pull deepseek-r1  
Enter fullscreen mode Exit fullscreen mode

*Esse é o modelo principal, se quiser modelos menores, vá em https://ollama.com/library/deepseek-r1 e veja qual comando executar no terminal.

  • Inicie o servidor: No terminal, execute:
   ollama serve  
Enter fullscreen mode Exit fullscreen mode

O comando vai começar a roda o modelo em http://localhost:11434.

  • Siga para a etapa 4 Integrando com o VSCode!

3. Usando o Jan

  • Baixe e instale o Jan: Escolha a versão para o seu sistema no site do Jan.

  • Baixe o modelo: Não consegui encontrar o DeepSeek R1 diretamente no Jan. Por isso, acessei o site do Hugging Face e pesquisei manualmente por "unsloth gguf deepseek r1". Encontrei a versão desejada, cliquei no botão "Use this model" e selecionei o Jan como opção. O modelo foi aberto automaticamente no Jan, e então realizei o download.

  • Carregue o modelo: Depois de baixar, selecione o modelo e clique em Load.

  • Inicie o servidor: O Jan já inicia o servidor automaticamente, geralmente em http://localhost:1337.

  • Siga para a etapa 4 Integrando com o VSCode!


4. Integrando com o VSCode

  • Instale a extensão: No VSCode abra a aba de Extensões e instale o Cline ou Roo Code.

  • Configure a extensão para Jan ou LM Studio: Tanto a configuração do Cline quanto do Roo Code são praticamente idênticas. Siga os passos abaixo:

    • Clique na extensão e acesse "Settings".
    • Em API Provider, selecione "LM Studio".
    • No campo Base URL, insira a URL configurada no Jan ou no LM Studio.
    • O campo Model ID será preenchido automaticamente se você tiver apenas um modelo disponível. Caso contrário, selecione manualmente o modelo DeepSeek que você baixou.
    • Finalize clicando em "Done".

  • Configure a extensão para Ollama:

    • Clique na extensão e acesse "Settings".
    • Em API Provider, selecione "Ollama".
    • No campo Base URL, insira a URL configurada no Ollama.
    • O campo Model ID será preenchido automaticamente se você tiver apenas um modelo disponível. Caso contrário, selecione manualmente o modelo DeepSeek que você baixou.
    • Finalize clicando em "Done".
  • Integração concluída, agora é só desfrutar das funcionalidade do Cline ou do Roo Code.


Conclusão

O DeepSeek R1 é uma mão na roda pra quem quer uma IA poderosa sem gastar nada. Com LM Studio, Ollama ou Jan, você pode rodar ele localmente e integrar direto no Visual Studio Code. Escolha o modelo que cabe no seu PC e comece a usar hoje mesmo!

Top comments (0)