Introdução
A batalha das IAs está cada vez mais acirrada, e agora, com o novo modelo DeepSeek, temos mais uma opção de tecnologia open-source para explorar. Neste tutorial, veremos como tirar proveito desse modelo.
Instalando o Ollama e o modelo DeepSeek
Primeiro, precisamos baixar o software Ollama, que disponibiliza um CLI para trabalhar com diferentes modelos LLM.
📥 Baixe o Ollama:
🔗 https://ollama.com/download
Após a instalação, abra o terminal e teste com:
ollama -v
Baixando o modelo LLM
O DeepSeek possui diferentes versões com tamanhos variados. Neste exemplo, utilizaremos o deepseek-r1:1.5b, pois exige menos memória RAM. Veja outras opções no link abaixo:
🔗 https://ollama.com/library/deepseek-r1/tags
Para baixar o modelo, execute:
ollama pull deepseek-r1:1.5b
Após o download, verifique se o modelo foi instalado corretamente:
ollama list
Testando a requisição ao Ollama
Para testar a resposta do modelo, use o seguinte comando cURL:
curl -X POST http://localhost:11434/api/generate \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-r1:1.5b",
"prompt": "Hello world!"
}'
Ou, caso esteja no PowerShell, use:
$body = @{
model = "deepseek-r1:1.5b"
prompt = "Hello world!"
} | ConvertTo-Json -Depth 10
Invoke-WebRequest -Uri "http://localhost:11434/api/generate" `
-Method Post `
-Body $body `
-ContentType "application/json"
Se tudo estiver funcionando corretamente, você receberá uma resposta. Para verificar se o modelo está rodando, execute:
ollama ps
Integrando no VS Code como autocomplete
Agora, vamos integrar o DeepSeek ao VS Code, permitindo o uso de um autocomplete gratuito e de alta qualidade!
Instalando a extensão Continue
Baixe e instale a extensão Continue no VS Code. Certifique-se de remover qualquer outra extensão de IA para evitar conflitos.
🔗 Extensão Continue:
https://marketplace.visualstudio.com/items?itemName=continue.continue
Configurando a extensão
Após instalar o modelo, acesse as configurações e substitua o arquivo config.json
pelo seguinte conteúdo (alterando a tag do modelo se necessário):
{
"models": [
{
"title": "deepseek-r1:1.5b",
"model": "deepseek-r1:1.5b",
"provider": "ollama"
}
],
"tabAutocompleteModel": {
"title": "deepseek-r1:1.5b",
"model": "deepseek-r1:1.5b",
"provider": "ollama",
"apiBase": "http://127.0.0.1:11434"
},
"tabAutocompleteOptions": {
"debounceDelay": 500,
"maxPromptTokens": 1500,
"disableInFiles": [
"*.md"
]
},
"contextProviders": [
{
"name": "codebase",
"params": {
"nRetrieve": 25,
"nFinal": 5,
"useReranking": true
}
}
]
}
🔗 Mais configurações sobre a extensão:
https://docs.continue.dev/customize/deep-dives/autocomplete
Testando o autocomplete
Agora, basta digitar o código no VS Code e o autocomplete do DeepSeek entrará em ação! Para testar, abra um novo arquivo e escreva algumas linhas de código.
🎉 Agora você tem um autocomplete poderoso e gratuito no seu VS Code!
Top comments (4)
Por que não usar o modelo Coder da DeepSeek ao invés do modelo R1?
Porque exige mais memória RAM e eu não consigo porque o meu PC é da xuxa
Mas como eu disse acima, você pode e deve testar os modelos que funciona pra você
Por favor, caso tenha algum problema comentem aqui porque eu passei por vários, não foi tão fácil igual em outros tutoriais!