DeepSeek e Ollama: executando LLMs localmente com o poder da sua GPU

DeepSeek e Ollama: executando LLMs localmente com o poder da sua GPU

Introdução: O universo da IA e dos LLMs está mudando rápido demais

Semana passada, a Nvidia gigante por trás do hardware de IA viu suas ações caírem. Por quê, você pergunta? Porque o mundo está percebendo que não precisa mais depender de infraestrutura cara na nuvem ou de GPUs caríssimas pra aproveitar o poder da IA.

O novo modelo desenvolvido de LLM desenvolvido pela chinesa DeepSeek Inc, abalou a mercado tech global oferecendo uma alternativa aos modelos já consolidados no mercado.

Mas vamos deixar a volatilidade da bolsa de lado e aprender como rodar o DeepSeek localmente no seu PC, passo a passo. Sem enrolação.


Passo 1: Instale o Ollama

Primeiro, você precisa instalar o Ollama na sua máquina.

Abra o terminal e rode o seguinte comando:

curl -fsSL https://ollama.com/install.sh | sh

Esse script vai instalar e configurar o Ollama no seu sistema.

Mas o que é o Ollama?

Ollama é uma ferramenta open-source que roda modelos de linguagem (LLMs) direto na sua máquina, usando o poder da sua GPU, sem precisar de servidor, nuvem ou complicação.


Passo 2: Verifique se a instalação deu certo

Depois que o Ollama estiver instalado, cheque se está funcionando:

ollama

Se você receber uma resposta no terminal, tá tudo certo. Ollama instalado com sucesso.


Passo 3: Escolha seu modelo DeepSeek

O Ollama já suporta diferentes versões do modelo DeepSeek. As duas principais são:

DeepSeek-R1

- Parâmetros: 7B (7 bilhões de parâmetros) - Ideal para: iniciantes, tarefas leves, quem tem máquina mais simples - Use cases: geração de texto simples, ajuda básica com código, testes - Requisitos: roda até em CPU ou GPU mais fraca

DeepSeek-V3

- Parâmetros: 70B (70 bilhões de parâmetros) - Ideal para: usuários avançados, tarefas complexas, uso profissional - Use cases: programação avançada, pesquisa, escrita criativa, análise de dados - Requisitos: precisa de uma GPU parruda

Mas o que são parâmetros?

Parâmetros são os "neurônios" do modelo quanto mais ele tem, mais inteligente e complexo ele é. Resumindo:

- 7B: mais rápido, leve, bom pra brincar e fazer testes - 70B: mais poderoso, preciso, mas exige muito mais da sua máquina


Passo 4: Rode o modelo escolhido

Depois de decidir qual modelo quer usar, rode ele com o Ollama:

Para rodar o DeepSeek-R1:

ollama run deepseek-r1

Para rodar o DeepSeek-V3:

ollama run deepseek-v3


Passo 5: Hora de experimentar

Com o modelo rodando, você já pode usar ele para:

  • Assistente de código: gerar trechos de código, encontrar bugs

  • Escrita criativa: histórias, poemas, roteiros

  • Pesquisa e análise: gerar insights com base em dados

  • Experimentação: testar ajustes, otimizar uso, criar ferramentas próprias


Conclusão

Seja você iniciante ou veterano no mundo da IA, rodar o DeepSeek localmente com o Ollama é libertador.

  • Quer só brincar ou aprender? Comece com o DeepSeek-R1

  • Quer algo mais sério e poderoso? Vai de DeepSeek-V3

O importante é: você não precisa mais da nuvem para brincar com IA de verdade, aproveite.

Compartilhar este post