
DeepSeek e Ollama: executando LLMs localmente com o poder da sua GPU
Introdução: O universo da IA e dos LLMs está mudando rápido demais
Semana passada, a Nvidia gigante por trás do hardware de IA viu suas ações caírem. Por quê, você pergunta? Porque o mundo está percebendo que não precisa mais depender de infraestrutura cara na nuvem ou de GPUs caríssimas pra aproveitar o poder da IA.
O novo modelo desenvolvido de LLM desenvolvido pela chinesa DeepSeek Inc, abalou a mercado tech global oferecendo uma alternativa aos modelos já consolidados no mercado.
Mas vamos deixar a volatilidade da bolsa de lado e aprender como rodar o DeepSeek localmente no seu PC, passo a passo. Sem enrolação.
Passo 1: Instale o Ollama
Primeiro, você precisa instalar o Ollama na sua máquina.
Abra o terminal e rode o seguinte comando:
curl -fsSL https://ollama.com/install.sh | sh
Esse script vai instalar e configurar o Ollama no seu sistema.
Mas o que é o Ollama?
Ollama é uma ferramenta open-source que roda modelos de linguagem (LLMs) direto na sua máquina, usando o poder da sua GPU, sem precisar de servidor, nuvem ou complicação.
Passo 2: Verifique se a instalação deu certo
Depois que o Ollama estiver instalado, cheque se está funcionando:
ollama
Se você receber uma resposta no terminal, tá tudo certo. Ollama instalado com sucesso.
Passo 3: Escolha seu modelo DeepSeek
O Ollama já suporta diferentes versões do modelo DeepSeek. As duas principais são:
- Parâmetros: 7B (7 bilhões de parâmetros) - Ideal para: iniciantes, tarefas leves, quem tem máquina mais simples - Use cases: geração de texto simples, ajuda básica com código, testes - Requisitos: roda até em CPU ou GPU mais fraca
- Parâmetros: 70B (70 bilhões de parâmetros) - Ideal para: usuários avançados, tarefas complexas, uso profissional - Use cases: programação avançada, pesquisa, escrita criativa, análise de dados - Requisitos: precisa de uma GPU parruda
Mas o que são parâmetros?
Parâmetros são os "neurônios" do modelo quanto mais ele tem, mais inteligente e complexo ele é. Resumindo:
- 7B: mais rápido, leve, bom pra brincar e fazer testes - 70B: mais poderoso, preciso, mas exige muito mais da sua máquina
Passo 4: Rode o modelo escolhido
Depois de decidir qual modelo quer usar, rode ele com o Ollama:
Para rodar o DeepSeek-R1:
ollama run deepseek-r1
Para rodar o DeepSeek-V3:
ollama run deepseek-v3
Passo 5: Hora de experimentar
Com o modelo rodando, você já pode usar ele para:
Assistente de código: gerar trechos de código, encontrar bugs
Escrita criativa: histórias, poemas, roteiros
Pesquisa e análise: gerar insights com base em dados
Experimentação: testar ajustes, otimizar uso, criar ferramentas próprias
Conclusão
Seja você iniciante ou veterano no mundo da IA, rodar o DeepSeek localmente com o Ollama é libertador.
Quer só brincar ou aprender? Comece com o DeepSeek-R1
Quer algo mais sério e poderoso? Vai de DeepSeek-V3
O importante é: você não precisa mais da nuvem para brincar com IA de verdade, aproveite.