Executando verificação de segurança...
8

Como rodar LLM Local utilizando o Ollama

Olá pessoal, vou apresentar duas formas simples de rodar LLMs em uma máquina local.

Assim, você aprende de forma prática e ainda te dar a possibilidade de utilizar LLMs Open Source com ou sem censura.

Opções Disponíveis

Se você possui um computador Linux ou Mac, eu recomendo que você faça o download e instale o Ollama(https://ollama.ai/), eu utilizo e gosto bastante da performance apresentada.

Agora se você utiliza um computador windows eu recomendo que você instale o LM Studio(https://lmstudio.ai/), esse não tenho muito o que falar pois a instalação é muito simples.

Instalando do Ollama

Faça o download do Ollma e instale no seu computador através do link https://ollama.ai/, após a instalação o Ollama fica rodando em modo servidor e está pronto pra receber requisições na porta 114344 caso isso não aconteça basta executar o comando.

ollama serve

Os argumentos do programa ollama são bem simples e lembra um pouco o Docker.

  • run -> executa um modelo
  • serve -> inicia o ollama
  • create -> cria um modelo com base em um Modelfile
  • pull -> puxa um modelo do repositório.

Bom, agora vamos conversar com algum modelo, eu utilizo a versão dolpin-mixtral sem censura https://ollama.ai/library/dolphin-mixtral pra fazer download do modelo basta executar o seguinte comando:

ollama run dolphin-mixtral

Pronto, utilize como moderação.

Como rodar utilizando o Docker

Somente via CPU

docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Com GPU Nvidia

Primeiro instale o Nvidia container toolkit e depois rode o seguinte comando:

docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

Interface web estilo ChatGPT

O Ollama também possui um interface web estilo ChatGPT que você utilizar via Docker, através do seguinte comando:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway --name ollama-webui --restart always ghcr.io/ollama-webui/ollama-webui:main

Pronto agora basta acessar o endereço http://localhost:8000 e conversar com o seu modelo.

Carregando publicação patrocinada...
1
2

Opa, isso mesmo a interface web sobe depois do backend, você pode rodar só o cliente sem usar o docker.
Basta fazer o checkout do projeto no github ollama-webui e executar aquela instalação marota de depedências de um projeto node.
Hoje eu rodo ele assim, tenho um servidor remoto com o ollama e rodo o cliente(ollama-webui) na minha rede local.