Tentei semana passada em meu notebook, mas infelizmente a minha placa de vídeo não era mais compatível por ser considerado hardware antigo (considerado pelo ChatGPT, mas não tiro a razão). Tentei rodar apenas via CPU (que foi a unica maneira possível) mas travava tudo o SO. Tentei os menores modelos que são o Llama 3.2 3B, demorou demais, depois 3.2 1B. Para não travar deixei 1 Core para o sistema e o resto para as LLMs, mas ficou inviável. Muito demorado. No meu caso, atualmente o melhor mesmo é o ChatGPT Plus ou um outro serviço online que tenhas varias outras LLMs, mas com preço acessivel.
1