Salve!
Vou pegar uma tangente no assunto e falar de um conceito que eu acho muito foda e que pode dar uma inspiração pra iniciativas nessa direção: o transfer learning.
A ideia é bem simples: quando vc treinar sua própria rede neural, vc usa os pesos de uma rede já treinada como condição inicial pros seus pesos. Pegando o exemplo da Wikipedia, é como vc juntar todo conjunto de dados pra treinar uma rede que identifica caminhões, e inicializa ela com pesos de uma rede que identifica carros. Dessa forma, vc "salta" a etapa inicial de treinar os pesos pra identificar características básicas de imagens e já começa a parte de treinamento que é relevante pra sua aplicação.
E como isso se aplica ao tópico?
Primeiramente, o problema de adaptar o ChatGPT pra cada usuário deve ter mais soluções possíveis do que existem estrelas no céu. Mas, eu arrisco que usar os pesos do ChatGPT como pesos inciais da sua rede vai economizar um super trabalho pra parte inicial de identificação de sequências de palavras mais frequentes.
Segunda opinião: eu suponho que usar os diálogos de uma pessoa pra treinar uma rede vão, ao invés de criar um JARVIS (ou assistente em geral), chegar a um bot que gera textos usando o estilo da pessoa em si. Mais um "clone" do que um "assistente", por assim dizer. Não tenho evidências nenhuma pra embasar esse fato. Opiniões diversas são sempre bem vindas.
Continue por sua própria conta e risco
Agora, dependendo do quanto vc quer entrar no buraco do coelho (equipamento e energia pra treinar rede neural é caaaaaaaaaro), ouvi falar que tem uns conjuntos de pesos rodando por aí. Sempre leia as condições de uso antes de sair usando código dos outros. Não faça nada ilegal.