Executando verificação de segurança...
1

Cara, achei sensacional a ideia da extensao, eu ja fornecia partes do codigo para o chat gpt entender melhor oque eu esperava, mas mesmo assim notei uma piora dele de la pra ca.
Sobre sua extensao fica uma duvida, com tantos rumores de vazamento de informacoes da OpenIA nao seria inseguro fornecer tantos arquivos para a IA ?
Obs: As partes do codigo que eu fornecia citada no primeiro paragrafo eram filtradas ou modificadas por motivos de seguranca.

Carregando publicação patrocinada...
1

Não vejo qualquer inconveniente em compartilhar o código, desde que você garanta que não estão inclusos dados sensíveis. Como exemplo, costumo enviar um arquivo 'env.example' alterado com valores de variáveis de ambiente modificados. Compreendo que enviar arquivos para o chat GPT pode ser uma preocupação, no entanto, não vejo isso com muita apreensão. Afinal, é improvável que a própria OpenAI consiga formatar e unir todos os códigos enviados em um único arquivo, mesmo que você compartilhe todo o código.

Além disso, é importante lembrar que praticamente todas as linhas de código que você possa escrever, já foram provavelmente escritas por alguém em algum repositório público do GitHub e, sem dúvida, contribuíram para o treinamento do modelo GPT.

Eu, pessoalmente, não me preocupo muito com isso, embora entenda a vantagem de poder executar um modelo offline. Sugiro que você assista a este vídeo do Akita. Ele demonstra como operar localmente um modelo com desempenho semelhante ao do GPT-4.