Eu uso bastante para me auxiliar com pontos técnicos relacionados à programação, e desde o início, eu sempre o usei com a documentação da tecnologia que estou consultando aberta e com muita pesquisa junto ao google, já que ele nunca foi preciso.
Uso a versão free 3.5 para as minhas consultas e tenho a impressão que ele foi "nerfado". Apesar da sua formatação de texto mais "rebuscada", ele tem errado em pontos cruciais em algumas consultas, como por exemplo: pedir um exemplo de como usar uma função em Javascript e ele gera uma função que não existe na linguagem, mas tem uma sintaxe próxima ao que é usada ou, pedir um script para SQL Server e usar pelo menos um comando que não seja usado nele, e sim no Oracle, Postgres, etc... só por ter uma sintaxe muito próxima.
Para o tipo de IA que o ChatGPT é, é até normal ele cometer esse tipo de erro, já que ele "prevê" a próxima palavra que faça sentido dentro do contexto enviado do seu prompt (por isso é bom que ele seja sempre muito bem formatado). É visível que ele está acertando menos desde o lançamento do 4.0 em vários pontos, mesmo com prompts muito bem formatados.
De um ponto de vista de negócios, não faz sentido para a Open AI manter seu produto gratuito tão poderoso quanto o pago.