Bom, antes de mais nada dê uma lida aqui: "ChatGPT responde incorretamente 52% das perguntas de programação, mostra estudo".
Pois é, a IA ainda erra bastante, mas a resposta é dada com tanta convicção que pode acabar nos enganando. Tanto que o mesmo estudo menciona que as respostas convenceram 40% dos participantes.
E eu acho que não é só porque o texto é bem escrito, mas também porque muitas vezes quem pergunta é alguém que entende pouco do assunto, ou seja, não é a pessoa mais qualificada para avaliar a qualidade das respostas. E aí a pessoa acha que aquilo "ajudou" só porque "funciona", mesmo que seja uma solução ruim.
E pra aprendizado eu acho pior ainda. Já vi IA's ensinando conceitos básicos e fundamentais de maneira errada, com erros grosseiros que qualquer lida na documentação básica já seria suficiente para corrigir. Então use com cautela, e sempre consulte mais de uma fonte.
Não me entenda mal, não sou contra IA. É uma ferramenta com potencial fantástico e acho que ainda nem arranhamos a superfície do que é possível. Mas não pode usar cegamente sem questionar, e nem usar como fonte primária de informações.