Perguntei exatamente a mesma coisa (ou seja, fiz copy-paste da sua pergunta) e a resposta foi:
Com o crescente avanço da tecnologia, cada vez mais se torna necessário o desenvolvimento de linguagens de programação que sejam mais acessíveis e eficientes para lidar com as demandas dos sistemas modernos. Nesse sentido, surge a necessidade de criar uma nova linguagem de programação que revolucionará a forma como vivemos nos próximos anos.
Essa nova linguagem de programação deverá ser construída a partir de metodologias modernas de desenvolvimento de software, com ênfase em simplicidade, modularidade e reutilização de código. Ela deverá ser fácil de aprender, permitindo que mais pessoas possam entrar no mundo da programação sem grandes obstáculos.
Para ilustrar algumas possibilidades, podemos apresentar um exemplo de código simples em nossa nova linguagem de programação, que realiza uma análise de sentimento em um conjunto de textos:
import texto sentimento_positivo = 0 sentimento_negativo = 0 for frase in texto: if analisar_sentimento(frase) == "positivo": sentimento_positivo += 1 else: sentimento_negativo += 1 print("Sentimento positivo:", sentimento_positivo) print("Sentimento negativo:", sentimento_negativo)
Como podemos ver, a nova linguagem de programação permite a construção de códigos simples (e mais um monte de blábláblá)...
Ou seja, dessa vez ele criou um código em Python - mas com um detalhe, na caixa de texto do código dizia "go" (ou seja, ele acha que esse código é em Go?):
De qualquer forma, isso "prova" que a OpenIA é fã de Python?
Não.
Primeiro, recomendo que todos leiam este artigo, que apesar de bem longo, é muito esclarecedor ao explicar como o ChatGPT funciona.
Mas só pra resumir, ele não "sabe" coisas. Ele é um auto-complete turbinado. Só.
O ChatGPT foi treinado com zilhões de textos da internet (a Wikipedia inteira, diversos artigos, blogs, etc), processou tudo, e criou uma gigantesca base de dados contendo a frequência com que cada combinação de palavras aparece em cada contexo analisado.
Sendo assim, cada vez que vc pergunta algo, ele analisa as palavras e usa seus bilhões de parâmetros para determinar o contexto. Depois, consulta na base dele qual a próxima palavra mais provável de aparecer (com base nos textos que ele analisou, no contexto e nas palavras que já foram adicionadas antes). E faz isso para cada nova palavra que ele adiciona.
O mesmo artigo diz que nem sempre ele pega a mais provável (senão teria dado a mesma resposta): muitas vezes ele pega outras menos prováveis, para não repetir respostas e dar uma falsa sensação de "criatividade". O efeito colateral é ele por vezes alucinar (dizer coisas completamente sem sentido) - e isso também explica porque ele erra tanto, e porque tem vezes que até inventa palavras.
Ou seja, no fim das contas ele só está reproduzindo o que já foi dito na internet (no caso, podendo recombinar vários textos em um só). Se ele diz que "a linguagem do futuro" deve usar A ou B, é porque muitos dos textos que ele analisou dizem isso. Some-se a isso a característica de nem sempre pegar as palavras com maior probabilidade, e temos essa variação toda.
Inclusive, refiz exatamente a mesma pergunta várias vezes, e às vezes ele dizia que a linguagem do futuro deve se focar em Internet das Coisas, ou IA, ou Orientação a Objeto ou qualquer outro conceito da moda, sugeriu nomes como NexGen, Evolvix e Vortex (sempre dizendo que são nomes "modernos" e blábláblá), deu características genéricas como "robustez", "facilidade de aprender" e por aí vai. Ou seja, tudo coisas que já vi dizerem sobre trocentas novas linguagens.
Se ele te respondeu com determinada linguagem, é porque no material usado para treiná-lo tinha conteúdo suficiente nesta linguagem para dar uma probabilidade boa de aparecer. Mas como vimos acima, nada impede que apareçam outras linguagens. Isso não quer dizer que a empresa prefere isso ou aquilo (se for, é mera coincidência, nada mais que isso).
Aliás, uma das respostas tinha três exemplos de código, cada um em uma linguagem diferente. Um era em Python (mas a caixa de código dizia "bash"), outro em Kotlin, e outro em Rust (mas a caixa de código dizia "css"). E aí, isso "prova" que a OpenAI é fã de todas elas? Ou que elas são o futuro? (Spoiler: não, isso não prova nada)
Mas enfim, acho que o mais importante aqui é saber como a IA funciona, e principalmente, parar de atribuir ao ChatGPT características que ele não tem. Ele não sabe coisas, não tem preferências, opiniões e nem sentimentos (sim, já escutei essa insanidade). Como diz o artigo que indiquei, ele só "está adicionando uma palavra de cada vez".