Executando verificação de segurança...
4

Desmistificando Inteligência Artificial: O Ponto de Vista de um Iniciante

Este Post faz parte de um exercício de aprendizado sobre Inteligência Artificial, o conteúdo não tem a intenção de ensinar, mas sim de explorar e expressar os conhecimentos adquiridos por mim, Lucas Hang, nas últimas semanas e meses de estudo sobre IA. Além disso, por meio do uso de ferramentas de IA, pretendo criar conteúdos em diferentes formatos, como artigos em inglês e português, apresentações, imagens e até mesmo sites, tudo partindo de um conteúdo em Audio gravado por mim. Este é o resultado final, mas o link para um post descrevendo todo o processo criativo se encontra aqui. Agradeço sua compreensão e adoraria receber críticas construtivas.

Linha de Raciocínio e Desmistificação

Aqui, farei uso do ChatGPT como principal exemplo prático para exemplificar alguns termos frequentemente utilizados no campo da Inteligência Artificial. Explicarei o significado desses termos e de que forma eles contribuem para o entendimento e desmistificação dessa área. É importante compreender que a IA não é uma ferramenta mágica, mas sim uma tecnologia incrível que pode ser explicada em certa medida.

Após essa introdução, aprofundaremos a discussão em torno de termos mais complexos, relacionados ao funcionamento do ChatGPT e de outros modelos por trás das cortinas. Prepare-se para aprender sobre Redes Neurais, Aprendizado de Máquina, Probabilidade e conceitos matemáticos, como Funções Matemáticas de múltiplas dimensões. Embora meu conhecimento nesses tópicos seja limitado, tentarei transmitir informações relevantes, podendo haver imprecisões (o que é justo considerando que estamos discutindo o ChatGPT).

Desmistificação dos Termos

Nesta seção, vamos explorar os termos e conceitos essenciais relacionados à Inteligência Artificial (IA). É importante compreender que a IA abrange um amplo campo de estudo, embora seja relativamente recente em termos de popularização. Dentre os conceitos que surgem nesse contexto, destacam-se siglas como LLM (Large Language Models) e GPT (Generative Pre-trained Transformer), além de outros termos importantes, como Neural Networks e Machine Learning.

A sigla LLM significa Large Language Models, ou seja, Modelos de Linguagem Largos. Modelos são projetados com propósitos específicos, assim como diferentes modelos de celulares têm características distintas, como maior duração de bateria, qualidade de câmera ou design avançado. No contexto da Inteligência Artificial, o "L" em LLM indica a ênfase na linguagem, principalmente na forma de texto. Esses modelos são notavelmente grandes, o que os diferencia de modelos anteriores. Além disso, é importante compreender que existem modelos multimodais que são capazes de entender não apenas texto, mas também imagens e áudio.

A sigla GPT, usada no contexto do ChatGPT, refere-se a Generative Pre-trained Transformer. Em português, seria algo como Transformador Generativo Pré-treinado. O prefixo "pré-treinado" indica que o modelo foi treinado anteriormente com uma grande quantidade de dados específicos para a sua finalidade. O termo "generativo" destaca a capacidade do modelo de criar conteúdo original e criativo. Isso difere de modelos preditivos, que podem fornecer respostas binárias ou numéricas. Por fim, "Transformer" (não tenho certeza sobra esse) refere-se à capacidade do modelo de transformar conteúdos prévios ou ajustar-se a diferentes contextos, proporcionando flexibilidade em sua geração de conteúdo.

Funcionamento e Aprendizado de Modelos GPT

O chat GPT é um produto que utiliza modelos GPT (Transformadores Geradores Pré-treinados) em seu funcionamento. Esses modelos funcionam devido à previsibilidade computacional do comportamento humano na escrita e escolha de palavras, letras, frases, sentenças e orações. Embora não seja um processo simples, do ponto de vista computacional, é possível transformar esse comportamento em um raciocínio computacional, assim como em outras áreas de inteligência artificial, como identificação de imagens e predição de voz e vídeo.

Embora os modelos GPT sejam eficientes, entender completamente seu funcionamento é uma questão complexa. Muitos desses modelos são considerados "caixas pretas", pois suas decisões e processamentos internos não podem ser analisados em sua totalidade. No entanto, a eficácia desses modelos está relacionada ao treinamento extensivo e ao uso de uma vasta quantidade de dados e parâmetros (apesar de são ser uma relação linear). O treinamento desses modelos envolve o uso de Redes Neurais e Aprendizado de Máquina, que são conceitos fundamentais para a compreensão da Inteligência Artificial.

O papel das Redes Neurais e do Aprendizado de Máquina

As Redes Neurais foram desenvolvidas com o intuito de imitar o funcionamento do cérebro humano. Elas processam dados de entrada, passam por camadas de processamento e geram resultados com base nos disparos elétricos entre os neurônios interconectados. O Aprendizado de Máquina ocorre através da tentativa e erro, onde a máquina realiza repetidas vezes uma tarefa, ajustando-se e aprendendo com os resultados obtidos. Essa abordagem - força bruta - é especialmente útil em exemplos complexos, nos quais fórmulas matemáticas podem não ser viáveis. Através da persistência dos resultados obtidos e das pequenas alterações realizadas nos processos anteriores, a máquina melhora gradualmente seu desempenho.

Aqui eu gostaria de deixar uma exemplo prático e uma recomendação. Desenvolvi o projeto Self-Driving Car que utiliza uma rede neural simples com duas camadas de neurônios. Esse exemplo demonstra o funcionamento do Aprendizado de Máquina através da força bruta, onde as diferentes configurações são testadas repetidamente até que se atinja o resultado desejado. Desenvolvi esse projeto em uma aula do professor Radu, uma ótima fonte de conhecimento nesse assunto.

A capacidade de Aprendizado das Máquinas por meio de Redes Neurais oferece a promessa de resultados cada vez melhores com o passar do tempo. Embora esse processo possa parecer inicialmente não intuitivo ou prático, a capacidade de aprimoramento contínuo é um dos aspectos mais interessantes da Inteligência Artificial. Assim como o cérebro humano, os modelos de Aprendizado de Máquina podem alcançar níveis cada vez mais sofisticados de desempenho, mesmo que ainda estejamos longe de explorar todo o seu potencial.

That's all folks!

Para você que gostaria de se aprofundar muito mais nesse assunto, recomendo a leitura deste artigo escrito pelo famoso Stephen Wolfram.

Se quiser saber todo o processo feito para a construção deste artigo, confira: Como eu transformei uma amostra de Audio em um Artigo completo

Encerro aqui a minha explanação, pois não vejo benefício em prolongar ainda mais esse assunto nesse momento. Agradeço a atenção de todos e espero que este material tenha sido proveitoso.

Carregando publicação patrocinada...
3

a capacidade do modelo de criar conteúdo original e criativo

Não. Há alguns dias eu fiz um post aqui sobre um vídeo do Akita que explica em detalhes como o ChatGPT funciona. E uma das coisas importantes que o vídeo faz é justamente derrubar este mito da originalidade e criatividade. A IA não tem essas características, ela só passa a impressão que tem, por causa da forma como funciona.

Os detalhes estão explicados no vídeo (entre lá e siga os links), mas só pra resumir: o ChatGPT não consegue criar nada novo. Ele simplesmente mistura as informações que tem, e só. E existe um parâmetro chamado "temperatura" que introduz uma certa aleatoriedade, fazendo com que ele não repita sempre as mesmas respostas (dando a falsa sensação de que é "criativo").


"Transformer" (não tenho certeza sobra esse) refere-se à capacidade do modelo de transformar conteúdos prévios ou ajustar-se a diferentes contextos, proporcionando flexibilidade em sua geração de conteúdo

Sobre o transformer, na verdade ele é um mecanismo que introduz o conceito de "atenção" (a ideia de "prestar mais atenção" a determinadas partes do texto). Isso é algo que não me aprodundei o suficiente, então não consigo descrever o mecanismo. Mas enfim, além do artigo que vc citou (que explica mais ou menos como o transformer funciona), tem também esse - e ambos eu preciso ler de novo para absorver melhor tudo isso.


De qualquer forma, que bom que vc entende que a IA não é uma ferramenta mágica (só de não cair no hype e na histeria, já está acima da média), e é muito importante desmistificá-la, ainda mais para profissionais da nossa área.

É uma ferramenta importante e ainda vai impactar muito a sociedade, e por isso mesmo temos que entender melhor como ela funciona, seus prós e contras, para que serve e principalmente para que não serve, e usá-la de acordo com cada necessidade. E também parar de atribuir à IA características que ela não tem.

1

também já tinha feito um post no meu blog super simplista sobre o tema mas passando por cima de uma coisa bem especifica do que uma IA é: Uma máquina probabilistica muito grande, cujo único objetivo é tomar uma decisão baseando em contexto

1

Muito obrigado pela resposta. E eu concordo completamente com você, propositalmente eu deixei o conteúdo bastante simples, permitindo esse tipo de confusão (me sinto até meio mal por isso, inclusive).
Mas eu fico feliz que rapidamente pessoas como você vieram contribuir e corrigir alguns pontos, isso me deixa mais tranquilo por saber que quem vier aqui buscar conhecimento vai encontrar nos comentários também.
Obrigado.

1

Filosoficamente falando sobre essa capacidade de "criatividade", o artigo do Wolfram que citei me fez pensar...
Logo no incio ele explica como essa "temperatura" (prever a próxima palavra mais provável, mas com um peso aleatório causando palavras menos prováveis de serem escolhidas vez ou outra) ajuda a gerar um conteúdo mais coerente e interessante.
Será que a própria criatividade humana não seria somente isso? Uma mistura de coisas prováveis e improváveis?
Dessa forma conferindo a capacidade criativa ao modelo de linguagem também?
É estranho pensar que uma característica tão "humana" possa ser reproduzida por uma máquina, mas afinal essa é só nossa opinião como os próprios humanos.

2

As definições de inteligência e criatividade foram criadas por nós humanos. E "por coincidência", segundo elas, somos seres inteligentes e criativos. Que definições convenientes, não?

Enfim, talvez dê pra encaixar a IA nessas definições, ou pelo menos em parte delas. Mas o viés das definições sempre vai pender pro nosso lado.

A máquina só está fazendo o que foi programada para fazer. Até mesmo o componente aleatório foi parametrizado de propósito para se comportar assim. Pode-se dizer que ela está apenas simulando um comportamento humano, mas também poderia-se argumentar que fomos "programados biologicamente" para se comportar da mesma maneira.

Dá pra argumentar pros dois lados, e nunca chegar a uma conclusão. Talvez a criatividade humana seja apenas fruto de várias coisas aleatórias, então seríamos "iguais" à máquina. Mas talvez a máquina só esteja simulando isso de uma maneira limitada.


De qualquer forma, isso não muda minha opinião sobre a importância de entender como a IA funciona, evitando o deslumbramento exagerado e esse hype todo, que pode inclusive ser prejudicial (como todo hype, aliás).

2

No vídeo que eu sugeri abaixo na postagem sobre o vídeo do Akita o Miguel Nicolelis fala até que Inteligência Artificial é um nome ruim, não é nem uma coisa nem outra. Pelo menos ele e eu temos uma coisa em comum, queremos o nome certo para as coisas :D Eu ach oque faz uma diferença enorme para enetdner as coisas, pel omenos quem raciocina sobre, caso contrário, nem nome, nem outras coisas farão diferença.

1

Quando penso em criatividade, penso principalmente na capacidade de fazer associações improváveis. Quem já faz o curso Learning How to Learn da Barbara Oakley, pode lembrar da diferença entre o estado de atenção focado e o difuso.

Enquanto focar em algo leva a uma ativação de um circuito mais restrito de neurônios, o estado difuso faz conexões bem mais amplas, embora não tão profundas.

Eu mesmo penso que, em momentos da minha vida em que assumi uma postura muito séria, minha criatividade diminuiu exponencialmente. Fazer certas coisas "inúteis" e "bobas", para mim, é essencial nesse sentido.

E esse conceito de associações maiis distantes (esotu simplificando aqui) não se aplicaria em ML, talvez, como você disse, associado à temperatura?

Acredito que seria uma simplificação do processo, mas me parece que a analogia é aplicável.

1

Assim como o apontado pelos outros rapazes, o fato dele embaralhar diversas informações e aleatorizar entre elas é exatamente o que nós, humanos, fazemos, seja através de inspirações ou cópias per si, por isso existe a máxima: "Nada se cria, tudo se copia e se transforma". Até mesmo o melhor dos artistas se inspirou em algo, acho que é a mesma coisa quando ela seleciona diversas informações condizentes com o contexto e aleatoriza entre elas.

1

é exatamente o que nós, humanos, fazemos

Não sei. Tem muita discussão sobre se os processos da IA são iguais aos nossos. Existem paralelos e similaridades, como a própria terminologia indica ("inteligência", redes "neurais", que são mais abstrações e metáforas do que algo literal, a meu ver). Mas daí pra cravar que é exatamente a mesma coisa, é um passo grande demais.

Eu ainda não vejo como exatamente igual. Humanos se baseiam no que já existe, é verdade, mas até onde vi, a IA ainda não deu aquele último passo, de criar algo novo de fato. Claro que a maioria dos humanos também não consegue, mas os poucos que o fazem já é suficiente para eu não considerar que a IA atingiu o mesmo grau de inventividade.

1

É, acho que não é a mesma coisa, pois não passa de uma simulação, uma cópia de como funcionamos. Entretanto, concordo contigo que estamos acima das IAs, mas não porque não atingiram o mesmo grau de inventividade, mas por sermos muito mais genéricos. Se formos pegar área por área, acho que elas já nos superam, mas uma IA geradora de fotos pode ser imensamente melhor que um pintor ou fotógrafo em grande parte dos casos, mas não servirá para amarrar um sapato.

1