Executando verificação de segurança...
3

Gentoo Linux bane contribuições de código feitas com IA

Postei esta notícia em um fórum dedicado sobre Linux, mas gostaria de compartilhar com todos aqui. Esta é minha primeira publicação no TabNews.

Como o título diz, um dev do Gentoo Linux propôs em uma RFC o banimento de conteúdos realizados por IA. Mas o banimento vale somente para aquilo que é próprio do Gentoo, por exemplo, ebuilds, códigos do Portage, documentação, etc. Código vindo de terceiros fica mais dífícil de controlar.

O intuito disto é, logicamente, evitar infrações de copyright e mais bugs no código, mas, principalmente, as infrações. Para se ter uma ideia, o Gentoo opera como uma Fundação, sobrevivendo de doações, assim como muito projeto Open Source. Casos judiciais são muito caros e fundações assim não tem recursos para gastar.

Todos podemos lembrar do caso Oracle vs Google, certo?

Como se não bastasse, é preciso verificar a qualidade do código produzido, preocupando-se com brechas de segurança, algumas toscas, outras não.

Só para fazer uma "ponte" com as IA's, recentemente, vimos mais um hype - Devin. Grande parte da mídia e criadores de conteúdo (especializados ou não) entraram de cabeça. "Estamos com os dias contados" era a grande falácia da vez. Pessoas mais sérias analisaram a fundo o que o Devin estava fazendo e mostraram diversos bugs criados pela ferramenta. Alguns bem difíceis de serem pegos, outros, de iniciante.

Assim, com tudo isto acontecendo tudo ao mesmo tempo, na minha opinião, o time do Gentoo deu um "pontapé" na direção certa. Embora não acredite que qualquer time de desenvolvimento aceite código completo feito por IA, em um momento ou outro, isto vai acontecer. Portanto é bom ter diretrizes para ordenar a coisa toda.

Gostaria de saber a opinião de vocês, não necessariamente sobre o Gentoo, mas tudo isto sobre IA.

1

Não ironicamente, isso foi igual a uma consequência que acreditei que poderia ser vista no futuro. Respondida neste comentário.

Não foi exatamente uma previsão, pois no post eu disse que as licenças de software livre e open-source adotariam sub-licenças para impedir a contribuição de código feito por ia. (não nessas palavras) e alguns around sobre o possível futuro da mesma

1

Interessante.
Fiquei curioso para saber mais sobre seu ponto de vista em relação ao uso institucional.

Ontem mesmo vi esta notícia aqui:

Claro que é um projeto piloto, mas, até onde sei, o pessoal do Legislativo ainda não se pronunciou sobre um projeto desta magnitude.

Embora a secretaria de educação informe que todo o conteúdo será validado por professores, é um avanço significativo para o uso da IA.

Mas qual a relação disto com a notícia acima, alguns podem se perguntar, é que são coisas bem parecidas - a criação de conteúdo sobre uma determinada área. Neste caso, conteúdo de aulas da rede pública.

É até compreensível fazer um piloto assim, para você ter dados para trabalhar depois em uma futura implementação, tipo: o que deu certo, o que não deu, como melhorar, etc. Mas tem que ser feito (e posto para teste) com diretrizes bem definidas.

Isto significa o fim dos professores como conhecemos hoje? Ou o fim dos desenvolvedores?

1

Acho que falei uso institucional de forma errada. Mas pense o seguinte:

Eles regulamentam o uso da AI então empresas que usam seriam reguladas e alguns órgãos do estado também.

Mas como alguns papers da AI são abertos e existem muitas aplicações offline e privadas, não acredito que a legislação conseguiria fazer valer em todos os casos

https://www12.senado.leg.br/noticias/materias/2023/10/26/regulamentacao-da-ia-exige-foco-na-centralidade-humana-aponta-debate