- Insisti várias vezes que o ChatGPT é um papagaio estocástico (a expressão não é minha, mas de Emily Bender, professora de linguística computacional) ou um gerador de bobagens. Como expliquei, isso se deve ao fato de que o ChatGPT opera com um modelo amplo de linguagem estatístico. Esse modelo é obtido pelo treinamento em um corpus amplo de textos em que a máquina procurará relações estatísticas entre palavras, expressões ou sentenças. Por exemplo, qual a chance de “inflação” vir acompanhada de “juros” numa mesma sentença? Esse é o tipo de relação que será “codificada” no modelo de linguagem. Quanto maior o corpus, maiores as chances de que esse modelo será capaz de produzir textos semelhantes aos que estão contidos no corpus. Esse é um ponto importante de se chamar a atenção. O ChatGPT não copia ipsis litteris um texto que esteja no corpus e o entrega ao usuário. Ele realmente gera um texto novo a cada iteração com o usuário a partir do modelo de linguagem obtido na fase de treinamento. Dado o contexto oferecido pela pergunta/comando/instrução do usuário, ele vai calculando, com base no modelo, as palavras, expressões ou sentenças mais prováveis e, assim, vai sucessivamente construindo um texto. Há, certamente, camadas independentes para controlar a gramática, o estilo e o tamanho do texto. Uma camada importante no ChatGPT, em especial, é a de controle sobre o uso de expressões ofensivas. Certamente há expressões ofensivas associadas a certos grupos e etnias nos textos do corpus de treinamento. Seria de se esperar, então, que o algoritmo eventualmente explorasse e replicasse essas expressões e associações em algum texto produzido. Mas essa camada de controle é projetada para rejeitar o uso de expressões ofensivas. Muitos devem se lembrar do incidente da Microsoft com o chatboot Tay que teve de ser desligado em questão de horas porque começou a vomitar expressões preconceituosas e racistas. Esse chatboot também operava sobre um modelo amplo de linguagem estatístico. Outra camada é a de “checagem” de fatos para evitar a produção de sentenças com equívocos factuais grotescos. Se muitos textos conspiratórios ou negacionistas fazem parte do corpus, seria natural o ChatGPT produzir sentenças afirmando que o aquecimento global não existe ou não é produzido pela atividade humana, que o ataque às Torres Gêmeas foi uma operação do próprio FBI etc. A camada de checagem evita retornar para o usuário afirmações flagrantemente falsas como essas. A construção dessa camada de controle é muito dependente de humanos. O feedback de usuários é um recurso importante, mas um exército de pessoas contratadas pela OpenAI para classificar esses conteúdos e incorporá-los ao modelo é o principal motor da camada de checagem. Outra estratégia para minimizar, mas que não evita completamente, nem de longe, a produção de bobagens (como salientei na conversa, “bobagem” no sentido de que a máquina geradora de texto não tem qualquer preocupação com a verdade das sentenças que produz) seria selecionar com cuidado as fontes que compõem o corpus de textos que alimenta o modelo. Contudo, mesmo que o corpus fosse composto apenas de fontes fidedignas, ainda assim, haveria a produção de sentenças trivialmente falsas. Isso ocorre devido ao modelo de linguagem subjacente que incorpora apenas relações estatísticas entre palavras e expressões. Boa parte das relações entre os conceitos subjacentes às palavras e expressões linguísticas da nossa linguagem não são estatísticas, mas causais, analógicas, metafóricas, lógico-dedutivas etc. Todas essas outras relações ficam de fora do modelo. “Ah, mas o chatGPT consegue escrever uma poesia usando metáforas e analogias”. Sim, mas ele o faz usando relações estatísticas entre palavras e expressões que ocorrem em textos poéticos carregados de metáforas e analogias. Devido a essa restrição, é de se esperar que em algum momento fará comparações estranhas ou ininteligíveis. A imitação fidedigna de um estilo poético ou mesmo a apresentação correta da definição de um termo técnico-científico depende também em grande medida da quantidade de textos no corpus que exemplificam esse estilo e ilustram essa definição. Erros e imprecisões serão mais salientes em assuntos sobre os quais há poucos textos no corpus. Enfatizo mais uma vez: não tome as respostas do ChatGPT de forma oracular, nem mesmo como uma cópia de textos de fontes confiáveis, pois não é isso o que ele faz (e nem sabemos também exatamente quais são as suas fontes).
- Não podemos menosprezar o efeito dessas tecnologias para a empregabilidade. Qualquer atividade que puder ser facilmente mecanizada, será. Operadores de telemarketing têm chances grandes de serem substituídos por máquinas como o ChatGPT no curto prazo. Ontem mesmo havia lido a notícia de que a OpenAI está contratando 1000 pessoas, dentre os quais 40% são programadores e outros 60% são classificadores de conteúdo, para a automatização de geração de códigos em python. Muito embora programas de alta complexidade ainda não poderão ser gerados confiavelmente por essa máquina, programas simples serão. O problema é que a maioria dos empregos na área são para a produção de códigos simples de rotina. Não há como negligenciar esse efeito. Também não há como fazer vista grossa à legião de empregos precários sobretudo nos países periféricos para satisfazer a necessidade das grandes corporações de IA na classificação de dados (as “modernas” e “bem-sucedidas” IA são fortemente dependentes de dados classificados por humanos). A ameaça de tirar empregos e criar outros ainda mais precários, com salários menores e provavelmente em número insuficiente para compensar a perda dos primeiros não é uma que possamos negligenciar. Não sejamos ingênuos em relação aos interessas das companhias do vale do silício que estão por trás dessas tecnologias. Outro receio, tão grave quanto, é que, por pressão do mercado, acabemos “aceitando” a mecanização não muito confiável de atividades humanas. Como dito acima, é da natureza das IAs da moda produzir alguns resultados errôneos. Em algumas áreas, esses erros podem ser inofensivos. Em outras, nem tanto. Imagine uma IA dessas decidindo se você pode ou não receber um auxílio social. Mas a redução de custo pode acabar impondo mesmo assim o uso dessas soluções. Ecoando a cientista da computação Melanie Mitchell, um dos maiores perigos colocados pela IA atual é que transfiramos para máquinas decisões que elas ainda não estão, e talvez jamais poderão estar, em condições de fazer com transparência e confiabilidade.
Comentários