Pular para o conteúdo principal

[205] Desafios e limitações do ChatGPT


 

Ontem tive uma excelente discussão com o Everton Garcia da Costa (UFRGS) e André Dirceu Gerardi (FGV-SP), a convite do NUPERGS, sobre Desafios e Limitações do ChatGPT nas ciências humanas. Agradeço a ambos pela aprendizagem propiciada. Gostaria de fazer duas considerações que não enfatizei o bastante ou esqueci mesmo de fazer.

  1. Insisti várias vezes que o ChatGPT é um papagaio estocástico (a expressão não é minha, mas de Emily Bender, professora de linguística computacional) ou um gerador de bobagens. Como expliquei, isso se deve ao fato de que o ChatGPT opera com um modelo amplo de linguagem estatístico. Esse modelo é obtido pelo treinamento em um corpus amplo de textos em que a máquina procurará relações estatísticas entre palavras, expressões ou sentenças. Por exemplo, qual a chance de “inflação” vir acompanhada de “juros” numa mesma sentença? Esse é o tipo de relação que será “codificada” no modelo de linguagem. Quanto maior o corpus, maiores as chances de que esse modelo será capaz de produzir textos semelhantes aos que estão contidos no corpus. Esse é um ponto importante de se chamar a atenção. O ChatGPT não copia ipsis litteris um texto que esteja no corpus e o entrega ao usuário. Ele realmente gera um texto novo a cada iteração com o usuário a partir do modelo de linguagem obtido na fase de treinamento. Dado o contexto oferecido pela pergunta/comando/instrução do usuário, ele vai calculando, com base no modelo, as palavras, expressões ou sentenças mais prováveis e, assim, vai sucessivamente construindo um texto. Há, certamente, camadas independentes para controlar a gramática, o estilo e o tamanho do texto. Uma camada importante no ChatGPT, em especial, é a de controle sobre o uso de expressões ofensivas. Certamente há expressões ofensivas associadas a certos grupos e etnias nos textos do corpus de treinamento. Seria de se esperar, então, que o algoritmo eventualmente explorasse e replicasse essas expressões e associações em algum texto produzido. Mas essa camada de controle é projetada para rejeitar o uso de expressões ofensivas. Muitos devem se lembrar do incidente da Microsoft com o chatboot Tay que teve de ser desligado em questão de horas porque começou a vomitar expressões preconceituosas e racistas. Esse chatboot também operava sobre um modelo amplo de linguagem estatístico. Outra camada é a de “checagem” de fatos para evitar a produção de sentenças com equívocos factuais grotescos. Se muitos textos conspiratórios ou negacionistas fazem parte do corpus, seria natural o ChatGPT produzir sentenças afirmando que o aquecimento global não existe ou não é produzido pela atividade humana, que o ataque às Torres Gêmeas foi uma operação do próprio FBI etc. A camada de checagem evita retornar para o usuário afirmações flagrantemente falsas como essas. A construção dessa camada de controle é muito dependente de humanos. O feedback de usuários é um recurso importante, mas um exército de pessoas contratadas pela OpenAI para classificar esses conteúdos e incorporá-los ao modelo é o principal motor da camada de checagem. Outra estratégia para minimizar, mas que não evita completamente, nem de longe, a produção de bobagens (como salientei na conversa, “bobagem” no sentido de que a máquina geradora de texto não tem qualquer preocupação com a verdade das sentenças que produz) seria selecionar com cuidado as fontes que compõem o corpus de textos que alimenta o modelo. Contudo, mesmo que o corpus fosse composto apenas de fontes fidedignas, ainda assim, haveria a produção de sentenças trivialmente falsas. Isso ocorre devido ao modelo de linguagem subjacente que incorpora apenas relações estatísticas entre palavras e expressões. Boa parte das relações entre os conceitos subjacentes às palavras e expressões linguísticas da nossa linguagem não são estatísticas, mas causais, analógicas, metafóricas, lógico-dedutivas etc. Todas essas outras relações ficam de fora do modelo. “Ah, mas o chatGPT consegue escrever uma poesia usando metáforas e analogias”. Sim, mas ele o faz usando relações estatísticas entre palavras e expressões que ocorrem em textos poéticos carregados de metáforas e analogias. Devido a essa restrição, é de se esperar que em algum momento fará comparações estranhas ou ininteligíveis. A imitação fidedigna de um estilo poético ou mesmo a apresentação correta da definição de um termo técnico-científico depende também em grande medida da quantidade de textos no corpus que exemplificam esse estilo e ilustram essa definição. Erros e imprecisões serão mais salientes em assuntos sobre os quais há poucos textos no corpus. Enfatizo mais uma vez: não tome as respostas do ChatGPT de forma oracular, nem mesmo como uma cópia de textos de fontes confiáveis, pois não é isso o que ele faz (e nem sabemos também exatamente quais são as suas fontes).
  2. Não podemos menosprezar o efeito dessas tecnologias para a empregabilidade. Qualquer atividade que puder ser facilmente mecanizada, será. Operadores de telemarketing têm chances grandes de serem substituídos por máquinas como o ChatGPT no curto prazo. Ontem mesmo havia lido a notícia de que a OpenAI está contratando 1000 pessoas, dentre os quais 40% são programadores e outros 60% são classificadores de conteúdo, para a automatização de geração de códigos em python. Muito embora programas de alta complexidade ainda não poderão ser gerados confiavelmente por essa máquina, programas simples serão. O problema é que a maioria dos empregos na área são para a produção de códigos simples de rotina. Não há como negligenciar esse efeito. Também não há como fazer vista grossa à legião de empregos precários sobretudo nos países periféricos para satisfazer a necessidade das grandes corporações de IA na classificação de dados (as “modernas” e “bem-sucedidas” IA são fortemente dependentes de dados classificados por humanos). A ameaça de tirar empregos e criar outros ainda mais precários, com salários menores e provavelmente em número insuficiente para compensar a perda dos primeiros não é uma que possamos negligenciar. Não sejamos ingênuos em relação aos interessas das companhias do vale do silício que estão por trás dessas tecnologias. Outro receio, tão grave quanto, é que, por pressão do mercado, acabemos “aceitando” a mecanização não muito confiável de atividades humanas. Como dito acima, é da natureza das IAs da moda produzir alguns resultados errôneos. Em algumas áreas, esses erros podem ser inofensivos. Em outras, nem tanto. Imagine uma IA dessas decidindo se você pode ou não receber um auxílio social. Mas a redução de custo pode acabar impondo mesmo assim o uso dessas soluções. Ecoando a cientista da computação Melanie Mitchell, um dos maiores perigos colocados pela IA atual é que transfiramos para máquinas decisões que elas ainda não estão, e talvez jamais poderão estar, em condições de fazer com transparência e confiabilidade.

Comentários

Postagens mais visitadas deste blog

[102] Relativismo e Irracionalismo

Irracionalismo é a tese de que os nossos julgamentos são arbitrários. O irracionalismo pode aplicar-se apenas a um setor do conhecimento humano. Por exemplo, podemos ser irracionalistas morais. Assim, julgamentos morais sobre como agir, o que fazer, o que é certo e errado são arbitrários, não temos uma razão para eles, eles não se fundam em nada que possa legitimá-los diante dos outros. Podem ser fomentados por nossas emoções ou desejos, mas nada disso tira a sua arbitrariedade diante da razão. Chegaríamos ao irracionalismo moral se tivéssemos razões para pensar que não há nada na razão que pudesse amparar julgamentos morais. Isto é, dado um dilema moral do tipo "devo fazer X ou ~X", não há ao que apelar racionalmente para decidir a questão. Donde se seque que, qualquer decisão que você tomar, seja a favor de X, seja de ~X, será arbitrária. Como poderia a razão ser tão indiferente à moralidade? Primeiro vejamos o que conferiria autoridade racional a um julgamento moral, pois

[197] Breve introdução à tese da mente estendida

A tese da mente estendida é distinta e não se confunde com o externismo acerca dos conteúdos mentais. Nesta breve introdução, apresento em linhas gerais o externismo acerca dos conteúdos mentais para, em seguida, contrastá-lo com a tese da mente estendida. Identifico e apresento, então, os principais comprometimentos da tese da mente estendida. A tese do externismo acerca dos conteúdos mentais afirma que as relações causais que temos com o ambiente determinam, de alguma forma, o conteúdo dos nossos estados mentais, ou seja, aquilo que percebemos, ou aquilo acerca do qual pensamos algo, ou aquilo que desejamos etc. depende dos objetos com os quais interagimos causalmente. Um argumento comum em favor dessa tese é inspirado no argumento clássico de Putnam para o externismo semântico[1]. Imaginemos um planeta muito semelhante ao nosso, praticamente gêmeo nas aparências. Ele é abundante em um líquido muito semelhante à água, povoado com seres inteligentes como nós e que usam esse lí

[200] A distinção entre contexto de descoberta e contexto de justificação, segundo Reichenbach

A distinção entre contexto de descoberta e contexto de justificação é normalmente apresentada como marcando a diferença entre, por um lado, os processos de pensamento, teste e experimentação que de fato ocorreram em um laboratório ou em um ambiente de pesquisa e que levaram ou contribuíram para alguma descoberta científica e, de outro, os processos de justificação e validação dessa descoberta. Haveria, portanto, uma clara diferença entre descrever como cientistas chegaram a fazer certas alegações científicas, o que seria uma tarefa para as ciências empíricas, como a sociologia, a psicologia e a antropologia da ciência, e justificar essas alegações, o que seria uma tarefa para a epistemologia, uma disciplina normativa e não-empírica. Essa distinção é corriqueira em debates acerca do escopo da filosofia da ciência e teria sido explicitada inicialmente por Reichenbach. Contudo, quando examinamos a maneira como ele circunscreveu as tarefas da epistemologia, notamos que alguns elemento