ChatGPT pode ser espelho para ignorância?

Ou seria portal para conhecimento?

Bernardo Monteiro
Alto-falante de formiga
5 min readMay 25, 2024

--

O artigo que escrevi e publiquei aqui no dia 22 de maio de 2024, sobre a possibilidade de a IA dos LLMs serem úteis na mitigação dos riscos do extremismo merece um contraponto. Imaginei que, dentre os meus melhores leitores, emergiriam de céticos a alarmistas fazendo críticas ao meu otimismo, ou mesmo à minha ingenuidade, mas nada foi questionado, ou melhor, nenhum questionamento chegou até mim. Por isso sinto-me na obrigação de ressaltar algumas hipóteses em que o uso de LLMs pode gerar ainda mais desinformação, apesar dos argumentos contrários que apresentei no meu artigo precedente.

Espelho, espelho meu…

Não faltam artigos nos grandes jornais alertando para os viéses da IA e sobre como ela pode ser manipulada para servir como reforço à polarização política. Por exemplo, o artigo “AI and the Election: See How Easily A.I. Chatbots Can Be Taught to Spew Disinformation” do New York Times, explora como chatbots de IA podem ser manipulados para espalhar desinformação em grande escala. Alimentando a máquina com posts de redes sociais como Reddit e Parler, pesquisadores demonstraram que é fácil ajustar chatbots para gerar conteúdos extremos e polarizados.

No entanto, para além das possibilidades de manipulação mal intencionada de IAs, há casos em que os usuários do ChatGPT influenciam as respostas da máquina pelo modo como formulam suas perguntas. Isso ocorre independentemente de má-fé ou boa-fé desses usuários.

Se eu pergunto para o ChatGPT 4-o o que significa a expressão “vai dar zambia”, ele pode responder o seguinte:

Mas se o amigo desconfiado faz uma pergunta que nega em si mesma a existência da expressão “vai dar zambia”, o ChatGPT, que não tem personalidade nem é realmente inteligente, pode responder o seguinte:

Isso mostra como a máquina é influenciável pelo viés da pergunta, chegando ao cúmulo de dizer que algo existe ou que não existe dependendo apenas da forma como a pergunta é formulada. É possível concluir dessas duas conversas reais com o ChatGPT 4-o que a base de conhecimento do LLM pode gerar respostas para todos os gostos, respostas contraditórias, que afirmam e negam a mesma informação usando a mesma fonte e o mesmo algoritimo. Notem que a base de conhecimento do ChatGPT contém a informação, absolutamente verdadeira, de que vai dar zambia é uma expressão que existe na língua portuguesa e significa precisamente que uma situação vai se complicar. Mesmo assim a IA pode confirmar ou negar essa informação, de forma difícil de prever.

ChatGPT fazendo suas apostas

Nesse exemplo, é possível pensar na hipótese de que a pergunta com maior probabilidade de produzir uma resposta correta é a pergunta neutra, do tipo “o que é isso?” ou “o que significa isso?”. Assim a IA pode aparentar inteligência e erudição em sua resposta. Mas ao introduzir na pergunta uma dúvida sobre a existência da expressão “vai dar zambia”, o usuário talvez esteja induzindo a máquina a produzir como resposta mais provável aquela que segue a estrutura da pergunta. Nesse caso a máquina, tão sugestionável, aparenta burrice e subserviência, mas ela está apenas fazendo de forma eficiente a tarefa para a qual foi desenhada:

Portanto, quando introduzimos viéses em nossas perguntas ou prompts ao ChatGPT, ele usa esses viéses como parte do contexto para produzir suas respostas, fazendo dos LLMs espelhos dos usuários.

Com isso, o ChatGPT se assemelha ao senhor da Parábola dos Talentos:

Sabendo que os "talentos" na parábola eram uma forma de dinheiro da época, normalmente peças de metais preciosos, há ao menos duas interpretações possíveis para a Parábola dos Talentos. A primeira enaltece aqueles que multiplicam seus talentos e pune aqueles que tentam apenas preservar o que recebem. A segunda interpretação vê nessa Parábola uma crítica social sobre a desigualdade que faz alguns nascerem e crescerem pobres, sem recursos (talentos), enquanto outros nascem e crescem com acesso a muitos recursos, vindo a prosperar. Os pobres acabam perdendo o que já têm enquanto os ricos ficam mais ricos recebendo o pouco que os pobres têm a dar.

Se entendermos como válida a segunda interpretação, independentemente da validade ou não da primeira, podemos pensar em uma analogia com o uso do ChatGPT. As pessoas com boa formação serão as mais beneficiadas pela tecnologia, simplesmente porque saberão extrair dela os melhores resultados, enquanto que as pessoas com pior formação, mesmo que tenham igual acesso à tecnologia, não saberão usá-la nem extrair bons resultados, tendo dificuldade para prosperar.

ChatGPT pode funcionar como um espelho para a ignorância e para a arrogância. Mas pode funcionar também como um portal para o conhecimento onde aqueles que têm muito conhecimento terão acesso facilitado a mais conhecimento.

Se depender do ChatGPT, essa desigualdade de recursos e talentos tende a continuar aumentando, o que a meu ver exige ainda mais políticas públicas dedicadas a reduzir a desigualdade. Não há dúvida de que essas políticas públicas tão necessárias envolvem educação gratuita e de qualidade para os menos favorecidos.

Hoje temos no congresso um projeto de lei por meio do qual se pretende proteger as pessoas da IA de forma paternalista. Eu diria que a melhor maneira de proteger as pessoas do avanço da IA seria educando-as para que dominem o uso dessas ferramentas, evitando que sejam dominadas ou prejudicadas por elas. Mas infelizmente, no artigo 2º do projeto de lei, que trata dos "fundamentos do uso de IA no Brasil", a educação aparece no décimo e último inciso desse artigo, refletindo a prioridade que nosso legislativo dá ao que deveria ser o fundamento dos fundamentos da sociedade brasileira: a educação.

Em breve comentarei outros aspectos do Projeto de Lei n° 2338, de 2023, do Senado Federal.

– Bernardo Monteiro

--

--

Bernardo Monteiro
Alto-falante de formiga

Advogado e biólogo por formação. Cozinheiro por paixão.