Limitações técnicas e desafios éticos na busca por um futuro seguro com IAs cada vez mais avançadas
There's an English version of this article available here.
Recentemente, um amigo me enviou uma notícia falando sobre como GPT-4 “mentiu” para enganar um ser humano, e quais são as implicações éticas disso. Eu me arrisco a dizer que, em alguns anos, a sociedade começará a enfrentar problemas reais criados por Inteligências Artificais. E não me refiro aqui a problemas como conteúdo falso gerado por IA a partir de uma demanda humana — algo que já existe hoje e é utilizado para influenciar as pessoas — mas sim a problemas criados pelas próprias inteligências — envolvendo dilemas éticos, como essa questão da mentira “contada” por uma IA.
Vivemos em uma sociedade onde o objetivo final é a busca pela maximização do lucro — não da felicidade, não a bondade, e não quaisquer outros valores que um ser humano possa vir a possuir. Sendo assim, é natural que uma IA criada por seres humanos e treinada com base em largos conjuntos de dados produzidos também por seres humanos possa vir a reproduzir comportamentos que um ser humano vivendo nesta mesa sociedade reproduziria — mesmo que a IA não tenha sido projetada para atingir, diretamente, tal objetivo.
E este não é um problema simples de ser resolvido. Por melhor que seja a equipe por trás da criação de uma IA; por melhor que sejam os desenvolvedores que a criaram e por mais que tentem colocar travas, regras ou outros bloqueios que venham a impedir a IA de reproduzir determinados comportamentos ou executar ações inadequadas, me arrisco a dizer que estas nunca serão suficientes. Assim como nenhum sistema de segurança é 100% seguro, nenhuma IA avançada pode ser totalmente contida por travas que a impeçam de cometer “possíveis ações indesejadas”. Especialmente no caso de IAs que são re-treinadas constantemente — eventualmente aprenderão formas de contornar os bloqueios existentes — mesmo que de maneira não intencional. Não é possível prever com exatidão a resposta de uma IA, bem como não é possível bloquear previamente todos os comportamentos indesejados — afinal, nem se sabe listar quais seriam todos estes.
Com o lançamento do ChatGPT há alguns meses e de novos modelos baseados em LLM surgindo, isso ficou ainda mais evidente — dada a proporção e a exposição à mídia que estes temas vem recebendo recentemente. O próprio ChatGPT, em poucas semanas, sofreu com brechas encontradas por usuários no Reddit que o permitiram replicar comportamentos que deveriam ter sido barrados pelas medidas de proteção impostas pela OpenAI, sua desenvolvedora. O Bing — da Microsoft, que tem feito grandes investimentos na OpenAI também sofreu com problemas parecidos após seu mais recente lançamento. Se estas IAs — tão avançadas, mas ao mesmo tempo limitadas — já sofrem com problemas do tipo, que garantia teremos que versões mais evoluídas em 5 ou 10 anos não estarão gerando problemas maiores — que de fato poderão trazer graves consequências? A resposta é: não temos nenhuma garantia, e ter apenas uma “boa intenção” por trás do desenvolvimento de uma IA — como a OpenAI diz possuir — não é suficiente.