Limitações técnicas e desafios éticos na busca por um futuro seguro com IAs cada vez mais avançadas

Bernardo do Amaral Teodosio
3 min readMar 28, 2023

--

There's an English version of this article available here.

Recentemente, um amigo me enviou uma notícia falando sobre como GPT-4 “mentiu” para enganar um ser humano, e quais são as implicações éticas disso. Eu me arrisco a dizer que, em alguns anos, a sociedade começará a enfrentar problemas reais criados por Inteligências Artificais. E não me refiro aqui a problemas como conteúdo falso gerado por IA a partir de uma demanda humana — algo que já existe hoje e é utilizado para influenciar as pessoas — mas sim a problemas criados pelas próprias inteligências — envolvendo dilemas éticos, como essa questão da mentira “contada” por uma IA.

Vivemos em uma sociedade onde o objetivo final é a busca pela maximização do lucro — não da felicidade, não a bondade, e não quaisquer outros valores que um ser humano possa vir a possuir. Sendo assim, é natural que uma IA criada por seres humanos e treinada com base em largos conjuntos de dados produzidos também por seres humanos possa vir a reproduzir comportamentos que um ser humano vivendo nesta mesa sociedade reproduziria — mesmo que a IA não tenha sido projetada para atingir, diretamente, tal objetivo.

E este não é um problema simples de ser resolvido. Por melhor que seja a equipe por trás da criação de uma IA; por melhor que sejam os desenvolvedores que a criaram e por mais que tentem colocar travas, regras ou outros bloqueios que venham a impedir a IA de reproduzir determinados comportamentos ou executar ações inadequadas, me arrisco a dizer que estas nunca serão suficientes. Assim como nenhum sistema de segurança é 100% seguro, nenhuma IA avançada pode ser totalmente contida por travas que a impeçam de cometer “possíveis ações indesejadas”. Especialmente no caso de IAs que são re-treinadas constantemente — eventualmente aprenderão formas de contornar os bloqueios existentes — mesmo que de maneira não intencional. Não é possível prever com exatidão a resposta de uma IA, bem como não é possível bloquear previamente todos os comportamentos indesejados — afinal, nem se sabe listar quais seriam todos estes.

Com o lançamento do ChatGPT há alguns meses e de novos modelos baseados em LLM surgindo, isso ficou ainda mais evidente — dada a proporção e a exposição à mídia que estes temas vem recebendo recentemente. O próprio ChatGPT, em poucas semanas, sofreu com brechas encontradas por usuários no Reddit que o permitiram replicar comportamentos que deveriam ter sido barrados pelas medidas de proteção impostas pela OpenAI, sua desenvolvedora. O Bing — da Microsoft, que tem feito grandes investimentos na OpenAI também sofreu com problemas parecidos após seu mais recente lançamento. Se estas IAs — tão avançadas, mas ao mesmo tempo limitadas — já sofrem com problemas do tipo, que garantia teremos que versões mais evoluídas em 5 ou 10 anos não estarão gerando problemas maiores — que de fato poderão trazer graves consequências? A resposta é: não temos nenhuma garantia, e ter apenas uma “boa intenção” por trás do desenvolvimento de uma IA — como a OpenAI diz possuir — não é suficiente.

--

--

Bernardo do Amaral Teodosio

Tech Lead & Mobile Developer @ Sandbox Group/PlayKids | BSc CS (UNICAMP) | MSc Candidate @UNICAMP