E se dessa vez a atmosfera pegar fogo…
Fissão nuclear, Skynet e os limites éticos do uso de IA
A cultura pop é recheada de histórias sobre uma evolução tecnológica ao qual permitiria as máquinas se tornam conscientes. Nesse processo evolucionário, o próximo passo consistiria nas máquinas perceberem a humanidade como uma ameaça. Esse é o enredo, por exemplo, da franquia Exterminador do Futuro (Terminator) que nos apresenta a Skynet, uma inteligência artificial criada pela Cyberdyne Systems e que decidiu que a raça humana deveria ser exterminada.
Nessa ficção, os cientistas decidiram por desligá-la ao perceberem os riscos envolvidos no projeto da Skynet. Como forma de retaliação, ou defesa, o sistema autônomo disparou mísseis nucleares americanos contra alvos na Rússia. A Rússia revidou, iniciando assim um holocausto nuclear conhecido como o Dia do Julgamento.
O enredo descrito anteriormente traz em si diversos elementos das produções que tem a Guerra Fria como pano de fundo. Nesse período, existia uma tensão geopolítica entre a extinta União Soviética e os Estados Unidos, iniciada logo após o fim da Segunda Guerra Mundial. Contudo, gostaria de voltar para antes do inicio da Guerra Fria, especificamente para os dias em que muitos homens e mulheres buscavam o pioneirismo em desenvolver uma nova tecnologia que seria conhecida como bomba atômica.
O início do fim
Em 2023 foi lançada a filme-biografia de J. Robert Oppenheimer que foi um físico nuclear que liderou o Projeto Manhattan. O objetivo desse projeto era dominar a tecnologia de construção de uma arma nuclear antes dos alemães. Para aqueles que não tenham assistido ao filme, os próximos parágrafos podem apresentar alguns spoilers.
Em 1942, Edward Teller, um dos pesquisadores do Projeto Manhattan, fez uma apresentação na qual observou que uma explosão atômica poderia criar as condições sob as quais reações de fusão poderiam ocorrer. Em teoria, haveria uma chance remota de uma bomba atômica iniciar uma ignição de toda a atmosfera.
Na época, dado o pouco conhecimento sobre a fissão nuclear, tal teoria apenas poderia ser descartada com um teste real, ou seja, disparando um protótipo da bomba e analisando os resultados. Esse teste ficou conhecido como Trinity.
Apesar do risco, a justificativa ética para prosseguir com o projeto era evitar que os nazistas tivesse a bomba antes. É importante dizer que em julho de 1945, época do fatídico teste Trinity, a Alemanha nazista já havia se rendido.
Nesse momento, meu caro leitor, precisamos nos fazer a seguinte pergunta: Qual é o limite (ético/moral) para o teste/evolução de uma nova tecnologia? Trazendo para o tema central desse texto, qual deveria ser a nossa atitude se a próxima geração de ferramentas de IA, pudesse incendiar o nosso mundo?!
Ferramentas de IA não são mais o futuro
O ano de 2023 pode ser considerado como um ponto de inflexão no uso das IAs generativas, pelo menos em alguns nichos, como o desenvolvimento de software.
Soluções como Github Copilot, AWS Code Whisperer e AI Assistant da JetBrains já fazem parte do ecossistemas de muitos desenvolvedores, permitindo o aumento da quantidade de código produzido, reduzindo o número de tarefas repetitivas e facilitando a escrita de testes automatizados.
Apesar de certa desconfiança de alguns (inclusive minha), o uso de ferramentas de inteligência artificial me parece um caminho sem volta. Todavia, a discussão sobre os parâmetros éticos que governam esse tipo de ferramenta necessitam ser discutidos. Vamos analisar alguns exemplos recentes.
Frankenstein e a AI Generativa
O Prêmio Jabuti é o mais tradicional prêmio literário do Brasil, concedido pela Câmara Brasileira do Livro (CBL). Na edição de 2023, a ilustração do clássico Frankenstein, de Mary Shelley, foi desclassificado por ter utilizado o suporte de ferramentas de IA.
A justificativa se deu porque: "as regras da premiação estabelecem que casos não previstos no regulamento sejam deliberados pela curadoria, e a avaliação de obras que utilizam IA em sua produção não estava contemplada nessas regras”.
Coincidência ou não, chega a ser irônico que essa discussão tenha ocorrido a partir de ilustrações de um livro, cujo ponto central seja a relação entre criador e criatura e seus limites éticos.
Trazendo novamente para o contexto em que estou inserido, vejo que alguns processo seletivos para a área de desenvolvimento, é comum que o candidato possa “levar uma tarefa para casa” como uma forma de avaliar suas habilidades técnicas. No papel de avaliador, deveríamos considerar as soluções que utilizem algum suporte de IA? Como podemos separar a contribuição da “máquina” na solução proposta pelo candidato?
Se definir os limites de propriedade intelectual está cada vez mais complexo, imagine quando o uso da inteligência artificial pode definir entre vida e morte.
O Evangelho: massificando ataques a bomba com IA
O jornal The Guardian relevou a existência de um sistema israelense chamado de The Gospel (O Evangelho). Trata-se de um sistema orientado à dados (data-driven) que utiliza IA para definir alvos a serem bombardeados em Gaza.
A reportagem salienta que o objetivo do projeto é acelerar o processo de definição de alvos militares ao mesmo tempo que mitigue o número de vítimas civis[³]. No contexto de uma guerra, uma visão tecnocrata poderia encontrar valor em um procedimento técnico e “não enviesado” para definição de potenciais alvos. O ponto é que justamente essas ferramentas possuem vieses.
Para aqueles que conhecem um pouco sobre o desenho de sistemas de inteligência artificial sabe que é pouco provável construí-los sem algum tipo de viés. Nesse sentido, um sistema que define alvo militares, necessita ser configurado com parâmetros que traz em si todo enviesamento/preconceitos intrínseco ao ser humano. O fato de um sistema de software fazer parte do fluxo de decisão de quem vive ou morre é assustador. Bem mais do que uma eventual Skynet. Existe o real perigo de consideramos tais tomadas de decisão como neutras e percamos a capacidade de termos uma visão crítica sobre os resultados.
E se dessa vez incendiar?
Considerando a tecnologia atual, sistemas como a Skynet ainda são apenas obras de ficção. Contudo, exemplos como o The Gospel apenas reforça a importância de discutimos a abrangências dos sistemas de IA na nossa sociedade, especialmente em tomadas de decisão sobre vida e morte. Se partirmos da premissa que os resultados fornecidos por esse tipo de ferramenta são uma verdade absoluta e neutra, podemos nos tornar mera engrenagens em decisões humanas que são complexas por natureza. Pode ser que dessa vez a atmosfera vai incendiar…
PS: Esse texto foi escrito sem suporte de ferramentas de inteligência artificial. Trata-se de uma opção e não um diferencial. Pode ser que no futuro esse tipo de conteúdo se torne um nicho, em que as produções intelectuais humanas, tais como textos, músicas, vídeos e etc recebem a etiqueta de “artesanal” quando optaram por obter auxílio de um máquina (enviesada).
Quer conhecer mais sobre os times de tecnologia da Hotmart?
Acompanhe a nossa comunidade de tecnologia pelo site Hot Hackers. Por lá você se inscreve em nossa newsletter mensal, nos eventos, acompanha o Podcast de tecnologia Pod&Dev, e não perde nenhuma novidade!
Para se candidatar às vagas, acesse nossa página de Jobs.
Até a próxima! 🎙️