Inteligência Artificial (IA): perigos e oportunidades

Frederico Campos
LABHacker
Published in
6 min readApr 19, 2023

A IA chegou! E agora? ChatGPT, Bard, Baidu… Elas têm diferentes nomes e atuam em diversas plataformas. Entraram em nosso dia a dia sem fazer alarde. Rapidamente, ocuparam as discussões nos ambientes de trabalho, academias, lares, restaurantes. Dúvidas e dúvidas. Vamos perder empregos? Perder o controle das informações? Seremos substituídos pelas máquinas? Não saberemos mais o que é realidade?

Pixabay

O ChatGPT (Generative Pre-Trained Transformer) é um protótipo de um chatbot com inteligência artificial, especializado em diálogo e desenvolvido pelo laboratório de pesquisa em inteligência artificial OpenAI, nos Estados Unidos. Dois meses após seu lançamento, 30 de novembro de 2022, o ChatGPT foi acessado por mais de 100 milhões de pessoas em todo mundo e já ocupa um lugar de destaque na história da inteligência artificial. (O TikTok levou cerca de nove meses após seu lançamento global para ter 100 milhões de usuários).

Leia mais em: https://forbes.com.br/forbes-tech/2023/02/chatgpt-tem-recorde-de-crescimento-da-base-de-usuarios/.

A primeira pergunta que fiz para o ChatGPT foi se sabia a minha idade e onde nasci. Ele me respondeu: Eu sou um modelo de linguagem treinado pela OpenAI e não tenho acesso a informações pessoais dos usuários, incluindo a sua idade e local de nascimento. Além disso, como uma medida de privacidade e segurança, nunca peço informações pessoais dos usuários.”

Estranhei e até mesmo duvidei da veracidade da resposta. Afinal, acessei o ChatGPT com minhas informações do Google. Poderia ser facilmente identificado. Mas, ele diz que não. Vamos em frente.

A questão primordial que pretendo explorar sobre as IAs vem de um breve diálogo que fiz com o ChatGPT sobre as fontes das informações utilizadas para gerar as respostas aos usuários. Não pretendo analisar o mérito e assertividade das respostas. Muitas são precisas, outras menos e algumas são erradas. Perguntei ao ChatGPT se ele poderia revelar as fontes pesquisadas para gerar as informações geradas por ele. Resposta:

Como uma máquina de linguagem natural, eu não mantenho um registro de autores ou fontes específicas para cada informação que eu transmito. O meu treinamento é baseado em grandes conjuntos de dados de texto disponíveis na internet, que incluem livros, artigos de notícias, páginas da web e outras fontes. Embora eu possa citar informações específicas de um determinado livro ou autor, eu não sou capaz de identificar automaticamente a autoria ou fonte de todas as informações que eu transmito, a menos que seja claramente mencionado no texto original.”

Esse ponto é crucial para discutirmos a veracidade, a integridade das informações e os cuidados que devemos tomar para utilizá-las. Quando pesquisamos um assunto no Google ou Bing temos acesso às fontes. Os buscadores informam os links, arquivos e autores. Negar essas informações alimenta dúvidas se as informações do ChatGPT podem ser orientadas, enviesadas ou estarem erradas. Ainda na mesma resposta sobre o ocultamento das fontes, ele recomenda:

É importante lembrar que as informações que eu transmito são fornecidas para fins informativos e educacionais, e não devem ser consideradas como uma fonte definitiva ou autoritária. Sempre verifique as informações por conta própria antes de tomar decisões importantes com base nelas”.

A resposta parece ser precisa. Tem astúcia. A IA tenta se eximir de quaisquer responsabilidades sobre as informações fornecidas aos seus interlocutores e possíveis ressarcimentos indenizatórios aos usuários e verdadeiros autores das informações(adeus direito autoral?). Caberia ao usuário a checagem e a responsabilidade pelo uso das informações geradas pela IA. Esses termos são passíveis de discussão ou porque não dizer de regulamentação. Parece ser contrassenso uma Inteligência Artificial definir seus próprios termos. Afinal de contas, quem serve a quem? Quem comanda a Inteligência Artificial?

Rawpixel.com — Freepik.com

Stuart Russel, em seu livro: “Inteligência Artificial a nosso favor: Como manter o controle sobre a tecnologia” faz um potente alerta sobre o controle das IAs. Segundo o autor, se o homem não comandar os algoritmos a fim de garantir que as IAs trabalhem de acordo com os nossos objetivos, ele poderá se tornar um gorila no futuro. Não será ficção ou tarde demais quando alguém tentar desligar o botão da IA e não conseguir. Elas já estarão autônomas e protegidas de um homem primata.

Inteligência Artificial (des)governada

Quatro meses após o lançamento do ChatGPT, mais de 1000 especialistas, entre eles Stuart Russel, Yuval Harari e Elon Musk, assinaram um manifesto para os laboratórios de IA interromperem imediatamente, por pelo menos seis meses, o treinamento de sistemas de IA mais poderosos que o GPT-4, para que os governos e autoridades reguladoras de diversos países possam estabelecer normas e regras para uso e limites da IA.

O manifesto adverte para os grandes riscos da inteligência artificial para a sociedade e humanidade. Eles pedem que os desenvolvedores de IA trabalhem com os formuladores de políticas para acelerar o desenvolvimento de sistemas robustos de governança de IA. “Estes devem incluir, no mínimo: autoridades reguladoras novas e capazes dedicadas à IA; supervisão e rastreamento de sistemas de IA altamente capazes e grandes conjuntos de capacidade computacional; sistemas de proveniência e marca d’água para ajudar a distinguir o real do sintético e rastrear vazamentos de modelos; um ecossistema robusto de auditoria e certificação; responsabilidade por danos causados ​​pela IA; financiamento público robusto para pesquisa técnica de segurança de IA; e instituições com bons recursos para lidar com as dramáticas perturbações econômicas e políticas (especialmente para a democracia) que a IA irá causar”. Pode soar como exagero para algumas pessoas, mas quem viu as fotos falsas de Donald Trump em conflito com policiais elaboradas por meio de IA tem motivos para tamanha preocupação.

Em imagem falsa, Donald Trump é contido por policiais norte-americanos. Reprodução/Twitter

A Itália baniu o ChatGPT após constatar possível acesso indevido de crianças menores de 13 anos ao sistema e vazamento de dados. Alemanha e França estudam a mesma medida. Ao que tudo indica, as IAs tentarão driblar legislações e agir até os limites permitidos pelas legislações de cada país. Enquanto ficamos parados ou atônitos, as IAs se tornam cada vez mais potentes e indispensáveis. Mas, apesar desse horizonte (in)certo é possível reconhecer e admitir que a IA pode e muito auxiliar em diversas atividades.

ChatGPT e políticas públicas (um caminho possível)

Uma experiência recente com o uso do ChatGPT, que pode ser considerada adequada às necessidades de mediação e processamento de informações oriundas de chats, atendimento ao cidadão, foi desenvolvida pela RNP (Rede Nacional de Ensino e Pesquisa), organização social vinculada ao Ministério da Ciência, Tecnologia e Inovação (MCTI). A RNP começou a usar o ChatGPT para auxiliar no atendimento aos seus usuários no dia 30/03. A iniciativa é pioneira no Brasil.

A equipe de desenvolvimento da RNP ensinou a IA a responder as dúvidas dos beneficiários e gestores do Programa Internet Brasil, que oferece chips de dados móveis para alunos da educação básica na rede pública de ensino. Atualmente, o programa atende 6 mil alunos em todo o Brasil. A RNP estima que 600 mil alunos poderão tirar suas dúvidas por meio do chatbot da RNP até o final de 2023. De acordo com a entidade, o índice de acerto da ferramenta já passou de 90%.

Os analistas de TI responsáveis pelo desenvolvimento e implementação do ChatGPT no atendimento da RNP participaram do nosso LabTalks. Amanda Pereira e Lucas Ornelas nos explicaram os principais desafios, caminhos percorridos e resultados alcançados com a implementação do serviço de atendimento ao público do Internet Brasil.

A natureza do ChatGPT, um chat especializado em diálogo, pode orientar bons serviços e ferramentas de mediação de conversas de usuários que participam de bate papos de vários canais do YouTube, das redes sociais, que atendem bilhões de pessoas em todo mundo. Treinar o ChatGPT, controlar as ações e respostas, inibir as fake news, são possibilidades promissoras no atendimento ao público.

A palavra-chave é controle. Quem sabe um dia possamos ter uma IA para chamar de nossa. Treinada por nós para se comunicar e nos proteger de tantas IAs. Ainda tem um longo caminho a percorrer. É só o começo. Mas, ouçamos o alerta dos especialistas: está na hora de fazer um freio de arrumação. O momento para discutir e decidir os limites da IA é agora. Não podemos deixar para as próximas gerações uma trágica lembrança de que o dia 30 de novembro de 2022 foi começo do fim de nossa civilização.

--

--