Ética das coIsAs

Frederico Campos
LABHacker
Published in
5 min readJul 7, 2023

É possível estabelecer códigos de ética para a Inteligência Artificial? Afinal, a ética não diz respeito à conduta humana?

Fonte: Pixabay

A internet das coisas já é uma realidade. Aparelhos eletroeletrônicos interconectados e controlados por meio da internet. A principal pergunta do momento não é como as coisas são controladas, e sim por quem elas serão controladas. Nós humanos ou uma inteligência artificial. E se nós humanos também seremos controlados por ela(s). Enquanto tentamos descobrir os limites das IAs, elas não param de surgir, de se multiplicar.

As IAs já ocupam as plataformas digitais. A cada dia que passa, novas inteligências artificiais são criadas e assumem o protagonismo em diversas tarefas do nosso dia a dia. Pesquisas, relatórios, projetos, desenhos, animações, várias são as possibilidades de uso das IAs.

Especialistas já fizeram diversos alertas para o perigo que permeia o encanto das IAs: desemprego, desinformação, concentração em poucas mãos, dependência e controle do dia a dia das pessoas. Ainda não existe uma governança ou códigos de ética que garantam um ecossistema seguro e confiável para trocar tantas informações pessoais, profissionais, corporativas, institucionais, nos setores público e privado.

Quando falamos em inteligência artificial não podemos esquecer que existem diversos tipos de IA. Arend Hintze, professor de Biologia e Ciência Informática na Universidade de Michigan, estabeleceu uma classificação com quatro tipos: a reativa, que não tem capacidade de criar memória; a de memória limitada, capaz de olhar o passado, sem conseguir armazenar e compilar a experiência ao longo dos anos, como um ser humano pode fazer; a de teoria da mente, que compreende como pensamos, como nos sentimos, o que esperamos e como queremos ser tratados; e a de autoconsciência, capaz de tomar decisões com base em experiências passadas e ter consciência de si própria.

Fonte: CEUPE Magazine

Entender os tipos e os limites das IAs pode nos ajudar a estabelecer termos de uso, códigos de ética, modelos de governança e leis específicas para cada uma delas. Quanto mais autônoma for uma inteligência artificial, cuidados e limites deverão ser observados ao se regulamentar, regular e fiscalizar as IAs.

Códigos de ética para inteligência artificial

O que pode ser feito pelos governos, empresas e cidadãos para estabelecer boas práticas, condutas éticas, normas e leis que garantam o controle, sem ferir a liberdade de expressão, a transparência e a segurança no uso das IAs? Para falar desse(s) desafio(s), o LabTalks recebeu dois especialistas que conhecem bem sistemas de governança (soft laws) e regulação das plataformas digitais (hard laws).

A diretora da coordenação de apoio à governança e à gestão de TIC da Câmara dos Deputados, Patricia Almeida, apresentou sua tese de doutorado sobre as boas práticas de governança das IAs em todo mundo. Ela analisou 28 organizações públicas, em 17 países, que usam a inteligência artificial e estabeleceram princípios éticos para garantir a segurança, equidade e privacidade para os usuários dessa tecnologia.

Patricia acredita que a regulação da inteligência artificial é imprescindível, mas pondera que ela não pode chegar no detalhe de cada empresa, de cada governo, de cada organização, de cada aplicação. “Então, a gente precisa de outra camada, abaixo da regulação, que a gente chama de soft law, que são normas flexíveis, algo que pode ser particularizado para cada empresa; e essas normas, como são flexíveis, só fazem sentido dentro de um modelo de governança que chame por uma cobrança”. A governança é complementar à regulação legal.

Os melhores sistemas de governança pesquisados por Patricia promovem três ações simultâneas: coleta de feedback de sistemas, monitoração automática de performance e uma supervisão humana. Em sua pesquisa, as organizações que tiveram as maiores notas em ações para governança das IAs treinaram os seus gestores, desenvolvedores e têm acesso aos seus próprios códigos.

Christian Perrone, professor e pesquisador do ITS Rio, nosso outro convidado do LabTalks, trouxe um panorama da regulação da inteligência artificial em diversos países (EUA, Japão, China, Índia). Ele concorda com os modelos de governança das IAs, as soft laws, mas adverte: elas não têm o impacto de obrigatoriedade necessário para as empresas ou organizações que estejam desenvolvendo a IA internalizarem princípios éticos. Christian destaca a importância da lei, da hard law, para lidar com essa questão. “Existe um ecossistema em que a governança irá harmonizar as hard laws e soft laws, que cria um caminho de implementação concreta. Nesse sistema tem a parte de fiscalização, tem a parte de incentivos, de você implantar isso e tem a parte da própria empresa internalizar esses princípios”.

Segundo Christian, o Brasil está bem na implementação da IA, mas não tão avançado no seu desenvolvimento. A estratégia brasileira é voltada mais para os riscos. Ele defende que a discussão se dê em dois pilares: na regulação da IA, para pensar nos riscos e medidas mitigadoras; e na regulação para a IA, que pense como o Brasil pode participar do processo de desenvolvimento da Inteligência artificial, com os nossos fatores pessoais, particulares da sociedade brasileira. “A maior parte das IAs não está sendo desenvolvida no Brasil. A maior parte vai ser comprada por empresas e instituições brasileiras. Vai ser implementada no Brasil. Se a gente não participar do processo de desenvolvimento, de ter uma regulação para a inteligência artificial, a gente corre o risco de usar uma IA que não é pensada com os fatores locais e sociais brasileiros”.

ONU acende alertas sobre IAs

O secretário-geral da ONU, António Gutierres, apresentou no dia 12 de maio o novo documento político da série “Nossa Agenda Comum”: Pacto Digital Global — Um futuro digital aberto, gratuito e seguro para todos. No texto, a ONU coloca a integridade da informação como tema central da cooperação entre os países. O documento propõe a criação de um código de conduta para tornar o ambiente digital mais seguro e inclusivo; adverte para a perigosa lacuna de governança no desenvolvimento da inteligência artificial; e propõe um diálogo entre os países.

Precisamos de uma conversa global e multidisciplinar
para examinar, avaliar e alinhar a aplicação de
IA e outras tecnologias emergentes. Mais de 100 conjuntos
princípios éticos de IA foram desenvolvidos por diferentes partes interessadas e compartilham muitas ideias em comum, incluindo a necessidade de aplicativos de IA serem confiáveis, transparentes, responsáveis, supervisionados por
humanos e capazes de serem desligados.

A ética e as coisas

A inteligência artificial tem, quer ter, ou terá autonomia própria, autoconsciência? Se respondermos sim a essa questão, podemos dizer que a IA é sujeito e não objeto. E como tal pode influenciar, orientar e até definir seus limites de atuação e os nossos também. Uma coIsA que deve ser regulada por meio de leis e princípios éticos de cada sociedade.

Mas se respondermos não, a inteligência artificial é uma “máquina” controlada por algoritmos, programados por pessoas, supervisionadas por uma governança, aí podemos dizer que a IA é objeto e não sujeito: uma coisa. E, dessa forma, as empresas podem ser responsabilizadas pelo desenvolvimento e aplicação das IAs de acordo com a lei.

Ainda há tempo para que as pessoas, organizações, empresas e governos discutam e elaborem os códigos de ética para as IAs. Não podemos deixar que eles sejam definidos pelas próprias inteligências artificiais. Uma autorregulação feita por máquinas (coIsAs) pode fazer de nós objeto e das IAs sujeito. E se isso acontecer…

--

--