Regulando a IA Generativa a partir da goverança policêntrica: contributos para a Soberania Digital

CEPI - FGV DIREITO SP
CEPI FGV — FEED

--

Por Luis Henrique de Menezes Acioly — Advogado. Graduado em Direito pelo Centro Universitário Ruy Barbosa (UniRuy). Pesquisador junto ao Grupo de Estudos em Tecnologia, Informação e Sociedade — GETIS/CNPq. Membro do Grupo de Trabalho de Responsabilidade dos Intermediários (GT-RI) do Capítulo Brasil da Internet Society. Currículo Lattes: http://lattes.cnpq.br/0485009486625100. Contato: acioly10@gmail.com.

Desde o seu lançamento por aplicações da Internet, a Inteligência Artificial Generativa (“Generative Artificial Intelligence” ou “gAI”) tem desempenhado uma gama de funções, especificamente voltadas à gestão de informações e elaboração de conteúdo rapidamente consumível. Embora sua utilização seja comemorada por várias frentes no mundo digital, é certo que também descortina uma gama de riscos sociais, em função da facilidade com que pode ser usada como suporte à disseminação de notícias falsas.

Nesse contexto, a atuação estatal para garantia do Estado de Direito se mostra imprescindível. Ela encontra, contudo, contraposição por interesses comerciais de desenvolvimento irrestrito dessa tecnologia. O real desafio à soberania digital é, assim, o poder unilateralmente deferido aos atores corporativos que promovem o viés eminentemente comercial do desenvolvimento tecnológico, e não o caráter amorfo e descentralizado da organização da rede (Pohle; Thiel, 2020).

O presente ensaio joga luzes sobre essa discussão a partir da constatação do policentrismo inerente ao desenvolvimento da IA, traçando um paralelo com a Governança da Internet, como suporte à preservação das estruturas democráticas. Para tanto, esse texto se propõe a abordar de que forma os sistemas de gAI podem ser utilizadas como suporte para o fenômeno das notícias falsas, bem como apresentar os principais desafios para a regulação desses sistemas. Ademais, apresenta-se como forma de afunilamento entre a regulação de plataformas e a elaboração de um marco normativo para a Inteligência Artificial, os aspectos da confluência entre Governança da Internet e IA Generativa, consolidando os elementos da Soberania Digital que projetam uma governança descentralizada e multissetorial.

Inteligência Artificial Generativa como suporte à disseminação de notícias falsas

Inteligência Artificial Generativa é um termo guarda-chuva, voltado aos sistemas de IA de propósito geral, utilizados na geração de novas informações (Arguedas; Simon, 2023). A atuação pautada em uma quantidade excepcional de parâmetros[1], tal qual a terceira versão do Generative Pre-Trained Transformer (GPT-3), que possui 175 bilhões de parâmetros (Faleiros Júnior, 2021), pode gerar uma série de resultados não previstos ao tempo da programação, sem que necessariamente se esteja diante de uma falha no algoritmo. O propósito geral dessa tecnologia se confunde com a própria profundidade da interação humana e sua criatividade, com recrudescimento e aprendizado constante.

Há potencialidades de uso da IA Generativa para a disseminação de conteúdo inverídico a partir da produção de discursos ou imagens enganosas, como aquelas elaboradas por deepfakes para manipular a opinião popular, situação que se agrava em períodos de eleições para cargos públicos (Mendes; Junquilho, 2023). A capacidade dessa ferramenta de produzir textos de modo semelhante aos humanos ou imagens tidas como reais potencializa a sua utilização para facilitar o desenvolvimento de informações falsas, as quais podem ser utilizadas para influenciar e manipular as emoções, as percepções ou os comportamentos (Wach et al., 2023).

Buscando viabilizar uma tipologia de riscos especificamente inerentes à utilização de IA Generativa, alguns dos impactos desse modelo podem ser sintetizados: (i) discriminação e exclusão, tendo em vista que gestão de informações e o aprendizado de máquina podem reverberar estereótipos de grupos historicamente marginalizados; (ii) uso indevido e prejudicial de dados, como a criação de imagens sexualmente explícitas ou com violação a normas de direito autoral; e (iii) a má informação ou desinformação, concernente à elaboração de conteúdo inverídico ou descontextualizado, bem como a sua disseminação (Bird et al., 2023).

A desinformação alçada por modelos de IA Generativa pode resultar, em último nível, em riscos sistêmicos à própria comunidade em que se insere, na medida em que viabiliza um estado permanente de entropia social e ameaça os sistemas social, político e econômico (Bird et al., 2023). Essa conjectura mitiga a própria integridade de discurso e processos democráticos, direcionando a desconfiança popular para institutos da democracia e autoridades públicas (Bird et al., 2023; Wach et al., 2023).

Desafios e confluências na regulação da IA Generativa

Seguindo essa perspectiva, chega-se à constatação de que a abordagem deferida genericamente no processo regulatório de sistemas de IA é desafiada pela IA Generativa, ante o propósito geral e inespecífico dessa classe. Helberger e Diakopoulos (2023) sintetizam em duas as circunstâncias que diferem a abordagem regulatória da IA Generativa das demais: contexto dinâmico e escala de uso. Os sistemas de IA Generativa não são desenvolvidos para um contexto ou utilização específicas, e a sua abertura de código e facilidade de manuseio permitem uma escala de uso para além do previsto tradicionalmente nas aplicações de IA (Helberger; Diakopoulos, 2023).

A escalabilidade de sistemas de IA Generativa através da Internet tem afunilado a discussão para a propagação de conteúdo inverídico e a necessária transparência do uso dessa tecnologia em plataformas digitais, aproximando o diálogo entre iniciativas legislativas que buscam atribuir normas de transparência e responsabilidade na Internet (como o PL nº 2630/2020), e o Projeto de Lei nº 2.338/ 2023, que busca regular o uso e desenvolvimento da Inteligência Artificial, em jurisdição brasileira (Mendes; Kira, 2023). A discussão sobre Governança de Plataformas encontra inúmeras confluências, inclusive com a governança de dados pessoais, através da forma de regulação endereçada ao Microtargeting[2] e Mecanismos de Rastreabilidade (Keller; Santos, 2024).

Uma importante confluência entre esses contextos é a alocação de responsabilidades às plataformas digitais para identificação e mitigação dos chamados “riscos sistêmicos”. Ante o caráter semanticamente aberto desse mecanismo, pode ser dada interpretação que alcance também o conteúdo criado por IA Generativa, estendo-lhes os mesmos efeitos, i.e., os deveres de identificação de seus riscos e a devida mitigação pelo provedor de conteúdo.

Iniciativas de combate à desinformação invariavelmente irão recair na discussão acerca da verdade dos fatos, direcionando-se à sociedade e ao debate público, cujo diálogo social considera que tipo de interesses econômicos, políticos ou ideológicos a utilização de dados pessoais deve apoiar (Keller; Santos, 2024). Nesse ponto reside a necessidade de estabelecimento de estruturas de governança contínua e descentralizada, apta a pôr em foco as construções sociais no entorno do combate à desinformação.

Governança Policêntrica Descentralizada na Alçada da Governança da Internet

No ecossistema da Governança da Internet, o multissetorialismo tem sido aplicado em consonância com uma governança policêntrica (Canabarro; Wagner, 2014; Kurbalija, 2016; Monteiro Neto, 2018). Scholte (2021) atribui a um plexo de normas, práticas e ordens subjacentes a viabilidade do policentrismo na Governança da Internet, através do qual ideologias contrárias e convergentes dialogam para formulação de consensos. Como apontam Canabarro e Wagner (2014, p. 13), a Governança da Internet tem como caminho a “harmonização e integração de uma série de regimes técnicos e político-jurídicos que organizam a ação coletiva nos níveis sistêmico, regional e nacional e abarcam múltiplas áreas da vida social”.

Nessa esteira, a Soberania Digital se associa à noção de controle, independência e autonomia dessas comunidades e Estados sobre o desenvolvimento de suas infraestruturas, tecnologias e sob seus dados (Couture; Toupin, 2019). Aplicando essa premissa ao ambiente da Governança da Internet, Falkner et al. (2022) apontam que soberania digital se relaciona com a capacidade de influenciar a concepção e utilização de tecnologias digitais na camada lógica, na camada física e na camada de conteúdo da internet.

Nessa última esfera da camada da Internet que se encontra a regulação da Inteligência Artificial generativa, como forma de atribuição de valores de uma nação ou comunidade ao desenvolvimento e utilização dessa tecnologia, cuja escalabilidade é crescente em decorrência das propriedades críticas da Internet, essencialmente a conectividade global, a descentralização regulamentar a universalidade.

Especificamente quanto ao cenário da Inteligência Artificial, há ainda tímidos esforços em prol da formalização de uma governança descentralizada, cujos elementos estão predominantemente no mundo dos fatos. As iniciativas regulatórias se apresentam de forma difusa, quando não são realizadas em forma de soft law (Acioly, 2023). Contudo, deve-se ter em mente que a escalabilidade de sistemas de IA se consolidou através de estruturas policêntricas, que, segundo Xue (2024), concerne à multiplicidade de centros de desenvolvimento, discurso político e de autoridade[3], em sua maior parte ligados à iniciativa privada e à comunidade acadêmica. A constatação do policentrismo inerente à governança em IA se traduz na necessidade de estabelecimento de estruturas globais de discussão multissetorial, para construção de consensos com efeitos sobre o próprio ciberespaço.

Ressalta-se que a ideia de regulação da tecnologia não se afasta da necessidade de um diálogo multissetorial e interinstitucional, como forma de mitigar o déficit de consensualidade administrativa inerente aos Estados contemporâneos (Acioly, 2023). Bioni (2022) sinaliza que, no panorama de modernização da regulação, a inserção da participação dos administrados no processo regulatório tem conduzido a mecanismos de consulta pública e realização de avaliações específicas, visando assegurar que a intervenção estatal seja legítima.

A governança em IA como forma de combate à desinformação, de maneira semelhante à governança de dados pessoais (Keller; Santos, 2024), não se amolda a regulações fechadas, mas pressupõe uma estrutura permanente de diálogo e comportamentos responsivos (Acioly, 2023), sob pena de recair em molduras que instrumentalizem a fragmentação de espectros da Internet (Internet Society, 2022), mitigando o acesso a conteúdo, criando muros virtuais e superlativando a regulação, ou de ser a regulação subinclusiva, a partir da possibilidade de captura dos entes reguladores (Acioly, 2023).

Ao cabo, promover soberania digital aplicada ao desenvolvimento e aplicação da IA Generativa, especialmente em contextos de pleitos eleitorais, traduz-se na ideia de criação de estruturas de controle, viabilizadas a partir de um diálogo institucional na condução dessa tecnologia conforme os valores do Estado-Nação (Pohle; Thiel, 2020), através de mecanismos legais, jurisdicionais e regulatórios (Carvalho, 2018).

Considerações Finais

O presente constructo não fornece postulados encerrados em si mesmos, mas tão somente expõe um quadro analítico acerca das estruturas de governança policêntrica descentralizada, a partir da premissa de confluência entre a regulação da Inteligência Artificial e a governança de plataformas, na alçada da Governança da Internet. Trazer uma ótica regulatória para o combate à utilização de IA Generativa como suporte à disseminação de notícias falsas é um ponto de partida para a formulação de políticas eficientes.

Para construção de medidas efetivas no combate à desinformação no ciberespaço, a governança em IA Generativa é um tópico de pertinência obrigatória na estrutura multissetorial da Governança da Internet, seja em âmbito nacional, através dos fóruns de debate e plano de ações de comitês específicos, seja em nível global, a partir de instituições e fóruns com seus diversos mandatos.

Essa estrutura policêntrica fornece contributos para o desenvolvimento eficiente de uma Soberania Digital coerente com os princípios da Internet e com os valores de cada Estado-Nação. Ultrapassa-se, a partir dessa arquitetura de diálogo multissetorial, a prevalência de um ou dois setores, pautando a alocação de responsabilidades no entorno da IA Generativa na construção coletiva e pluriparticipativa de valores e normas, bem como na formação de um fórum público de tomada de contas, na alçada dos mecanismos regulatórios.

[1] O output de um sistema de IA Generativa, contudo, pode variar de acordo com o modal desenvolvido. Os sistemas de IA Generativa de texto tem sua informação de saída estruturada em Geração de Linguagem Natural (NLG), consolidando no termo “Large Language Models” ou “LLM”. Os sistemas de IA Generativa de imagem, por sua vez, consolidam os ‘Modelos de Difusão’, produzindo quadros pictóricos como output (Rohe; Santaella, 2023). O Processamento de Linguagem Natural (PLN) é um pressuposto inerente a ambos os modelos de IA Generativa, na medida em que a função de aprendizado de palavras e de orações recrudesce os parâmetros aplicados na geração de outputs (Faleiros Júnior, 2021). A partir do algoritmo denominado “Transformer”, ancestral comum de sistemas como o “BERT”, da Google, e “GPT”, da OpenAI, sistemas de IA Generativa demonstraram um melhor desenvolvimento com variação de contextos, especialmente em textos mais longos, viabilizando uma maior acurácia (Korzynski et al., 2023).

[2] O “microtargeting”, ou microdirecionamento, é o endereçamento específico de conteúdo para usuários com base nos seus perfis comportamentais, criados a partir de sistemas de Inteligência Artificial, baseando-se nas suas informações pessoais, inclusive sensíveis (Hartmann, 2021). Esse uso tem sido cada vez maior em sede de propaganda eleitoral, que levanta um desafio adicional de manter a higidez do processo democrático diante do manejo dessa técnica de perfilamento (Brito Cruz, 2020).

[3] Xue (2024) cita como exemplos desses centros de desenvolvimento, de discurso político e de autoridade: “International Organization for Standardization” (ISO), “International Electrotechnical Commission” (IEC), o “Institute of Electrical and Electronics Engineers” (IEEE), e o “National Institute of Standards and Technology” (NIST). Iniciativas de padronização e autorregulação também são citadas pela autora (Xue, 2024), como a “Global Partnership for AI”.

Referências

ACIOLY, Luis Henrique de Menezes. A Accountability na Regulação Brasileira da Inteligência Artificial sob a Perspectiva da Obrigação de Prestação de Contas. 2023, 101f. Trabalho de Conclusão de Curso (Bacharelado em Direito) — Coordenação da Graduação em Direito, Centro Universitário Ruy Barbosa (UNIRUY), Salvador, 2023.

ARGUEDAS, Amy Ross; SIMON, Felix. Automating Democracy: Geneative AI, Jounalism, and the Future of Democracy. Oxford: Oxford Internet Institute, 2023.

BIONI, Bruno Ricardo. Regulação e Proteção de Dados Pessoais: O Princípio da Accountability. Rio de Janeiro: Forense, 2022.

BIRD, Charlotte; UNGLESS, Eddie; KASIRZADEH, Atoosa. Typology of Risks of Generative Text-to-Image Models. arXiv:2307.05543 [cs.CY] 08 jul. 2023. Disponível em:

https://doi.org/10.48550/arXiv.2307.05543. Acesso em: 20 nov. 2023.

BRITO CRUZ, Francisco. Novo Jogo, Velhas Regras: Democracia e Direito na Era da Nova Propaganda Política. Belo Horizonte: Letramento, 2020.

CANABARRO, Diego Rafael; WAGNER, Flávio Rech. A Governança da Internet: Definição, Desafios e Perspectivas. In: 9º Encontro da Associação Brasileira de Ciência Política, 2014, Brasília — DF. Anais Eletrônicos da ABCP, 2014.

CARVALHO, Lucas Borges. Soberania digital: legitimidade e eficácia da aplicação da lei na internet. Revista Brasileira de Direito, Passo Fundo, v. 14, n. 2, p. 213–235, maio-agosto, 2018. Disponível em: https://seer.atitus.edu.br/index.php/revistadedireito/article/view/2183. Acesso em: 08 dez. 2023.

COUTURE, Stephane; TOUPIN, Sophie. What does the notion of “sovereignty” mean when referring to the digital?. New Media & Society, v. 21, n. 10, p. 2305–2322, 2019. Disponível em: https://doi.org/10.1177/1461444819865984. Acesso em: 20 jan, 2024.

FALEIROS JÚNIOR, José Luiz de M. Breves reflexões sobre os impactos jurídicos do algoritmo GPT-3. In: BARBOSA, Mafalda M.; BRAGA NETTO, Felipe; SILVA, Menezes C.; FALEIROS JÚNIOR, José Luiz de M. (coords.). Direito Digital e Inteligência Artificial: Diálogos entre Brasil e Europa. Indaiatuba: Foco, 2021. p. 521–231.

FALKNER, Gerda; HEIDEBRECHT, Sebastian; OBENDIEK, Anke; SEIDL, Timo. Digital Sovereignty — Rethoric and Reality. Framework Paper for the Online Conference, 2022. Disponível em: https://eif.univie.ac.at/downloads/veranstaltungen/2022/2022%20Falkner%20et%20al.%20Digital%20Sovereignty%20Framework%20Paper.pdf. Acesso em: 10 jan. 2024.

HARTMANN, Ivar Alberto. Combinando Bibliotecas de Anúncios com Checagem de Fatos para Aumentar a Transparência sobre a Desinformação. Direito Público, v. 18, n. 99, 2021. Disponível em: https://doi.org/10.11117/rdp.v18i99.5741. Acesso em: 11 fev. 2024.

HELBERGER, Natali; DIAKOPOULOS, Nicholas. ChatGPT and the AI Act. Internet Policy Review, v. 12, n. 1, 2023. Disponível em: https://doi.org/10.14763/2023.1.1682. Acesso em: 02 jan. 2024.

INTERNET SOCIETY. Navigating Digital Sovereignty and Its Impact on the Internet. 2022. Disponível em: https://www.internetsociety.org/resources/doc/2022/navigating-digital-sovereignty-and-its-impact-on-the-internet/. Acesso em: 08 dez. 2023.

KELLER, Clara Iglesias; SANTOS, Bruna Martins dos. Trackers and Chasers: Governance Challenges in Disinformation Datafication. In: AGUERRE, Carolina; CAMPBELL-VERDUYN, Malcom; SCHOLTE, Jan Aart (eds). Global Digital Data Governance: Polycentric Perspectives. New York: Routledge, 2024, p. 148–164.

KORZYNSKI, Pawel; MAZUREK, Grzergorz; ALTMANN, Andreas; EJDYS, Joanna; KAZLAUSKAITE, Ruta; PALISZKIEWICZ, Joana; WACH, Krzysztof; ZIEMBA, Ewa. Generative artificial intelligence as a new context for management theories: analysis of ChatGPT. Central European Management Journal, v. 31, n. 1, p. 3–13, 2023. Disponível em: https://doi.org/10.1108/CEMJ-02-2023-0091. Acesso em: 18 nov. 2023.

KURBALIJA, Jovan. Uma introdução à governança da internet. Trad. Carolina Carvalho. São Paulo: Comitê Gestor da Internet no Brasil, 2016.

MENDES, Laura S.; JUNQUILHO, Tainá A. Inteligência artificial, democracia e esfera pública. Coluna Jota, 22 de novembro de 2023. Disponível em: https://www.jota.info/opiniao-e-analise/colunas/ia-regulacao-democracia/inteligencia-artificial-democracia-e-esfera-publica-22112023. Acesso em: 23 nov. 2023.

MENDES, Laura Schertel; KIRA, Beatriz. The road to regulation of artificial intelligence: the Brazilian experience. Internet Policy Review, open acess, 21 dec. 2023. Disponível em: https://policyreview.info/articles/news/road-regulation-artificial-intelligence-brazilian-experience/1737. Acesso em: 28 jan. 2024.

MONTEIRO NETO, João Araújo. The Operation of Multistakeholderism in Brazilian Internet Governance: Governance Innovation through multistakeholderism generativity. Doctor of Philosophy (PhD) thesis, University of Kent, 2018.

POHLE, Julia; THIEL, Thorsten. Digital Sovereignty. Internet Policy Review, v. 9, n. 4, 2020. Disponível em: https://doi.org/10.14763/2020.4.1532. Acesso em: 08 dez. 2023.

ROHE, Anderson; SANTAELLA, Lucia. IAs Generativas: a importância dos comandos para texto e imagem. Aurora: revista de arte, mídia e política, São Paulo, v. 16, n. 47, p. 76–94, mai.-ago. 2023. Disponível em: https://doi.org/10.23925/1982-6672.2023v16i47p76-94. Acesso em 19 nov. 2023.

SCHOLTE, Jan Aart. Structuring Polycentrism: Norms, Practices and Underlying Orders in Internet Governance. In: It’s Ordered Chaos: What Really Makes Polycentrism Work. International Studies Review, v. 23, n. 4, p. 1988–2018, 2021. Disponível em: https://doi.org/10.1093/isr/viab030. Acesso em: 28 jan. 2024.

WACH, Krzysztof; DUONG, Cong D.; EJDYS, Joanna; KAZLAUSKAITE, Ruta; KORZYNSKI, Pawel; MAZUREK, Grzegorz; PALISZKIEWICZ, Joana; ZIEMBA, Ewa. The dark side of generative artificial intelligence: A critical analysis of controversies and risks of ChatGPT. Entrepreneurial Business and Economics Review. v. 11, n. 2, p. 7–60, 2023. Disponível em: https://doi.org/10.15678/EBER.2023.110201. Acesso em: 18 nov. 2023.

XUE, Janet Hui. Polycentric Theory Diffusion and AI Governance. In: AGUERRE, Carolina; CAMPBELL-VERDUYN, Malcom; SCHOLTE, Jan Aart (eds). Global Digital Data Governance: Polycentric Perspectives. New York: Routledge, 2024, p. 23–237.

Autor

As opiniões expressas neste artigo são de responsabilidade exclusiva do autor, não refletindo necessariamente a opinião institucional do CEPI e/ou da FGV e/ou as instituições parceiras.

Siga o CEPI da FGV Direito SP nas redes sociais!

Você pode também receber por e-mail novidades sobre eventos, pesquisas e produtos do CEPI! Cadastre-se em nosso mailing aqui.

Para saber mais sobre o CEPI, acesse o nosso site.

--

--

CEPI - FGV DIREITO SP
CEPI FGV — FEED

O Centro de Ensino e Pesquisa em Inovação da Escola de Direito da FGV SP visa debater temas jurídicos que envolvem tecnologia, sociedade e educação. @fgvcepi