Responsible AI: práticas necessárias para o futuro das soluções de Inteligência Artificial
As soluções de Inteligência Artificial (IA) já faziam parte do cotidiano e cresciam num ritmo acelerado, porém após o lançamento do ChatGPT, no final de 2022, esse tema cresceu substancialmente. A capacidade dos modelos LLMs (Large Language Models) impressionou a sociedade, assim como os modelos de Generative AI para imagem e vídeos, o que impulsionou discussões e preocupações que foram além da bolha de tecnologia.
A preocupação dos impactos que as soluções de IA podem causar na sociedade, como os vieses podem influenciar as decisões, sobre a falta de clareza no processo que conduz as inferências, entre diversos outros questionamentos, fizeram com que o tema Responsible AI (ou IA Responsável) ganhasse mais importância e notoriedade.
De forma resumida, Responsible AI é a prática de desenvolver e operacionalizar soluções de inteligência artificial que sigam valores éticos, sejam confiáveis, justas e seguras, com objetivo de mitigar danos a sociedade e garantir uma atuação responsável.
O assunto tem sido de extrema importância para as grandes empresas de tecnologia, ganhando cada vez mais relevância em suas páginas sobre IA, menções nos artigos e palestras.
Alguns destaques de como essas empresas estão abordando o tema:
- O Google apresenta em sua página diversas diretrizes, um time especializado em Responsible AI, cursos direcionados para esse assunto, além de realizar publicações e divulgar ferramentas para auxiliar na prática.
- A Meta, além de divulgar os pilares da companhia, divulgou recentemente junto com a publicação do seu modelo LLM, LLaMa, um relatório com as práticas adotadas de responsabilidade na construção, apresentando as métricas dos resultados obtidos por seu modelo em diferentes grupos da sociedade, para ressaltar que o modelo é justo e não contém discriminação por representatividade.
- A Microsoft desenvolveu um padrão que define uma estrutura para criação de sistemas com IA. O tema é um dos recorrentes nas palestras e eventos da companhia. Vale ressaltar também as ferramentas disponibilizadas para auxiliar na construção de aplicações responsáveis.
- Na OpenAI, um dos principais destaques adotados pela empresa para buscar resultados seguros com o ChatGPT, foi a adoção de RLHF, combinado com os testes realizados para garantir a segurança das respostas. A prática adotada foi fundamental para evitar discurso de ódio ou preconceito baseado no histórico de dados que veio da internet.
Por que o assunto é tão importante?
Os modelos de Generative AI e de Machine Learning são construídos a partir de dados e seus resultados vão impactar de forma direta ou indireta a vida das pessoas. A má conduta desse tipo de sistema pode formar um ciclo nocivo para os cidadãos.
Os dados disponíveis hoje são reflexo da sociedade, é preciso de um cuidado no tratamento das informações para evitar propagar ou agravar os problemas existentes, o que acarretaria um ciclo nocivo.
Princípios de Responsible AI
Para direcionar na construção de uma IA responsável, existem alguns princípios fundamentais que devem ser seguidos. Ainda que não seja uma unanimidade, alguns autores ou as diretrizes das big techs costumam variar um pouco as nomenclaturas, entretanto as diferenças são basicamente sinônimas, agrupamentos ou pequenas mudanças. Dessa forma, os princípios essenciais são:
Fairness
Garantir que as decisões sejam justas, sem preconceitos e discriminações com indivíduos ou grupos, evitando que as soluções tenham vieses que criem ou agravem discriminações na sociedade.
Exemplo: remoção de variáveis ou dados que contenha conteúdo discriminatório ou viés com determinado grupo, seja um texto explicitamente discriminatório ou uma característica de uma pessoa que não tenha relação com o contexto do modelo, mas pode prejudicar devido ao histórico preconceituoso da sociedade.
Transparency
As decisões da IA devem ser compreensíveis e explicáveis, fornecendo detalhes dos fatores que conduziram a determinada resposta.
Exemplo: aplicação de técnicas de Explainable AI para fornecer interpretação do impacto das variáveis no modelo e em cada decisão recomendada. Deve haver visibilidade do assunto tanto do time técnico quanto de negócio/especialista, para que todos sejam aptos a explicar o que ocorreu para os clientes ou pessoas impactadas.
Privacy & Security
Os sistemas devem proteger os dados pessoais e a privacidade das pessoas no momento da coleta, armazenamento e processamento das informações. Os sistemas também devem garantir a segurança dos dados, evitando acessos não autorizados e ataques maliciosos.
Exemplo: garantir que os usuários tenham ciência do motivo da coleta dos dados e da finalidade do uso, respeitando as legislações e regulamentações. Os dados devem ser tratados com cuidado em todas as etapas, seja dentro de uma empresa, com máscaras para dados sensíveis, políticas de acesso com restrições bem definidas, mas também durante os transações de informações na rede, utilizando mecanismos de criptografia, por exemplo.
Accountability
As pessoas e as organizações devem ser responsáveis pelos sistemas de IA, com papéis e responsabilidades claramente definidos.
Exemplo: definição clara e documentada de papéis, responsabilidades e autoridades nas tomadas de decisões, assim como os registros dos processos que envolvem a criação da solução de modo que esteja apto para ser auditado.
Safety
As soluções devem garantir que as respostas dos algoritmos são seguras, que não propagam discurso de ódio, discriminação ou qualquer conduta que fuja de uma conduta ética.
Exemplo: realizar testes manuais e automatizados das soluções, avaliando rigorosamente os resultados gerados para que as saídas não apresentem discriminação. E implementar regras de segurança para evitar tal tipo de resposta.
Robustness
Os sistemas devem ser robustos, bem testados e avaliados, para garantir que os resultados ocorram dentro do esperado, mesmo em situações adversas e que tome decisões confiáveis.
Exemplo: avaliação da solução em diversos cenários, com resultados metrificados que auxiliem na identificação dos pontos fortes e fracos.
Em que momento deve ser colocado em prática?
A preocupação em criar IAs responsáveis e com a prática dos princípios listados devem ser algo presente em todo o ciclo do produto. Em relação ao momento da execução, é importante destacar os seguintes pontos:
- A prática deve ser realizada em todas as etapas do projeto, na concepção, durante o desenvolvimento e após a implantação.
- É um processo cíclico e interativo, que deve ser revisitado e analisado diversas vezes.
- As pessoas estão envolvidas em todas as fases de um projeto de IA, um breve resumo das decisões passa por: coletar dados, controlar o desenvolvimento/implantação e aplicar a solução. Em todos esses momentos são necessários considerações e avaliações a respeito da responsabilidade.
- É importante explorar e estressar as possibilidades e variedades de cenários, para encontrar lacunas e pontos críticos. Alcançar uma IA responsável requer entender os possíveis problemas, limitações ou consequências indesejadas.
- Esse tipo de atividade não deve ser realizada por apenas uma pessoa. A diversidade dos perfis é um aspecto importante para garantir a melhor decisão e evitar o viés de uma pessoa.
- Não há um checklist básico que resolva o problema para todos os contextos. Cada aplicação terá sua peculiaridade em relação ao contexto inserido, características próprias e desafios específicos. Os desafios de determinar o que é correto ou errado eticamente podem variar. É preciso analisar cada caso de forma individual e com atenção.
Interpretação para aumentar a responsabilidade
Com o surgimento de modelos de Machine Learning muito complexos, com estruturas que não fornecem explicação intuitiva do processo decisório do ponto de vista da linguagem humana, surgiu uma área denominada de Explainable AI (XAI), voltada para fornecer maior grau de interpretação e aumentar a transparência dos modelos. Atualmente, existem diversas técnicas para extrair informações do que os modelos aprendem e consideram importante para realizar determinada inferência.
A explicabilidade/interpretabilidade dos modelos é um tema fundamental para garantir a transparência do processo decisório, ajudando a aumentar a compreensão, controle e robustez das soluções. As técnicas de XAI são vistas como um conceito central para direcionar na construção de IAs responsáveis.
Futuro com ética e responsabilidade
A inteligência artificial já é realidade e está presente na vida das pessoas, porém é preciso atenção em cada detalhe na concepção, desenvolvimento e operacionalização para garantir que as aplicações sejam seguras e responsáveis. Por trás da tecnologia, existem pessoas tomando decisões, por esse motivo é preciso responsabilizar os indivíduos e organizações de suas tarefas, tomar cuidado em cada etapa, explorar problemas de forma prévia para evitar que eles alcancem os usuários finais. Os princípios de Responsible AI ajudam a orientar essa jornada, tornando explícito os principais pontos de atenção, guiando com as recomendações e na direção para um caminho seguro. A partir disso, será possível criar aplicações de IA de sucesso, que não apenas visam ganhos financeiros, mas garantem que não vão causar danos sociais.