Andersen Jensen

Inteligência Artificial e Controle Migratório: algoritmos podem discriminar migrantes?

CEPI - FGV DIREITO SP
CEPI FGV — FEED
16 min readJan 26, 2021

--

Por Laurianne-Marie Schippers* e Marília Papaléo Gagliardi**

Resumo: No presente artigo, busca-se entender se e como o uso de ferramentais de Inteligência Artificial (IA) no âmbito do controle migratório pode gerar decisões enviesadas e discriminatórias. Dessa forma, apresenta-se, em primeiro lugar, casos concretos de utilização de ferramentas de IA no contexto migratório pelos governos do Reino Unido, Canadá, Nova Zelândia e Estados Unidos, sendo que, a partir dos exemplos, observa-se riscos de tomada de decisões enviesadas com base nos resultados apresentados pelos sistemas. Em seguida, explora-se fatores que tornariam os sistemas potencialmente discriminatórios, mencionando-se a possibilidade de inserção de vieses no momento da programação dos algoritmos ou na base de dados utilizadas para o seu treinamento. A partir disso, debate-se se a utilização desses sistemas é um mecanismo adequado, tendo em vista a situação de vulnerabilidade que migrantes, refugiados e solicitantes de refúgio podem apresentar. Finalmente, conclui-se que a utilização de sistemas de IA no âmbito migratório pode acarretar diferentes tipos de impactos a migrantes, refugiados e solicitantes de refúgio.

Introdução

Quando se pensa em novas tecnologias, logo vem à mente aparelhos modernos de assistência (e.g. os assistentes virtuais, como Siri, Bixby, Alexa, etc.), ou aplicativos cujo fim é puramente o entretenimento (e.g. aplicativos de alteração de fotos). Em ambos os casos, há a presença de Inteligência Artificial (IA), que permite o funcionamento destes aparelhos. Neste mesmo segmento, há a utilização, muitas vezes, de algoritmos, para operacionalizar essas ferramentas e adequar estes instrumentos à finalidade principal do produto veiculado, bem como de tornar a experiência mais adequada ao consumidor final. De forma simplificada, os algoritmos são um conjunto de instruções para resolução de um problema, como uma equação matemática, por exemplo[1].

Por se tratar de um instrumento programado, muitas vezes existe a concepção de que algoritmos seriam imparciais e, portanto, seriam ideais para tomar decisões no lugar de seres humanos que poderiam apresentar decisões enviesadas e prejudicadas por suas próprias percepções. Se é uma máquina que está fazendo sugestões de conteúdo, ou organizando o sistema de identificação, esta deveria, em tese, não possuir nenhum conteúdo discriminatório em sua origem.

Cada vez mais empresas privadas, assim como governos, atribuem decisões para algoritmos visando a neutralidade das decisões. Mas não é possível afirmar que estas ferramentas são neutras[2]. Inclusive, atualmente existem diversos casos que demonstram que não há esta suposta imparcialidade. Cita-se o caso recente do Twitter, cujo algoritmo de prévia de imagens tinha uma tendência a focar sempre as pessoas brancas em imagens que também continham pessoas negras, independentemente da posição em que as pessoas se encontrassem[3].

Este problema também afeta entes governamentais. Por exemplo, nos EUA é utilizado em diversas cortes um sistema que analisa a probabilidade de um réu reincidir em crimes. Como o algoritmo possui uma base de dados limitada e focada em um sistema que habitualmente prende mais pessoas negras que pessoas brancas, verificou-se que o sistema tem uma tendência a classificar pessoas negras como tendo maiores probabilidades de cometer novos crimes.[4] Essa decisão por si só é enviesada, pois a base de dados usada para o funcionamento do algoritmo em si não é neutra. Tem-se, portanto, discriminação causada por meio de algoritmos.

Com esse breve panorama em vista, buscaremos explorar se o problema da discriminação algorítmica também se faz presente no contexto do controle migratório. Isso porque, hoje, é possível notar a existência de um fluxo migratório bastante intenso[5], e uma das respostas dos Estados para conseguir lidar com a grande demanda de entradas, bem como de solicitações de refúgio, é a utilização de ferramentas de Inteligência Artificial para auxiliar nas decisões[6].

A temática assume uma importância ainda maior quando se considera que migrantes, por si só, apresentam um grau de vulnerabilidade, vez que se encontram em um país estranho ao seu, com diferenças culturais e, muitas vezes, linguísticas. Essa situação de vulnerabilidade apenas se acentua se considerado o caso de refugiados. Nesse cenário, um olhar mais cauteloso deve ser dado à utilização de ferramentas de decisão automatizada. Nesse sentido, nos próximos itens, analisaremos (i) como essas ferramentas são utilizadas no controle migratório e como elas podem potencialmente discriminar migrantes; (ii) o que pode levar um algoritmo a discriminar; e (iii) se a utilização de sistemas automatizados é compatível com o tratamento de populações vulneráveis.

1. Algoritmos no contexto migratório

Alguns governos ao redor do mundo já se valem de ferramentas de inteligência artificial para auxiliar na tomada de decisões para realizar controles migratórios. Neste segmento daremos especial enfoque para alguns exemplos relativos às atividades dos governos do Reino Unido, do Canadá, da Nova Zelândia e dos Estados Unidos da América a fim de identificar como essas tecnologias podem ser utilizadas no contexto imigratório e quais os potenciais riscos quanto à discriminação.

No caso do Reino Unido, tem-se que a triagem e definição da fila de pedidos de visto é realizada de forma automatizada, por meio de um sistema que classifica os pedidos, a partir das informações fornecidas pelos aplicantes, de 3 possíveis maneiras: vermelho, amarelo e verde[7]. Indica-se que a análise realizada pelo sistema serve como um auxílio às decisões de concessão de visto a serem tomadas pelos funcionários do Home Office (órgão do Reino Unido responsável pelas questões de imigração, dentre outras atribuições relacionadas à segurança[8]) — ou seja, a decisão final é tomada por pessoas naturais[9], com base na separação e sistematização feita pelo algoritmo.

Neste ano, esse sistema ganhou notoriedade em razão de notícias alegando que o algoritmo utilizado estaria fazendo classificações negativas e de cunho racista. A acusação formada pelo Joint Council for the Welfare of Immigrants e o grupo com ação no campo de tecnologia e direitos digitais Foxglove era a de que a categorização realizada pelo sistema levaria em conta, dentre outras informações, a nacionalidade do migrante. Nesse sentido, o próprio sistema de migração do Reino Unido (Home Office), valeria-se de uma lista de nacionalidades suspeitas que seriam automaticamente classificadas com a bandeira vermelha[10].

A apuração partiria então de uma premissa de dificultar o processo de obtenção de vistos de imigrantes com base na nacionalidade, e acarretaria problemas como, por exemplo, as análises de concessão de vistos serem muito mais demoradas, passarem por uma averiguação mais severa e terem uma chance maior de serem negadas[11]. Essa discussão tem ocorrido no sistema de justiça britânico desde 2017[12]. Apenas em agosto de 2020, com o processo ainda em curso, o Home Office optou por parar o uso do algoritmo, a fim de auditá-lo para identificar a presença de potenciais vieses[13] que gerassem discriminação e qualquer tomada de decisão negativa de forma injustificada.

No contexto do Canadá, um relatório elaborado em 2018 pelo International Human Rights Program da faculdade de Direito da Universidade de Toronto, e pelo Citizen Lab da Munk School of Global Affairs and Public Policy, também da Universidade de Toronto, indica que o governo canadense também se utiliza de ferramentas de tomadas de decisão automatizada no âmbito migratório e de refúgio[14]. O relatório aponta para a possibilidade e riscos de usos de ferramentas de tomadas de decisão automatizadas em diversos momentos do fluxo migratório. Chamamos atenção, no entanto, para um momento específico: há a menção de que o governo emprega tais ferramentas na análise dos solicitantes de visto, mas não é claro como essa análise é feita e quais critérios são utilizados[15]. Nesse sentido, é possível afirmar que há falta de transparência nos procedimentos, impossibilitando, inclusive, que a sua neutralidade seja verificada.

Este mesmo relatório destaca também que o algoritmo pode ser utilizado para fazer classificações sobre a veracidade do alegado por um candidato a visto. Por exemplo, se ele realmente é casado[16]. Esta decisão influencia diretamente na credibilidade do aplicante, e pode ser imprescindível para a concessão ou não do visto.

Já no caso da Nova Zelândia, notícias de 2018 trouxeram à tona o fato de que o órgão responsável pela imigração do país estaria identificando dados tais como idade, gênero, etnia, entre outros, de imigrantes, para mapear grupos que geravam altos custos hospitalares ou que eram mais propensos a cometer crimes. Esse levantamento de informações, então, estaria sendo aplicado para acelerar o processo de deportação destes migrantes ou de dificultar nova solicitação de vistos[17].

Por fim, destaca-se o caso dos Estados Unidos, onde em 2017 o ICE (Immigration and Customs Enforcement) revelou planos para instalar um software cujo objetivo seria o de automatizar, centralizar e simplificar o processo de verificação manual no âmbito migratório e determinar automaticamente a probabilidade de um candidato ser um “membro positivamente contribuidor da sociedade” e para os interesses nacionais, além de prever se o indivíduo pretende cometer atos criminosos ou terroristas após entrar no país. Para tanto, a Inteligência Artificial se valeria de bancos de dados de agências governamentais e policiais e coletaria dados de informações públicas online encontradas em sites de mídia social[18].

Nos casos acima mencionados, portanto, é possível notar a utilização e implementação de algoritmos em diferentes momentos do processo migratório (desde a admissão de um migrante até a sua possível deportação ou novo requerimento de vistos). Uma das finalidades observadas seria aquela de acelerar e/ou facilitar os processos migratórios, contudo, também é possível identificar a possibilidade de usos perversos desses sistemas automatizados, como a discriminação baseada em dados de origem, raça, gênero, e até mesmo idade.

Estas situações trazem à tona duas questões relevantes. A primeira diz respeito à possibilidade de criação de um algoritmo isento de vieses que garantisse a isonomia no tratamento e decisão de cunho migratório. A segunda questão é se a implementação de sistemas automatizados não é, por si só, incompatível com o tratamento de populações vulneráveis e, portanto, com o conceito de migração.

2. Vieses e tomadas de decisão automatizadas

Para a análise da primeira questão, faz-se importante ter em mente o que se entende por tomada de decisões automatizadas. Trata-se da utilização de tecnologia para substituir e/ou auxiliar a tomada de decisão por um agente humano[19]. Dessa forma, o algoritmo pode funcionar com base em técnicas de regressão, análise preditiva, deep learning, entre outras[20]. Exemplos proeminentes atualmente dizem respeito à utilização de sistemas de machine learning — i.e. “programas de computador que são capazes de aprender pela experiência e, assim, melhorar o seu desempenho com o tempo”[21]. Ou seja, com o uso desses sistemas, objetiva-se chegar a resultados próximos aos que teriam sido alcançados caso a decisão fosse tomada por uma pessoa natural[22].

Nesse sentido, é possível que haja a inserção de vieses em diferentes momentos da construção do algoritmo, seja esse viés consciente ou inconsciente[23]: (i) na sua programação; ou (ii) na construção da base de dados que servirá de substrato para o treinamento e aprendizado inicial que permitirá o funcionamento do algoritmo. No caso acima indicado do algoritmo utilizado para triagem de solicitações de vistos no Reino Unido, por exemplo, alegou-se que a nacionalidade dos solicitantes seria deliberadamente utilizada e considerada pelo para realização da triagem[24], de forma que essa situação poderia ser uma amostra de viés inserido no momento da programação do algoritmo.

Entretanto, ainda que o algoritmo tenha uma programação dita neutra, é possível que mesmo assim ele apresente vieses nos seus resultados, a depender do tipo de dados que são adicionados à base de dados responsável por seu treinamento. Se as informações contiverem vieses, o algoritmo condicionará o seu aprendizado e funcionamento a estes, reproduzindo-os também em seus resultados:

Algoritmos treinados ou operados em um conjunto de dados do mundo real que necessariamente refletem a discriminação existente podem muito bem replicar essa discriminação[25].

O viés algorítmico pode contribuir para o risco de estereotipagem. Uma das principais fontes desse viés são os dados usados para treinar sistemas de deep learning. Como exemplo, imagine uma universidade que utilize um algoritmo de machine learning para avaliar aplicações para admissão. Os dados históricos de admissões que são usados para treinar o algoritmo refletem os vieses, conscientes ou inconscientes, dos processos de admissão anteriores. Os vieses presentes na sociedade podem ser perpetuados dessa forma, exacerbando a injustiça[26].

Com isso em vista, o cenário de neutralidade total em um algoritmo pode ser muito difícil de ser alcançado, ainda mais se considerado o contexto migratório, que envolve dados específicos que podem ser utilizados como fator de discriminação, tais como nacionalidade, origem étnica, origem racial, gênero, etc. Conforme mencionado acima, ainda que a programação do algoritmo seja completamente neutra (o que também é questionável), esses tipos de vieses podem já ser existentes de forma direta ou implícita na base de dados que alimentará o seu funcionamento, de forma que a discriminação continuará existindo e sendo reiterada até que o seu uso seja questionado.

3. Sistemas automatizados e o tratamento de população vulnerável na esfera migratória

Nesse sentido resta a dúvida: será que o uso de algoritmos para a tomada de decisões que envolvem pessoas em situação de vulnerabilidade é o mecanismo mais adequado?

Por mais que haja a alegação de que o computador passa a aprender com decisões anteriores, não existe nenhuma garantia de que este não está sendo influenciado por decisões equivocadas do passado e que não as esteja reproduzindo no presente. Mais preocupante: se a máquina considera apenas decisões já tomadas, como ela poderá se adaptar às constantes mudanças do cenário global que tornam o processo migratório tão dinâmico?

Quando consideramos a situação de concessão de vistos em razão de refúgio, considera-se a convenção de 1951 que classifica como refugiado pessoas vítimas de perseguição. No entanto, a partir de uma mudança de governo, uma população que até então não era perseguida pode passar a ser, o que a torna passível do pedido de refúgio de um dia para o outro. Se o algoritmo apenas considerar decisões anteriores, esta população vítima de uma perseguição recente pode não entrar no radar do algoritmo, o qual negará o pedido de refúgio sem considerar uma mudança no cenário político global.

Ainda, destaca-se que o refugiado pode ser perseguido por pertencer a um grupo específico, tal qual ser LGBTQI+. No entanto, o país que faz esta discriminação ou que não protege o indivíduo vítima desta perseguição e violência pode não estar passando por nenhuma crise política e não ser classificado como um país em que existe violação de direitos humanos. A ausência desta classificação pode levar com que o algoritmo desconsidere o pedido de refúgio de pronto.

Destaca-se ainda a seção 109.1 do IRPA que determinava quais países deviam ser colocados na lista de Países Designados de Origem (DCO) — a qual foi adotada até maio de 2019. Este continha um algoritmo que avaliava se um país é “seguro” com base nas taxas de concessão anteriores do estatuto de refugiado. A disposição abrangente inclui “países que normalmente não produzem refugiados e respeitam os direitos humanos e oferecem proteção do Estado”[27]. A Lista, contudo, não levava em consideração vulnerabilidades cruzadas e identidades que podem tornar um país inseguro para certos grupos, como mulheres que fogem da violência doméstica ou membros da comunidade LGBTQ +[28].

A denegação de refúgio a uma pessoa ou um grupo de pessoas que necessite desta tutela não apenas aumenta a vulnerabilidade destes solicitantes, como implica em uma negação de direitos humanos. Não suficiente, vale destacar que os motivos que levam à busca por um refúgio podem cessar. O motivo pela perseguição pode deixar de existir e, portanto, a motivação para a concessão do refúgio também pode deixar de existir. Desse modo, embora todas as decisões tomadas até aquele momento estivessem corretas, elas não mais se aplicam, de modo que toda a base de dados utilizada passa a ser desatualizada.

Fora do instituto do refúgio, tem-se que muitas vezes pode ocorrer migração em razão de mudanças climáticas, desastres ambientais ou outras situações de migração forçada que não estavam antes previstos no escopo do algoritmo.

A migração humana é complexa e volátil, influenciada por uma série de fatores internos e externos que sempre devem ser avaliados caso a caso, momento a momento, e não apenas com base em decisões que já foram tomadas ou não um dia.

De mesmo modo, tem-se que as decisões acerca do processo migratório em si não podem se dispor a fazer um julgamento de mérito sobre possíveis comportamentos de um migrante, condenando-o e o classificando como um “risco” apenas com base em informações que este disponibilize online. Isso seria o mesmo que punir uma pessoa antes desta cometer um crime com base apenas no seu perfilamento, o que além de não ter espaço em uma democracia a qual via de regra tem como base a presunção de inocência e a premissa de que os indivíduos são inocentes até que se prove o contrário, implicaria em uma violação expressa do artigo 11º da Declaração de Direitos do Homem de 1948.

Conclusão

As bases automatizadas tomam decisões ou criam uma base de dados e de informações que moldam o futuro de diversas pessoas. Estas decisões geradas por inteligência artificial, no entanto, podem estar enviesadas, tanto por aqueles que criaram o algoritmo responsável por realizar as classificações e decisões para as quais foi programado, quanto pelas fontes e pelas bases de dados utilizadas, que podem reproduzir modelos anteriores que por si só já estavam equivocados, perpetuando um modelo decisório falho.

A utilização dessas ferramentas, portanto, pode ter diversos impactos negativos aos indivíduos e suas famílias, especialmente quando consideradas pessoas em estado de vulnerabilidade. Dentre os possíveis impactos, menciona-se aqueles que afetam direitos humanos, meios de subsistência, a segurança física dos indivíduos, além daqueles que podem gerar demora nas análises, custos financeiros, interrupção do trabalho, deportação, entre outros[29].

Já no caso dos requerentes de refúgio, uma solicitação rejeitada incorretamente pode implicar, além de todas as dificuldades já elencadas, também em perseguição com base na “raça, religião, nacionalidade, filiação a um determinado grupo social ou opinião política” de um indivíduo, sujeitando estas pessoas a tratamentos desumanos em seu país de origem[30].

O risco deste tratamento de dados fica ainda mais evidente quando se destaca que estes sistemas já estão sendo adotados ao redor do mundo, sem a transparência necessária para avaliar quais os dados que estão sendo levados em consideração e se estes já não estão partindo de pressupostos discriminatórios.

Em razão de todo o exposto, pode-se concluir que as decisões automatizadas realizadas no âmbito de controle migratório não apenas têm o potencial de discriminar migrantes, como provavelmente já o vem fazendo desde sua implementação. Possíveis soluções para que estes sistemas passem a atribuir um tratamento igualitário a migrantes, respeitando convenções internacionais que estabelecem a não discriminação e igualdade entre pessoas, consistiriam na maior transparência sobre as variáveis usadas para as decisões tomadas, bem como na inclusão e constante atualização de variáveis, que não estivessem somente vinculadas a bases de dados de decisões pretéritas.

[1] CHRSITIAN, B., GRIFFITHS, T. Algoritmos para viver: a ciência exata das decisões humanas. Tradução de Paulo Geiger. 1ª edição. São Paulo: Companhia das Letras, 2017. p. 13.

[2] MARTIN, K. E. Ethical implications and accountability of algorithms. Journal of Business Ethics. 2018. p. 835–850. Disponível em < https://link.springer.com/article/10.1007/s10551-018-3921-3 > Acesso em 21 nov. 2020.

[3] G1. Twitter diz que irá analisar algoritmo de prévia de imagens após queixas de racismo por usuários. G1. Publicado em 21 set. 2020. Disponível em: https://g1.globo.com/economia/tecnologia/noticia/2020/09/21/executivos-do-twitter-dizem-que-irao-analisar-possivel-vies-discriminatorio-em-algoritmo-de-previa-de-imagens.ghtml>. Acesso em 21 nov. 2020.

[4] ANGWIN, J. et al. Machine Bias. ProPublica. Publicado em 23 mai. 2016. Disponível em: <https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing>. Acesso em 21 nov. 2020.

[5] A estimativa global atual é que havia cerca de 272 milhões de migrantes internacionais no mundo em 2019, o que equivale a 3,5 por cento da população global de acordo com o relatório da OIM “IOM. UN MIGRATION. WORLD MIGRATION REPORT 2020” disponível em <https://www.un.org/sites/un2.un.org/files/wmr_2020.pdf>. Acesso em 23 nov. 2020

[6] MOLNAR, P. Using AI in Immigration Decisions Could Jeopardize Human Rights. Centre for International Governance Innovation. Publicado em 11 out. 2018. Disponível em: <https://www.cigionline.org/articles/using-ai-immigration-decisions-could-jeopardize-human-rights>. Acesso em 21 nov. 2020.

[7] BBC NEWS. Home Office drops ‘racist’ algorithm from visa decisions. Publicado em 4 ago. 2020. Disponível em: <https://www.bbc.com/news/technology-53650758>. Acesso em 21 nov. 2020.

[8] HOME OFFICE. About us. Disponível em: <https://www.gov.uk/government/organisations/home-office/about>. Acesso em: 21 nov. 2020.

[9] MCDONALD, H. Home Office to face legal challenge over ‘digital hostile environment’. The Guardian. Publicado em 18 jun. 2020. Disponível em: <https://www.theguardian.com/uk-news/2020/jun/18/home-office-legal-challenge-digital-hostile-environment>. Acesso em 21 nov. 2020.

[10] BBC NEWS. Op. cit.

[11] Ibidem.

[12] FOXGLOVE. Legal action to challenge Home Office use of secret algorithm to assess visa applications. Publicado em 29 out. 2017. Disponível em: <https://www.foxglove.org.uk/news/legal-challenge-home-office-secret-algorithm-visas>. Acesso em 21 nov. 2020.

[13] HEAVEN, W. D. The UK is dropping an immigration algorithm that critics say is racist. MIT Technology Review. Publicado em 05 ago. 2020. Disponível em: <https://www.technologyreview.com/2020/08/05/1006034/the-uk-is-dropping-an-immigration-algorithm-that-critics-say-is-racist/>. Acesso em 21 nov. 2020; BBC NEWS, Op. cit.

[14] MOLNAR, P.; GILL, L. Bots at the gate: A human rights analysis of automated decision-making in Canada’s immigration and refugee system. International Human Rights Program (Faculty of Law, University of Toronto) and the Citizen Lab (Munk School of Global Affairs and Public Policy, University of Toronto, 2018. Disponível em: <https://citizenlab.ca/wp-content/uploads/2018/09/IHRP-Automated-Systems-Report-Web-V2.pdf>. Acesso em 21 nov. 2020. p. 14.

[15] Ibidem, p. 24 e 25.

[16] Ibidem, p. 25 e 33.

[17] BONNETT, G. Immigration NZ using data system to predict likely troublemakers. RNZ News. Publicado em 05 abr. 2018. Disponível em: <https://www.rnz.co.nz/news/national/354135/immigration-nz-using-data-system-to-predict-likely-troublemakers>. Acesso em 21 nov. 2020.; TAN, L. Immigration NZ’s data profiling ‘illegal’ critics say. NZ Herald. Publicado em 04 abr. 2018. Disponível em: <https://www.nzherald.co.nz/nz/immigration-nzs-data-profiling-illegal-critics-say/P5QDBGVDGFSI6I3NV4UHPOSBRA/>. Acesso em 21 nov. 2020.

[18] GLASER, A. ICE Wants to Use Predictive Policing Technology for Its “Extreme Vetting” Program. Slate. Publicado em 08 ago. 2017. Disponível em: <http://www.slate.com/blogs/future_tense/2017/08/08/ice_wants_to_use_predictive_policing_tech_for_extreme_vetting.html>. Acesso em 23 nov. 2020

[19] MOLNAR, P. Using AI in Immigration Decisions Could Jeopardize Human Rights. Centre for International Governance Innovation. Publicado em 11 out. 2018. Disponível em: <https://www.cigionline.org/articles/using-ai-immigration-decisions-could-jeopardize-human-rights>. Acesso em 21 nov. 2020.

[20] Ibidem.

[21] Tradução livre. SURDEN, H. Machine Learning and Law. Washington Law Review. V. 89. p. 87–115, 2014. Disponível em: <https://scholar.law.colorado.edu/cgi/viewcontent.cgi?article=1088&context=articles>. Acesso em 23 nov. 2020. p. 89.

[22] Ibidem, p. 90.

[23] BAROCAS, S.; SELBST, A. D. Big Data’s Disparate Impact. California Law Review. V. 104. p. 671–732, 2016. Disponível em: <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2477899>. Acesso em: 23 nov. 2020. p. 674.

[24] BBC NEWS. Op. Cit.

[25] Tradução livre. CHANDER, A. The racist algorithm? Michigan Law Review. V. 115. p. 1023–1045. Disponível em: <https://repository.law.umich.edu/mlr/vol115/iss6/13/?utm_source=repository.law.umich.edu%2Fmlr%2Fvol115%2Fiss6%2F13&utm_medium=PDF&utm_campaign=PDFCoverPages>. Acesso em 23 nov. 2020. p. 1036

[26] Tradução livre. GOVERNMENT OFFICE FOR SCIENCE. Artificial intelligence: opportunities and implications for the future of decision making. 2015. Disponível em: <https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/566075/gs-16-19-artificial-intelligence-ai-report.pdf>. Acesso em 23 nov. 2020. p. 14.

[27] THE GOVERNMENT OF CANADA. Designated countries of origin policy. Disponível em: < https://www.canada.ca/en/immigration-refugees-citizenship/services/refugees/claim-protection-inside-canada/apply/designated-countries-policy.html>. Acesso em 23 nov. 2020

[28] THE UNITED NATIONS HUMAN RIGHTS OFFICE OF THE HIGH COMMISSIONER. Concluding observations on the sixth periodic report of Canada CCPR/C/CAN/CO/6 . Disponível em: <https://tbinternet.ohchr.org/_layouts/treatybodyexternal/Download.aspx?symbolno=CCPR%2FC%2FCAN%2FCO%2F6&Lang=en>. Acesso em 23 nov. 2020

[29] MOLNAR, P.; GILL, L. Op. cit. p. 4 e 5.

[30] Ibidem, p. 5.

As opiniões expressas neste artigo são de responsabilidade exclusiva das autoras, não refletindo necessariamente a opinião institucional do CEPI e/ou da FGV.

Este artigo foi escrito por:

*Laurianne-Marie Schippers — Bacharel em Direito pela FGV Direito SP, advogada e pesquisadora no Centro de Ensino e Pesquisa em Inovação da FGV Direito SP (CEPI).

**Marília Papaléo Gagliardi — Bacharel em direito pela PUC/SP, advogada e pesquisadora no Centro de Ensino e Pesquisa em Inovação da FGV Direito SP (CEPI).

Siga o CEPI da FGV Direito SP nas redes sociais!

Você pode também receber por e-mail novidades sobre eventos, pesquisas e produtos do CEPI! Cadastre-se em nosso mailing aqui.

Para saber mais sobre o CEPI, acesse o nosso site.

--

--

CEPI - FGV DIREITO SP
CEPI FGV — FEED

O Centro de Ensino e Pesquisa em Inovação da Escola de Direito da FGV SP visa debater temas jurídicos que envolvem tecnologia, sociedade e educação. @fgvcepi