Esta mulher desenvolveu um aplicativo para sobreviventes de abuso por exposição de imagem depois de encontrar seu vídeo em um site pornográfico
Desde que encontrou um vídeo seu no Pornhub, Tisiphone criou o Alecto AI, um aplicativo que verifica os rostos dos usuários e procura por conteúdo online possivelmente não consensual.
“Revenge porn” é um problema global. Agora, graças a um sobrevivente, as vítimas desse tipo de pornografia podem fazer a varredura na Internet e descobrir onde suas imagens não consensuais foram parar.
Mas, em primeiro lugar, é desolador que essa solução seja necessária.
Cada vez mais, ouvimos sobre como a tecnologia pode e está sendo usada para resolver alguns dos problemas mais difíceis do mundo. Às vezes, porém, pode criar novos.
A questão do abuso sexual baseado em imagens (IBSA)*, mais comumente (embora menos precisamente) conhecido como “pornografia de vingança”, é uma dessas questões urgentes. Em suma, IBSA é a “distribuição não consensual e/ou criação de imagens sexuais privadas”, que pode ser feita por diferentes motivações.
Cada vez mais comum, o IBSA é motivado por alguém que tenta se vingar, chantagear ou ameaçar seu ex-parceiro usando seu conteúdo sexual — daí a “vingança” em “pornografia de vingança”.
No entanto, a maior parte do IBSA, ou “pornografia não consensual” como também é chamada, abrange uma gama mais ampla de práticas e motivações. Isso inclui abusos como filmagem/voyeurismo secreto, deepfakes, sextorção e upskirting — e não por ex-parceiros furiosos — mas por hackers ou trolls, perseguidores ou agressores domésticos.
Um olhar mais atento para os números
Esse tipo abuso está se tornando mais proeminente em nossa sociedade tecnológica, onde é mais fácil do que nunca criar, editar, fazer upload, enviar e armazenar conteúdo. É encontrado principalmente entre um grupo demográfico mais jovem, como aqueles na casa dos 20 anos.
Se olharmos os números, 1 em cada 12 adultos nos EUA relatou ter sido vítima do IBSA e 1 em cada 20 relatou ser perpetrador.
Em 2019, uma pesquisa entre Reino Unido, Austrália e Nova Zelândia descobriu que entre 6.000 entrevistados, 1 em cada 3 relatou ter sido vítima do IBSA. Durante a pandemia COVID-19, especula-se que o número de vítimas do IBSA nos EUA foi muito maior, devido ao aumento do compartilhamento de conteúdo sexualmente explícito.
Então, há esperança? Absolutamente sim.
Apesar desses números crescentes, o mesmo facilitador que tem permitido o crescimento dos casos IBSA também pode ser usado para pará-lo. Ou seja, a tecnologia pode ser usada para combater essas práticas abusivas.
Isso é exatamente o que uma mulher que atende pelo nome de “Tisiphone” está tentando fazer.
Vítima do IBSA, Tisiphone assumiu a responsabilidade de ajudar outras pessoas por meio da criação de uma tecnologia de reconhecimento facial que pode detectar se alguém foi vítima do IBSA.
Alecto AI: um novo aplicativo para combater o abuso sexual baseado em imagens
Tisiphone, uma mulher chinesa de 25 anos, ficou chocada em uma tarde de primavera quando recebeu um telefonema de um amigo informando-a de uma notícia horrível: havia um vídeo íntimo dela no Pornhub que foi filmado de forma não consensual quando ela era ainda uma adolescente.
Ela afirmou que, “O incidente aconteceu há talvez sete anos. Eu era muito jovem… Não tinha ideia de que aquele monstro havia me filmado secretamente até que vi meu vídeo no Pornhub. ” A descoberta do vídeo foi devastadora, como pode ser para muitas vítimas do IBSA, e levou Tisiphone a até tentar o suicídio, pensando “Não posso mais viver. Eu não quero mais viver. ”
Desde aquele momento trágico, Tisiphone usou suas habilidades em tecnologia para lutar. Ela criou o Alecto AI, um aplicativo que escaneia os rostos dos usuários e verifica se há ou não conteúdo deles online. Com o Allecto, que significa “raiva incessante”, Tisiphone espera poder ajudar milhares de vítimas como ela.
Em uma entrevista, ela afirmou que a parte mais difícil para os sobreviventes foi procurar e localizar seu conteúdo, que muitas vezes pode ter sido espalhado por toda a internet, tudo “enquanto somos forçados a reviver nosso trauma continuamente”. De acordo com ela, Alecto AI é a ferramenta “poderosa, imparcial e compassiva” que pode ajudar as sobreviventes neste processo desafiador.
“Não podemos nos defender a menos que tenhamos acesso à tecnologia que pode nos ajudar a fazer isso”, disse ela.
Um kit de ferramentas em crescimento para lutar contra o IBSA
O Alecto AI, com lançamento previsto para o final de 2021, não é o primeiro aplicativo que utiliza software de reconhecimento facial para detectar IBSA.
Outros como Rumiki e Facepinpoint são alguns dos que surgiram nos últimos anos. As gigantes da tecnologia também avançaram: no início deste ano, a Google fez alterações em seu algoritmo para suprimir resultados que poderiam conter conteúdo IBSA.
E em 2019, o Facebook até lançou uma ferramenta de inteligência artificial para ajudar as vítimas, embora esse não dependa de software de reconhecimento facial, pois o Facebook não queria envolver as vítimas diretamente.
No entanto, a Tisiphone observou em uma entrevista que as ferramentas existentes carecem de medidas de segurança adequadas para proteger as informações confidenciais das vítimas e são menos precisas quando usadas em mulheres ou pessoas não brancas, uma consideração crítica quando a grande maioria das vítimas do IBSA são mulheres.
A Alecto AI deseja a aplicar uma abordagem mais “centrada no ser humano” à sua tecnologia e a descentralizar o processo para que os indivíduos não tenham que depender de plataformas principais.
A luta para a frente
O IBSA é uma realidade difícil da qual cada vez mais pessoas, especialmente mulheres, se tornam vítimas, mas também está sendo cada vez mais combatido em muitas frentes.
A responsabilização dos criminosos perante a lei está sendo discutida nos EUA, e as plataformas de tecnologia também estão desenvolvendo novas estratégias para lidar com o IBSA.
Iniciativas emergentes como o Alecto AI podem se provar serem incrivelmente úteis como uma ferramenta para sobreviventes e fornecer esperança de que, junto com organizações de apoio, as sobreviventes possam lidar e se recuperar de traumas.
*Tipo penal dos EUA. No Brasil não se usa o mesmo critério, mas o raciocínio da matéria também pode ser aplicado aqui. Aqui, o “revenge porn” está tipificado no art. 218-C do Código Penal.
Texto original aqui.