IA e educação: lições a aprender

Priscila Gonsales
#Conexão Educadigital
9 min readJan 8, 2022

O que os jovens precisam saber sobre inteligência artificial (IA) para utilizá-la de forma responsável e tomar decisões informadas? Stephanie Hankey, co-fundadora da organização não-governamental Tactical Tech (sediada em Berlin), fala de suas experiências com jovens "nativos digitais" e da necessidade de as instituições educacionais e da sociedade civil unirem forças para promover a alfabetização digital

Traduzido e adaptado de Goethe-Institut, Harald Willenbrock

Na Semana da IA do EUNIC de 2020, você disse que a Tactical Tech visa “envolver os jovens com tecnologia sem entusiasmo excessivo, mas também sem visão distópica”. O que exatamente você espera alcançar?

Queremos incentivar o pensamento crítico em torno da tecnologia e da IA. Quando somos excessivamente otimistas e entusiasmados com a tecnologia e seu potencial para resolver nossos problemas, ou o contrário, quando somos excessivamente negativos e desconfiados sobre como ela poderia arruinar a maneira como vivemos, então não somos mais capazes de nos engajar de forma significativa ou madura com os desafios muito reais que a tecnologia apresenta. Achamos que o complicado meio-termo é mais frutífero e interessante. Às vezes a tecnologia é grande e às vezes é terrível; às vezes resolve problemas e às vezes os torna piores. Precisamos considerar os dois extremos se quisermos desenvolver uma tecnologia que seja ética, equitativa e que realmente funcione para a sociedade.

Quando a Tactical Tech foi fundada no início deste século, havia uma visão otimista generalizada das tecnologias digitais como uma força equalizador que fomentaria a democracia e o discurso público. Este não foi o caso — por que não?

As tecnologias atualmente dominantes, impulsionadas por dados, foram profundamente moldadas por modelos comerciais que se concentram na acumulação de ativos para um pequeno número de empresas. Elas não foram construídas para o bem social. Modelo de negócios publicitários moldaram muito as tecnologias que temos, como criação de perfil comportamental ou emocional e os algoritmos de orientação da atenção. Essas tecnologias não apenas foram significativamente moldadas por esses modelos de negócios; elas também refletem os ideais e valores de nosso tempo, tais como consumismo, individualismo, eficiência e escala. Além disso, estas tecnologias foram projetadas para um mundo ideal, para um mundo arquetípico ou padronizado, e não para o mundo real com toda sua complexidade.

Você pode explicar um pouco mais sobre essa diferença?

Muitas dessas tecnologias foram projetadas para cenários específicos de usuários, para pessoas, vidas e cenários ideais imaginários que têm pouco a ver com a complexidade, o caos e as complicações do mundo real. Concretamente, isto significa que uma empresa poderia projetar o WhatsApp para conectar pessoas e — ingenuamente ou negligentemente, é difícil dizer quais — não considerar que as pessoas também poderiam usá-lo para manipulação política e discurso de ódio. Ou alguém poderia projetar uma plataforma para transmissão de vídeo ao vivo com a intenção de usá-la para transmitir festas de aniversário e, de alguma forma, ignorar a chance real de que ela também possa ser usada para transmitir atos criminosos e violentos — o que infelizmente vimos acontecer.

Essa ideia também se aplica à IA e à aprendizagem de máquinas (ML)?

Sim, é o mesmo problema. As metodologias de projeto e engenharia amplamente utilizadas são fundamentalmente defeituosas. Há dois problemas essenciais. Um, como mencionado acima, é que eles são projetados para um mundo ideal e não para um mundo real. Com a aprendizagem de máquina, por exemplo, vimos inúmeros algoritmos serem alimentados com dados tendenciosos, incluindo conteúdo sexista e misógino. Eles então amplificam esse viés de volta nos resultados. A outra questão é que as tecnologias estão sendo projetadas para usuários individuais, mas o que realmente precisamos são metodologias de projeto para a “sociedade como usuário”. Até superarmos estes dois problemas, continuaremos repetindo e amplificando os mesmos erros.

Para incitar a discussão e aumentar a conscientização sobre o impacto da tecnologia em nossa vida diária, a Tactical Tech inventou formatos criativos como a “Sala de Vidro”. Este espaço de exposição parece uma loja da Apple e os membros da equipe são chamados de “Ingeniuses” — um aceno para os “gênios” da Apple. No entanto, nada está à venda. A exposição interativa pretende refletir sobre o impacto e os desafios dos desenvolvimentos tecnológicos e mostrar possíveis abordagens a eles. Até o momento, as grandes exposições em Berlim, Nova Iorque, Londres e São Francisco e as versões pop-up que estão sendo criadas por bibliotecas, escolas e exposições tiveram um total de mais de 168.000 visitantes. Por que você escolheu este formato não convencional?

O formato foi crucial para envolver uma gama verdadeiramente diversificada de pessoas em uma conversa sobre como a tecnologia está mudando nossas vidas. Empregar a linguagem visual e estética que é usada para vender tecnologia aspiracional, e depois subvertê-la para falar sobre o que está errado com a tecnologia, foi um dispositivo simples e poderoso que sentimos ser essencial para que as pessoas comuns se interessassem e se relacionassem com o conteúdo.

Quais foram as experiências mais surpreendentes com a Sala de Vidro?

A mais surpreendente tem sido a gama de pessoas com quem a exposição ressoa e o quanto elas se conectam com o conteúdo. Aprendemos que todos têm uma razão para se preocupar com o impacto da tecnologia em suas vidas — desde estudantes do ensino médio até pensionistas aposentados, de São Francisco e Seul ao Sudão.

O que você aprendeu sobre as relações dos jovens com a tecnologia digital, as mídias sociais e os riscos potenciais através de suas interações com eles?

Ainda estamos em uma fase inicial em nosso trabalho, mas já descobrimos duas coisas importantes. Primeiro, os jovens são realmente bons no uso da tecnologia, mas isso não significa que eles entendam como ela funciona ou tenham recebido formação para descobrir isso de forma significativa. Em segundo lugar, eles se preocupam profundamente com a forma como a tecnologia está ligada às questões que vêem ao seu redor, mas isso não está atualmente incluído na forma como eles aprendem ou entendem o mundo. Quando aprendem sobre política, democracia, meio ambiente ou geografia na escola, as tecnologias digitais não são integradas como parte da equação para o presente e o futuro. Há muitas possibilidades de trabalho nesta área. É o que a Tactical Tech espera poder fazer nos próximos anos através de um processo de co-desenvolvimento com jovens e trabalhando com instituições culturais, comunidades e educadores existentes.

Em suas próprias palavras, a Tactical Tech não procura “dizer aos jovens o que está certo ou errado, mas ajudá-los a encontrar seu caminho”. O que isso significa em relação à IA?

Temos que começar construindo conhecimento e uma compreensão de como essas tecnologias funcionam e por que elas funcionam da maneira como funcionam. E temos que garantir que haja transparência em torno de quando e como a IA e o Machine Learning (ML)são usados nos sistemas e serviços que impactam os jovens. Por exemplo, um jovem pode precisar saber que um algoritmo está sendo usado para classificar seus exames ou que o ML está sendo usado para estimulá-los durante jogos de computador e como isso funciona. Somente então os jovens podem participar de forma significativa de alguma reação e tomar suas próprias decisões sobre o que lhes parece bem e o que não. E temos que trabalhar a partir de uma perspectiva baseada em direitos, dando a eles a oportunidade de fazer parte da discussão e não simplesmente adotando uma abordagem protecionista.

O que significa para você alfabetização em IA?

Eu acho que alfabetização em AI é um termo um pouco difícil. Faria mais sentido falar sobre "alfabetização digital". Para mim, trata-se de entender como suas tecnologias — independentemente de quais tecnologias específicas você usa — funcionam suficientemente bem para tomar as decisões informadas. E trata-se de responder efetivamente aos problemas que você encontra e, quando necessário, até mesmo de responsabilizar empresas e governos. A alfabetização em AI, particularmente, é algo que eu acho que não podemos simplesmente esperar que os usuários tenham. Governos, instituições públicas, pesquisadores e talvez até mesmo a sociedade civil precisam assumir a responsabilidade, embora também não sejam atualmente alfabetizados sobre IA, de modo que não podem tomar boas decisões para os demais. Eu gostaria de ver mais consciência de IA entre os usuários e uma compreensão de como ela está ligada à transparência por parte daqueles que a constroem e a fazem.

Quem deveria assumir a liderança na educação dos jovens sobre como lidar com a IA: instituições estatais como escolas e universidades, iniciativas privadas como a Tactical Tech, ou outra pessoa?

Creio que precisamos de uma combinação de todos esses atores. Cada grupo traz um conjunto de habilidades diferente e acho que eles precisam uns dos outros se quisermos ajudar os jovens a lidar com esta enorme questão. A Tactical Tech pode se especializar no desenvolvimento de materiais independentes, acessíveis e atuais que repercutem nos jovens. Mas escolas, instituições culturais e bibliotecas são muito mais adequadas para adaptar, localizar, ampliar e trabalhar através de tais materiais. Vemos a colaboração entre todas estas entidades como o cenário ideal. Entretanto, a aprendizagem entre pares é o método mais importante e potencialmente poderoso e tem que estar no centro dessas iniciativas.

Todas essas entidades estão preparadas e equipadas para desempenhar seu papel?

Se escolas, bibliotecas, instituições culturais, grupos comunitários e grupos de jovens trabalharem com os especialistas certos que são especialistas em tecnologias desmistificadoras e se concentrarem no co-desenvolvimento e aprendizagem entre pares, então eu acho que eles estarão realmente bem posicionados para alcançar os jovens e envolvê-los de forma significativa nestes tópicos. Mas muito mais precisa ser feito, desde programas criativos até o desenvolvimento de currículos. Esta é uma área rica para o avanço da inovação e a Tactical Tech espera ser um grande catalisador neste campo.

O que você vê como o risco mais sério que os jovens tendem a negligenciar em relação à IA?

Acho que é muito cedo para falar sobre os jovens negligenciando os problemas com a IA, já que não acho que eles tenham sido devidamente introduzidos ao tema ainda. Ainda não exploramos plenamente as vantagens e as desvantagens, as oportunidades e os desafios e acho que precisamos fazê-lo.

Como as tecnologias digitais se tornam mais importantes, você vê um risco futuro de que a diferença entre os jovens ao longo dos limites de renda, a capacidade de comprar o hardware de última geração e as habilidades para usá-lo possa se aprofundar?

Esta é uma boa pergunta e você poderia logicamente assumir que isso aconteceria. Em vez disso, vemos que a tecnologia é essencial como uma porta de entrada para pessoas que vivem em situações difíceis. Os jovens de origens menos privilegiadas muitas vezes investem fortemente em suas tecnologias, pois elas são essenciais para seu acesso ao resto do mundo e muitas vezes instrumentais para sua capacidade de escapar da pobreza ou da injustiça.

A IA pode ajudar o ser humano a aprender melhor e entender melhor como nós aprendemos?

Definitivamente. Mas, para ser eficaz, a IA precisa de uma grande quantidade de dados sobre cada estudante individualmente. Ainda temos tantos problemas para resolver de antemão, tais como, preconceitos, privacidade, fluxo educacional, estigma, certos tipos de aprendizagem priorizados no sistema educacional e muitas suposições que não são contestadas. Tudo isso é complicado pela questão de como pessoas como professores, pais e responsáveis podem incorporar essas idéias ao aprendizado, e que tipo de pressão isso poderia exercer sobre o aprendiz. Não tenho certeza se mesmo a IA mais bem projetada do mundo pode nos ajudar aqui. Quando projetamos estes sistemas, precisamos analisar como estas tecnologias impactam cenários reais com jovens reais e não modelos idealizados de resolução de problemas. Alguns escândalos recentes relacionados a e-proctoring (supervisão remota de testes/exames escolares) mostraram o quanto isto coloca pressão sobre os estudantes. Também precisamos compreender os problemas que a tecnologia de dados pesados traz para situações de aprendizagem não ideais. Alguns dos problemas que mencionei são inerentes aos dados e outros à educação em geral. Estes últimos também precisam ser corrigidos, caso contrário, você está apenas adicionando tecnologia a um sistema já quebrado.

Que atitude você gostaria de ver seus filhos desenvolverem em relação à IA e ML?

Eu tenho dois filhos e ambos têm idade suficiente para aprender sobre a IA e o ML. Eu tento ajudá-los a entender como isso se relaciona com o mundo ao seu redor e como isso impacta suas experiências e a vida dos outros. A tecnologia não é uma questão aparte; ela faz parte da maneira como vivemos. E, quer queiramos ou não, temos que aceitar o papel onipresente da tecnologia se quisermos compreendê-la e lidar com ela de forma eficaz. É tão importante que os jovens venham a entender a tecnologia como um espelho e amplificador de nossos valores sociais e políticos. E para adotar uma abordagem de aprendizagem que destaque todas as armadilhas e todos as compensações— somente então poderemos apoiá-los no desenvolvimento de uma atitude útil tanto para a IA quanto para a ML.

--

--

Priscila Gonsales
#Conexão Educadigital

educadora e pesquisadora, facilita processos educacionais colaborativos com design thinking, doutoranda em Linguagens e Tecnologias, fundadora do Educadigital