Duas tecnologias que precisamos entender melhor antes de falarmos sobre Metaverso

Nicole Rachid
5 min readJan 24, 2022

--

O planeta terra em cubos.
Como o metaverso não vai ser, em uma imagem.

A mudança de posicionamento do Facebook para Meta no fim do ano passado foi o pontapé principal para a palavra “metaverso” virar vírgula em toda a forma de conteúdo nas redes. Entre diversas cópias de Minecraft em blockchain se auto-declarando metaversos, NFTs reinventando diversas rodas sem se preocupar com o custo ambiental e muita conversa de marketing digital no meio, pode ficar difícil entender o quê ele realmente é (ou será).

Em resumo, o metaverso é a ideia de uma nova revolução digital, ou a digievolução da internet móvel para um espaço interativo e social de aprendizado, colaboração e construção de ideias que vai além das telas. Ela não é uma só tecnologia, mas um conjunto de tecnologias que, juntas, formam esse espaço que mescla o virtual e o real e conecta pessoas. Aqui, é interessante destacar desse conjunto de tecnologias as irmãs realidade aumentada e virtual (AR e VR), não por serem mais conhecidas, mas por elas também serem, na verdade, um conjunto de outras tecnologias que vão ser essenciais para a construção dessa visão.

Ligadas à realidade aumentada, existem duas ferramentas específicas em desenvolvimento que precisamos olhar mais atentamente para a construção de um metaverso realmente interativo e que não se limita à mini-mundos quadriculados:

VPS e Ego4D.

1. Virtual Positioning System (VPS)

Uma das primeiras versões bem-sucedidas (se não a primeira) de um universo paralelo ao nosso acontecendo simultaneamente, e que interage com o mundo em escala real, é o filho favorito de todos os artigos sobre a história da realidade aumentada, incluindo o meu TCC: O Pokémon GO, jogo lançado em 2016 pela Niantic.

A ideia de metaverso está mais próxima do que vemos hoje ali do que dos universos pixelados que encontramos sendo criados em blockchain hoje. Isso se dá pelo uso da geolocalização na criação de experiências que utilizam o mundo real para gerar conteúdo digital sobreposto a ele (como os Pokémons que você encontra na sua calçada através do celular e pode capturar). Além disso, existe uma escala global não só no sentido de o aplicativo usar o planeta como mapa, mas também na adesão massiva do público.

O VPS vai além de geolocalização, e mistura informações de GPS (Global Positioning System) com um mapeamento tridimensional dos ambientes através de câmeras, gerando uma cópia 3D dos ambientes que permite o posicionamento de elementos digitais ali. (como nesse exemplo do Google, que utiliza a tecnologia para direcionar as pessoas pelas ruas em realidade aumentada)

Um telefone sendo apontado para rua, com uma sobreposição de informações sobre os lugares próximos.
GIF do Mobile AR News sobre a tecnologia desenvolvida pelo Google.

A própria Niantic fala sobre disponibilizar, numm futuro próximo, sua versão do VPS no Developer Kit recém-liberado ao público. Isso quer dizer que, em breve, essa tecnologia estará disponível para um enorme grupo de indivíduos e não só nas mãos de grandes empresas de tecnologia.

O avanço do VPS permitirá a identificação de lugares através de câmeras e a adição de elementos virtuais interativos a eles, seja esse lugar a sua casa, aquele restaurante legal que você conhece ou um marco turístico. Esses elementos podem ir de um post-it virtual na sua geladeira, que vai permanecer ali mesmo quando você parar de interagir com ela, a substituição dos odiados cardápios em QR code para algo que é ativado digitalmente no seu campo de visão quando você chega, ou mesmo uma experiência no Cristo Redentor que deixa o monumento de outra cor quando você se aproxima dele.

2. Egocentric Live 4D Perception (Ego4D)

Nenhum lugar explica melhor essa tecnologia do que o próprio site do Meta AI, mas posso tentar: historicamente, os avanços tecnológicos em relação à interpretação de imagens por AI tem acontecido através de um conjunto de imagens capturadas em terceira pessoa, ou seja, uma visão de fora dos acontecimentos.

A ideia do Ego4D é mudar esse cenário: alimentar e treinar uma inteligência artificial com milhares de horas de video em primeira pessoa coletados por wearables (e aqui percebemos a importância dos óculos inteligentes Rayban+Meta em, possivelmente, produzir mais milhares de horas desse conteúdo).

Visualização de como seria encontrar um objeto perdido com o uso do Ego 4D, bem Black Mirror.

"Com essa tecnologia do futuro, você poderia perguntar 'onde eu deixei isso?', e ser informado [por ela em qual lugar o objeto se encontra], porquê isso geraria uma "memória" perfeita da sua experiência em primeira pessoa" (Meta)

Esse é um avanço necessário por vários motivos: um deles, por exemplo, é otimizar a interação dos usuários com informações virtuais no mundo real, entendendo melhor diferentes espaços e formas de interatividade pelo ponto de vista de uma pessoa, e não por uma câmera de celular como acontece hoje. Isso significa treinar essa inteligência artificial para interpretar o mundo através de olhos humanos, entendendo, classificando, prevendo e diferenciando as formas de interação entre nós e o mundo.

Mas além de ser importante entender os aspectos técnicos dessa tecnologia, é necessário parar para pensar em questões muito mais complexas e humanas na construção dessa base de dados. O deslumbre com novas tecnologias muitas vezes nos impede de questionar pontos importantes para além da parte funcional: termos olhares plurais e o maior número possível de pessoas cientes e envolvidas em seu desenvolvimento é algo que precisa acontecer desde o início, pois existem infinitas formas de se perceber o mundo e o Ego4d será uma ferramenta de uso social, interpretando também como interagimos com outras pessoas.

O olhar diverso não pode ser opcional e precisamos, inclusive, de pessoas não-devs envolvidas nesses processos. Isso foi algo que percebi claramente quando, ao participar de um projeto em fase beta, quem fez vários questionamentos sobre consentimento e possíveis impactos negativos nos usuários foi uma pessoa artista, enquanto desenvolvedores (e eu) pareciam ainda estar deslumbrados pelas novidades que eram apresentadas ali.

Com uma base de dados multicultural e diversa desde o primeiro dia de vida do projeto, podemos evitar a perpetuação de vieses negativos e que ignorem as infinitas nuances da experiência humana. Como toda a base de dados, caso não haja esse esforço, arriscamos repetir erros grotescos na hora de colocarmos essa tecnologia nas mãos das pessoas.

É o dever de todo o entusiasta por tecnologias emergentes se certificar de que o metaverso será um conjunto de tecnologias pensadas para pessoas diversas e por pessoas diversas, e não algo construído apenas (por e) para um grupo homogêneo que mora no Vale do Silício. Por isso, acompanhá-las de perto pode ser a coisa mais importante que faremos nesse momento, pois são tecnologias como essas, já em desenvolvimento, que serão os pilares de como interagiremos com a próxima versão da internet.

Para finalizar, deixo alguns recursos para quem tem interesse em acompanhar o desenvolvimento dessas novas tecnologias:

  • Recentemente conheci um site muito legal para acompanhar tecnologias emergentes e seu processo de evolução: o Envisioning cataloga tudo de forma didática em gráficos interativos(!).
  • A Niantic tem um canal no Discord para os interessados em desenvolver com o Lightship ARDK, conectado diretamente com engenheiros de lá envolvidos na construção do Developer Kit.
  • O Meta AI tem um canal no YouTube que explica muito bem as várias pesquisas que andam rolando por lá também.

--

--

Nicole Rachid

Entusiasta por tecnologias emergentes, motion designer e criadora AR.