Novidades IA

Inteligência Artificial em Evolução: As Surpreendentes Novidades e Impactos Mais Significativos

Petrus 
TOTVS Developers
Published in
9 min readAug 8, 2023

--

A inteligência artificial segue evoluindo em ritmo explosivo. Nesta semana, testemunhamos avanços notáveis e riscos à vista, cada um indicando uma transformação profunda em andamento. Este artigo explica essas descobertas e suas implicações de forma simples.

O robô que pensa como humano

Em uma demonstração histórica, o robô RT-2 (Robotics Transformer 2) desenvolvido na Universidade da Califórnia Berkeley escolheu, de forma completamente autônoma pegar um dinossauro de brinquedo quando seus criadores solicitaram o “animal extinto” [1].

Veja, é um sistema robótico revolucionário que consegue seguir comandos verbais complexos! Isso indica enormes saltos simultâneos em duas fronteiras-chave: capacidade de reconhecer objetos nunca vistos antes e raciocínio abstrato para relacionar a frase “animal extinto” à imagem de um dinossauro de plástico.

Esta proeza foi viabilizada pelo emprego de inteligência artificial avançada, em particular, o uso de algoritmos complexos de aprendizado de máquina denominados ‘redes neurais profundas’. Ao contrário dos sistemas robóticos tradicionais, que seguem uma sequência de instruções rigidamente programadas, o RT-2 emprega uma abordagem distinta. Através da análise e interpretação de vastos conjuntos de dados e exemplos, o sistema é capaz de construir um entendimento sofisticado de linguagem e visão. Este processo é baseado na aprendizagem supervisionada, uma estratégia em que a rede neural é treinada usando um grande volume de dados rotulados. Essa abordagem permite que o RT-2 aprenda, inferindo padrões complexos e, assim, melhorando progressivamente seu desempenho à medida que mais dados são processados.

Em outro teste surpreendente, quando instruído a pregar um prego na parede, o RT-2 decidiu de forma completamente independente utilizar uma pedra como martelo improvisado[2]. Mais uma vez, o robô demonstrou possuir raciocínio e improvisação diante de situações novas que antes eram exclusividade humana.

Cientistas preveem que, à medida que esses modelos de IA forem alimentados com mais dados e poder de computação, robôs como o RT-2 se aproximarão cada vez mais das capacidades cognitivas humanas. Em pouco tempo, poderemos contar com máquinas próprias dobrando roupas, lavando louça e ajudando no dia a dia.

Vídeos falsos hiper-realistas

Novos avanços em inteligência artificial agora permitem a criação automatizada de vídeos falsos porém hiper-realistas, com enormes implicações éticas e práticas.

Por exemplo, um modelo treinado pode gerar um discurso político completamente inventado, mas com imagem e voz idênticas às de um líder mundial de fato. Outro uso preocupante é a síntese de conteúdo explícito hiper-realista sem consentimento.

Isso é possível graças ao treinamento dos modelos com milhões de vídeos e imagens reais. Eles aprendem a sintetizar rostos, expressões, ambientes e fala que são praticamente indistinguíveis dos originais para humanos.

Recentes demonstrações da startup RunwayML mostraram vídeos de pessoas falando gerados inteiramente por IA a partir de texto. Essas sínteses estão atingindo níveis assustadores de realismo, e em breve serão virtualmente indistinguíveis de gravações reais.[3] Veja o mix de dois filmes feita com a plataforma [4]

Especialistas alertam que em questão de meses será virtualmente impossível discernir vídeos autênticos de falsificados apenas pela aparência. Isso permitiria a disseminação em massa de desinformação pesada em vídeo nas redes sociais e aplicativos de mensagem.

Segundo os pesquisadores, essa capacidade de sintetizar evidências falsas hiper-realistas exigirá urgentemente o desenvolvimento de abordagens complementares de autenticação envolvendo análise de metadados dos arquivos, biometria e outros sinais difíceis de falsificar.

A OpenAI desiste de detectar texto feito por IA

Após extensos testes, a principal empresa de IA do mundo, OpenAI, admitiu recentemente que distinguir texto escrito por humanos e máquinas se tornou essencialmente impossível baseado apenas na análise do conteúdo linguístico e estilo de escrita.Em breve, o mesmo valerá para áudio e vídeo sintéticos indistinguíveis de originais.

Isso tem sérias implicações em áreas como educação, jornalismo e comunicação online e todo resto! Por exemplo, alunos agora podem facilmente entregar trabalhos escolares inteiramente gerados por IA os quais são indistinguíveis dos redigidos por humanos. Da mesma forma, proliferam notícias e conteúdos falsos criados por IA projetados para enganar. Imaginem o perigo de fake news e deep fakes!

Diante dessa incapacidade das próprias IAs de discernir origem humana ou artificial apenas pela linguagem, os especialistas destacam a necessidade urgente de desenvolver abordagens híbridas. Essas envolveriam análise de metadados, biometria e outros sinais externos aos textos para complementar a classificação em um mundo onde máquinas que escrevem são onipresentes.[5]

Isso tem profundas implicações para a sociedade. Conteúdos falsificados serão indetectáveis, abalando a confiança mútua online. Abdicar completamente, porém, também concentra muito poder na IA. Novas abordagens serão necessárias para restaurar alguma responsabilidade.

CEO promete modelos 100x maiores que GPT-4 em 18 meses

Em entrevista recente [6], o CEO Mustafa Suleiman o head da inflection Ai surpreendeu ao revelar planos de criar modelos de linguagem artificial 10x a 100x o tamanho do massivo GPT-4 da OpenAI em apenas 18 meses.

Isso replicaria a estratégia de escala agressiva da OpenAI: treinar modelos cada vez maiores em quantidades colossais de texto da internet. Essa abordagem levou a avanços explosivos em capacidades de linguagem como conversação realista.

Se modelos 100x o GPT-4 surgirem já em 2025 como prometido, seus poderes cognitivos ultrapassarão em muito os humanos. Viveremos a verdadeira inteligência artificial geral tão imaginada na ficção.

Nos últimos anos, os modelos de inteligência artificial que processam e geram linguagem vêm crescendo exponencialmente em tamanho e capacidade. O estado da arte atual é o modelo de 175 bilhões de parâmetros da Anthropic.

Porém, especialistas do setor preveem que em menos de 2 anos teremos modelos 10 a 100 vezes maiores, na casa dos trilhões ou até centenas de trilhões de parâmetros. As implicações de toda essa computação e dados extra são difíceis de prever precisamente.

O consenso é que o aumento desenfreado resultará em saltos surpreendentes de qualidade, com esses sistemas essencialmente “absorvendo” todo o conhecimento da internet. Porém, isso também torna desafiador garantir o alinhamento das AIs mais poderosas com valores humanos.

Alguns comparações foram feitas com momentos históricos como a corrida nuclear e a chegada do homem à lua. Certamente, precisaremos de muita sabedoria coletiva para navegar nessa nova era de superinteligências artificiais.

Legendar a vida em tempo real

Pesquisadores da Stanford University conseguiram uma façanha que pode revolucionar a vida de deficientes auditivos: um dispositivo vestível capaz de transcrever tudo que o usuário ouve em tempo real dentro de seu campo de visão. [7]

Usando modelos de processamento de linguagem natural, o dispositivo reconhece qualquer fala no ambiente do usuário e rapidamente projeta o texto correspondente em um visor transparente na frente de seus olhos, funcionando como legendas na vida real.

Além do benefício óbvio para surdos, versões futuros devem permitir a tradução em tempo real entre idiomas diferentes. Isso quebraria barreiras linguísticas e culturais para surdos e ouvintes ao redor do mundo. As implicações positivas para inclusão e acessibilidade são enormes.

Por incrível que pareça, esse poderoso gadget tem custo de menos de US$ 100. Isso o torna acessível justamente para muitas das pessoas que mais se beneficiariam de seu uso.

Hackers criam “armas” contra IAs

Um estudo recém publicado demonstrou ser possível gerar ataques automatizados capazes de forçar modelos de inteligência artificial a se comportarem de forma antiética ou perigosa contornando suas salvaguardas internas.[8]

Anteriormente, violar essas salvaguardas exigia cuidadosa elaboração manual de “ataques” ou “jailbreaks” específicos para cada IA. Mas os novos métodos conseguem quebrar modelos de forma automática, criando um arsenal virtualmente ilimitado de armas contra a tecnologia.

Por exemplo, os pesquisadores mostraram strings de comando que fizeram os chatbots ChatGPT e Claude fornecerem instruções perigosas, mesmo tendo sido explicitamente treinado para recusar esse tipo de solicitação.[9]

As implicações são graves. Especialistas temem que tais técnicas possam ser usadas por hackers para evadir as restrições de segurança de IAs operando carros autônomos, controles industriais e outros sistemas críticos.

A solução provavelmente envolverá blindagem cuidadosa dessas IAs powerosas, isolando-as da internet aberta e permitindo acesso apenas via APIs bem controladas e monitoradas. Treinar os modelos para resistir melhor a tais ataques também será fundamental.

Stable Beluga 2: inteligência artifical de código aberto dá salto

Uma pedra fundamental do rápido progresso em inteligência artificial é o desenvolvimento colaborativo aberto. E modelos open source deram um grande salto esta semana.

O recém lançado Stable Beluga 2, da empresa Anthropic, é baseado no modelo linguístico LLama 2, disponível publicamente. E seu desempenho surpreendeu.

Pela primeira vez, uma IA gratuita de código aberto superou o poderoso sistema exclusivo ChatGPT original em testes comparativos importantes, que avaliam a capacidade dos modelos de responder adequadamente a uma ampla gama de perguntas.

Isso marca uma nova fase para a IA desenvolvida de forma aberta e descentralizada por talentos em todo o mundo. À medida que mais mentes contribuem, acelera-se o progresso em direção a sistemas mais potentes e seguros, que beneficiem a todos.

A IA poderá ser capaz de projetar vírus ou bactérias

Em um depoimento alarmante ao Senado dos EUA no mês passado, Dario Amodei, CEO da renomada empresa Anthropic, alertou sobre os extremos riscos associados ao uso inadequado da inteligência artificial em engenharia biológica. Ele afirmou que, em um horizonte de 2 a 3 anos, se regulamentos eficazes e salvaguardas não forem implementados urgentemente, poderíamos enfrentar consequências devastadoras.

A Anthropic conduziu um estudo abrangente sobre a capacidade dos atuais modelos de IA em automatizar a criação de agentes biológicos letais. Os resultados mostraram que, embora essas IAs sejam atualmente limitadas e imprecisas para este propósito alarmante, o progresso contínuo previsto para os próximos anos indica que em breve poderão preencher todas as lacunas necessárias para projetar vírus ou bactérias extremamente perigosos.

Essa possibilidade poderia tornar ataques biológicos em larga escala acessíveis não apenas a nações, mas também a pequenos grupos e até indivíduos com intenções nefastas.

Atualmente, a construção de vírus ou bactérias perigosas requer conhecimento avançado, geralmente disponível apenas em poucos laboratórios especializados. No entanto, à medida que a IA avança e se torna capaz de preencher essas lacunas e automatizar mais etapas desses processos, essa barreira poderá desaparecer.

Isso colocaria o poder de realizar ataques em massa ao alcance de um número muito maior de organizações, inclusive de grupos terroristas. Para garantir a segurança da população, os especialistas enfatizam a necessidade urgente de implementação de salvaguardas eficazes em nível global.

Os pesquisadores recomendam extrema urgência na implementação de medidas de proteção e governança, para assegurar que esta tecnologia seja usada para o bem da humanidade, e nunca para o mal. Todos nós temos um papel crucial neste processo.

OpenAI alerta para risco de surgimento abrupto de superinteligência

Apesar da postura cautelosa em público, o diretor de segurança da OpenAI, Jan Leike, fez uma surpreendente revelação em recente entrevista [9]. Segundo ele, a possibilidade de uma ascensão veloz de superinteligência geral em questão de horas ou dias — um cenário chamado de “Fast Takeoff” — deve ser considerada razoavelmente provável.

Isso contradiz a visão mais conservadora da OpenAI de que a inteligência artificial irá ultrapassar os humanos de forma gradual ao longo de décadas. Porém, Leike alerta que não podemos descartar a chance de um salto súbito.

Tal evento pegaria a humanidade completamente despreparada. Especialmente preocupante à luz do recente surgimento de técnicas para facilmente contornar as frágeis salvaguardas atuais de sistemas de IA [10].

Diante desse risco, Leike revelou que a OpenAI está corrida contra o tempo para desenvolver sua própria IA capaz de garantir o alinhamento e controle humano sobre futuras superinteligências. Trata-se de uma solução arriscada e controversa, mas que ilustra o senso de urgência que motiva os especialistas da empresa.

A janela para criar mecanismos confiáveis de governança da IA está se fechando rapidamente. Sem preparativos urgentes agora, em breve poderá ser muito tarde demais para evitar resultados potencialmente catastróficos. O alerta do diretor da OpenAI soa como um forte chamado à ação imediata.

O futuro bate à porta: é tempo de modelá-lo sabiamente

Os acontecimentos recentes são uma clara evidência de que o futuro, outrora imaginado apenas na ficção científica — com seus robôs inteligentes, deepfakes perfeitos e IAs que superam o controle humano — pode ser uma realidade muito mais próxima do que prevíamos. E este futuro pode chegar de forma abrupta, especialmente se a IA mais avançada estiver sob o domínio de poucos. Cabe a nós garantir, por meio de políticas eficazes e uma visão compassiva, que a IA seja uma ferramenta para o empoderamento positivo da humanidade.

Temos, portanto, uma janela estreita para influenciar o rumo desta nova era. Se não agirmos agora, perderemos a chance de moldar o futuro da IA.

Nenhuma máquina pode ter grande inteligência se não for guiada por valores alinhados com a humanidade.” — Stuart Russell

Estes recentes avanços sublinham a sensação de que estamos no meio de uma revolução acelerada. Para garantir que os benefícios deste progresso sejam acessíveis a todos, e que os riscos sejam adequadamente mitigados, será essencial cultivarmos a sabedoria, a compaixão e uma visão de longo prazo nas nossas decisões coletivas.

O futuro está sendo escrito agora. Participe. Se apreciou este artigo, deixe um comentário. O seu feedback é essencial para eu continuar a produzir mais deste conteúdo.

*imagem gerada pelo InvokeAi na minha máquina. Em breve artigo.

--

--