Boletim de Notícias do CTS-FGV — Semana 24/04/2022

O CTS-FGV apresenta sua seleção semanal de notícias preparada por nossos pesquisadores. Os destaques desta semana incluem tópicos das áreas de proteção de dados pessoais, questões sobre a regulação de plataformas digitais, segurança cibernética, dentre outros. Confira abaixo:

Notícias internas:

  • Nesta terça-feira, 25/04, nosso coordenador Luca Belli participa de evento organizado pelo Comitê Gestor da Internet no Brasil (CGI.br) em Brasília para marcar o lançamento de uma consulta sobre regulação de plataformas digitais no país, que visa a identificar medidas regulatórias capazes de mitigar riscos e prevenir eventuais ameaças decorrentes das suas atividades no Brasil. Belli participa do painel “Propostas em debate no judiciário” a partir das 14h, acompanhe a transmissão ao vivo aqui.
  • Nosso professor e pesquisador Nicolo Zingales participa no dia 27/04 da Conferência “Competition Law and Policy in a Data-Driven Economy” organizada pela Faculdade de Direito da University College London. Saiba mais e inscreva-se aqui.
  • Entre os dias 26 e 28/04, o CTS-FGV organiza a primeira edição da Data Governance School LatAm. O objetivo da DGSL é reunir reguladores de proteção de dados e demais stakeholders para um curso intensivo de três dias, onde cada participante terá um duplo papel, sendo aluno e palestrante. As partes interessadas da DGSL abrangem funcionários públicos de Autoridades de Proteção de Dados da América Latina, profissionais de governança de dados, funcionários governamentais e intergovernamentais, representantes de empresas e startups, ativistas e pesquisadores. Saiba mais aqui.

Destaques da semana:

  • Twitch: Fizemos uma avaliação de impacto de direitos humanos. Veja o que estamos fazendo a seguir: “Esta avaliação foi realizada em 2022 usando metodologias baseadas nos Princípios Orientadores da ONU sobre Empresas e Direitos Humanos, incluindo uma consideração dos vários princípios, padrões e metodologias de direitos humanos sobre os quais tais princípios foram construídos. (…) No geral, a consultoria BSR determinou que a Twitch apresenta menos riscos aos direitos humanos do que outros serviços semelhantes. Isso se deve à natureza efêmera do conteúdo ao vivo e à nossa abordagem singular de moderação, que incentiva e capacita todos a participarem da segurança da comunidade”. Via Twitch
  • Um arquivo categórico de falhas do ChatGPT: “Foi demonstrado que grandes modelos de linguagem são valiosos em diferentes campos. O ChatGPT, desenvolvido pela OpenAI, foi treinado usando grandes quantidades de dados e simula a conversação humana, compreendendo o contexto e gerando respostas adequadas. Ele atraiu muita atenção devido à sua capacidade de responder com eficácia a uma ampla gama de perguntas humanas, com respostas fluentes e abrangentes que superam os chatbots públicos anteriores tanto em segurança quanto em utilidade. No entanto, não há uma análise abrangente das falhas do ChatGPT, que é o foco deste estudo. Onze categorias de falhas, incluindo raciocínio, erros factuais, matemática, codificação e viés, são apresentadas e discutidas”. Artigo de Ali Borji, via Arxiv
  • Elon Musk faz verificação forçada de algumas celebridades: “Elon Musk (claro!) está forçando a verificação de perfis de algumas celebridades, como do jogador de basquete Lebron James e do escritor Stephen King, pagando ele mesmo pelo selinho azul sem que ninguém tenha pedido”. Via Núcleo Jornalismo
  • Comitê de Supervisão do Facebook: Remoção de desinformação sobre a COVID-19: “Este parecer consultivo sobre políticas examina se a Meta deve continuar a remover determinadas categorias de desinformação sobre a COVID-19 ou se uma abordagem menos restritiva se alinharia melhor com seus valores e responsabilidades frente aos direitos humanos”. Via Comitê de Supervisão
  • Decodificando o Tratado de Crimes Cibernéticos da ONU: “Como a quinta sessão da Convenção sobre Crimes Cibernéticos da ONU começou em Viena nesta semana, a EFF está presente para apontar preocupações de que o documento carece de fortes compromissos com os direitos humanos e condições e salvaguardas detalhadas que são necessárias para proteger os direitos de indivíduos e organizações em todo o mundo”. Via Electronic Frontier Foundation
  • Agência reguladora da Lei de Dados cancela reuniões por falta de assunto: “Em operação desde 2020 pelo governo federal para fiscalizar a aplicação da lei de dados, a Autoridade Nacional de Proteção de Dados (ANPD) cancelou desde 2021 todas as reuniões do conselho diretor por “ausência de assuntos de pauta”. Ao todo, foram 23 reuniões não realizadas, entre maio de 2021 e março deste ano”. Via Folha de S. Paulo
  • Pesquisador: ChatGPT é capaz de criar malwares indetectáveis: “Um pesquisador de cibersegurança da Forcepoint conseguiu fazer a inteligência artificial (IA) do ChatGPT se utilizar da esteganografia para burlar a política de não aceitar conteúdos maliciosos, o que torna o chatbot capaz de produzir malwares indetectáveis. A descoberta foi feita por Aaron Mulgrew”. Via CISO Advisor
  • Relatório regional sobre políticas e liberdades no uso de criptografia na América Latina e no Caribe: “O debate sobre criptografia ao redor do mundo continua sendo enquadrado como uma tensão entre, de um lado, segurança da informação e privacidade das comunicações e, de outro, acessibilidade para investigações criminais e aplicação da lei e para fins de segurança nacional. Buscando entender como conjunturas políticas relacionadas ao uso e desenvolvimento da criptografia têm impactado direitos na região, o “Relatório regional sobre políticas e liberdades no uso de criptografia na América Latina e no Caribe” expõe o estado das políticas públicas e do nível de liberdade sobre o uso de tecnologias com criptografia na região”. Via ObCrypto
  • WhatsApp: Uma carta aberta: “Quando compartilhamos o que estamos fazendo aqui, geralmente é sobre novos recursos ou produtos que estamos desenvolvendo. Hoje, estamos escrevendo sobre um desenvolvimento preocupante no Reino Unido que todos precisam conhecer. O governo do Reino Unido está atualmente considerando uma nova legislação que abre a porta para tentar forçar as empresas de tecnologia a quebrar a criptografia de ponta a ponta em serviços de mensagens privadas. A lei poderia dar a um funcionário não eleito o poder de enfraquecer a privacidade de bilhões de pessoas em todo o mundo”. Via Blog do WhatsApp
  • NSO Group usou três exploits de clique zero no iOS em 2022: “O fornecedor israelense de spyware NSO Group realizou ao menos três explorações de vulnerabilidade de clique zero no iOS, que eram desconhecidas em 2022, de acordo com um novo relatório do Citizen Lab. A exploração de clique zero não precisa que a vítima abra um arquivo ou tente acessar algum link, mas que ela apenas esteja usando um sistema operacional ou aplicativo vulnerável. Embora a Apple tenha tomado medidas para evitar ataques contra seus clientes, os desenvolvedores de exploração da NSO continuam encontrando maneiras de contornar as mitigações”. Via CISO Advisor
  • Chile: Coordenador nacional apresenta os principais eixos da nova Política Nacional de Segurança Cibernética: “Daniel Álvarez destaca que estratégias como infraestrutura serão mantidas e aspectos como treinamento, gênero e educação escolar serão adicionados. Ele diz que antes de uma consulta pública no final de maio, a nova política para o período 2023–2028 será publicada”. Via Diario Financiero
  • Segurança cibernética: uma tarefa pendente para o México: “O México é um dos países que recebe o maior número de ataques cibernéticos do mundo. As estatísticas mostram que, em 2022, o país sofreu 187 bilhões de tentativas de ataques cibernéticos, um crescimento de 20% em relação a 2021. Os ataques mais comuns foram por meio de software malicioso ou malware (56%) e phishing (47%), que é o roubo de identidade”. Via Aristegui Notícias
  • Como o México se tornou o maior usuário do programa de espionagem mais conhecido do mundo: “Uma investigação do New York Times baseada em entrevistas, documentos e evidências forenses de telefones hackeados mostra as trocas secretas que fizeram do México o primeiro cliente do Pegasus e também revela que o país se tornou o usuário mais prolífico do programa de espionagem mais conhecido do mundo. O México começou a usar a ferramenta de vigilância contra civis que confrontavam o Estado, abusos que o país insiste em dizer que cessaram. Mas o Times descobriu que o México continua a usar o Pegasus para espionar os defensores dos direitos humanos, mesmo nos últimos meses”. Via New York Times
  • Carta Aberta: Regulação democrática das plataformas com urgência!: “A Internet é essencial para a vida em sociedade, especialmente no que tange ao debate público e à participação política. Mas uma série de transformações nesse espaço, a exemplo da concentração de poder econômico e político das plataformas digitais e da utilização delas em campanhas de desinformação, tem gerado preocupações e levado à criação de novas regras em todo o mundo, a fim de proteger os direitos humanos das pessoas que usam a Internet, evitar a concentração de poder e a degradação da esfera pública. O Brasil precisa fazer a sua parte, aprovando o Projeto de Lei 2630 no Congresso Nacional. Um projeto que vem sendo debatido há mais de três anos”. Via Coalizão Direitos na Rede
  • Avaliação de impacto algorítmico para proteção dos direitos fundamentais: “Buscando apoiar e contribuir para o debate sobre o uso responsável da Inteligência Artificial, o LAPIN publica hoje o relatório “Avaliação de Impacto Algorítmico para a Proteção dos Direitos Fundamentais”. Avaliações, relatórios e diagnósticos do impacto são instrumentos que têm ganhado cada vez mais importância em uma sociedade na qual as ações humanas e empresariais podem provocar riscos de difícil reparação. Nesse contexto, a avaliação de impacto algorítmico é um instrumento de governança que pode ser adotado pelo responsável pelo desenvolvimento e operação de um sistema de IA para avaliar, documentar e prestar contas de determinadas aplicações que possam causar um alto risco para os direitos fundamentais”. Via LAPIN
  • Órgão de privacidade da União Europeia cria força-tarefa para discutir ChatGPT: “O órgão da União Europeia que reúne autoridades nacionais de privacidade anunciou nesta quinta-feira (13) que criou uma força-tarefa para tratar do robô ChatGPT. A medida pode ser o primeiro passo para o bloco criar uma política comum de regras de privacidade para a inteligência artificial. O Conselho Europeu de Proteção de Dados (EDPB, na sigla em inglês) afirmou que os países-membros discutiram a decisão da Itália de banir o ChatGPT até que ele se enquadre na lei de proteção de dados da União Europeia”. Via g1
  • A nova IA de texto para vídeo da nVidia mostra uma taxa insana de progresso: “Apresentado na Conferência IEEE sobre Visão Computacional e Reconhecimento de Padrões 2023, o novo gerador de vídeo da nVidia começa como um Modelo de Difusão Latente (LDM) treinado para gerar imagens a partir de texto e, em seguida, introduz uma etapa extra na qual tenta animar a imagem usando o que aprendeu ao estudar milhares de vídeos existentes”. Via New Atlas
  • O ChatGPT pode ajudar os médicos — e prejudicar os pacientes: “À medida que tecnologias como o ChatGPT da OpenAI desafiam a supremacia da pesquisa do Google e desencadeiam conversas sobre a transformação do setor, os modelos de linguagem estão começando a mostrar a capacidade de assumir tarefas antes reservadas a trabalhadores de colarinho branco, como programadores, advogados e médicos. Isso gerou conversas entre os médicos sobre como a tecnologia pode ajudá-los a atender os pacientes. Os profissionais da saúde esperam que os modelos de linguagem possam descobrir informações em registros digitais de saúde ou fornecer aos pacientes resumos de longas anotações técnicas, mas também há o receio de que eles possam enganar os médicos ou fornecer respostas imprecisas que levem a um diagnóstico ou plano de tratamento incorreto”. Via Wired
  • O CEO da OpenAI diz que a era dos modelos gigantes de IA já acabou: “A OpenAI fez uma série de avanços impressionantes em IA que trabalha com linguagem nos últimos anos, pegando algoritmos de aprendizado de máquina existentes e ampliando-os para um tamanho nunca antes imaginado. O GPT-4, o mais recente desses projetos, provavelmente foi treinado usando trilhões de palavras e muitos milhares de chips de computador potentes. O processo custou mais de US$ 100 milhões. Mas o CEO da empresa, Sam Altman, diz que o progresso não virá da ampliação dos modelos. “Acho que estamos no fim da era em que serão esses modelos gigantescos”, disse ele a um público em um evento realizado no MIT na semana passada. “Nós os tornaremos melhores de outras maneiras.” Via Wired
  • Robô libera função de compra e transferência de Bitcoin pelo Telegram: “O robô (bot) integrado ao Telegram, o Wallet Telegram, que oferece uma carteira de criptomoedas, liberou uma nova função. De acordo com um tuíte, o bot agora permitirá operações com o Bitcoin (BTC), incluindo compra, transferências e até operações peer-to-peer (P2P)”. Via CriptoFácil
  • Defensoria do Rio se destaca no estado por nível de adequação à LGPD: “A Defensoria Pública do Rio de Janeiro (DPRJ) ocupa o segundo lugar de uma lista com outros 16 órgãos estaduais avaliados quanto à adequação à Lei nº 13.709, também conhecida como Lei Geral de Proteção de Dados (LGPD). É o que aponta ranking divulgado pela Auditoria de Conformidade realizada pelo Tribunal de Contas do Estado (TCE-RJ), no período entre 7 de março e 24 de junho de 2022”. Via Defensoria Pública do Rio
  • ANPD divulga nova página para o envio de denúncias e petições de titulares: “Nesta segunda-feira (24/04), a Autoridade Nacional de Proteção de Dados divulga nova página em seu sítio eletrônico que traz informações para titulares e controladores de dados pessoais sobre os requerimentos feitos à ANPD (denúncias e petições de titulares de dados pessoais contra o controlador). A página traz também dois novos formulários para envio dos requerimentos e esclarece as principais dúvidas sobre quando fazer uma denúncia ou uma petição. Os novos formulários facilitam o preenchimento das informações que são essenciais para que a Autoridade analise os casos”. Via ANPD

--

--