fonte: history.co.uk / wired / zeroquatrodois

Armas de eficiência em massa

Amora, robôs, política e o futuro da guerra

Bruno Kunzler
ZERO42
Published in
18 min readDec 11, 2015

--

Tecnologia e guerra sempre tiveram um relacionamento complicado, até um pouco irônico às vezes.

Primeiro foi a pólvora. Por volta do ano 850, os chineses experimentavam elixires que pudessem estender suas vidas. A busca pela imortalidade levou à invenção da arma mais mortal de todo um milênio.

Depois foram as armas nucleares. Com o objetivo de acabar com a maior guerra que a humanidade viveu, levamos a humanidade à beira de sua destruição. A ironia da situação assustou o mundo. Deu início a uma era em que potências nucleares não mais lutam diretamente entre si, mas financiam guerras entre outros países, se enfrentando indiretamente. Ou então lutam apenas com aqueles que não as possuem. Uma era em que o paradoxo da destruição mutuamente assegurada “funcionou” e em que, para fugir da destruição e da invasão, tornou-se necessário construir a pior das armas.

Convivemos diariamente com os efeitos dessas duas invenções. O uso e o controle de revólveres, fuzis e metralhadoras ainda é um problema — interno e externo — em grande parte do mundo. A posse e o desenvolvimento de armas nucleares é fator geopolítico determinante da distribuição de poder e conflitos pelo mundo.

Mas uma relação de tanto tempo não sobrevive só de acidentes. Muitos dos mais importantes avanços tecnológicos do último século foram criados em plena guerra — computadores, criptografia, ciência espacial, GPS, internet e até o leite condensado. Para cada uma dessas invenções, o suporte e financiamento de Estados que precisavam usá-las para ter vantagem em guerra acabou gerando também resultados benéficos para a humanidade em geral: agora temos smartwatches, missões para Marte, Waze, memes e brigadeiro de colher.

Parece que sempre estamos nesse limiar, em que tecnologia e guerra precisariam uma da outra para continuarem existindo. Como um pêndulo que oscila entre “destruição da humanidade” e “civilização extremamente desenvolvida” sem nunca chegar nos extremos, mas nos dando sempre um gostinho do que poderia acontecer se chegássemos.

Uma relação extremamente complicada. É bom que estejamos bem a par dela, porque ela ainda vai existir por um tempo. E o próximo capítulo dessa história já está por aqui:

Diga olá ao PETMAN

Robôs militares estão chegando

Se o uso de robôs no exército terá um resultado tão bom quanto a internet ou tão ruim quanto Hiroshima e Nagasaki, é uma questão ainda em aberto. Como vamos ver, depende muito de nós entendermos o que podemos fazer para dirigir tudo isso para um lado ou para outro. Mas, antes, precisamos ver o cenário geral: como a robótica permitiu que chegássemos onde estamos e as promessas de uma era em que não mais lutamos nossas próprias guerras.

Assim como o desenvolvimento teórico da física no começo do século XX foi a base da criação de armas nucleares, o desenvolvimento da robótica e da inteligência artificial estão intimamente ligadas à criação de robôs militares. Os dois campos chegaram a um ponto em que tornou-se possível aos robôs terem as características necessárias para executar tarefas complexas em ambientes consideravelmente dinâmicos. Foi uma evolução de décadas. O que vou chamar aqui de traços de um sistema nos ajudará a entender o que mudou com o passar dos anos e onde estamos hoje.

Dividiremos esses traços em três: capacidade, automação e inteligência. Capacidade (capability), é a habilidade de executar uma determinada tarefa. Automação, a habilidade de realizar uma tarefa sem controle humano direto. E inteligência, a habilidade de analisar o ambiente, criar cenários de ação e definir probabilisticamente as chances com que esses cenários cumprirão um objetivo pré-determinado.

Para entender melhor tudo isso, vamos supor que queremos resolver um problema: ensinar o Amora, um gato ~hipotético~, a não subir em cima da mesa. Pavlov, Skinner e algumas horas investidas no Animal Planet ensinaram que a melhor forma é borrifar água no Amora sempre que ele subir na mesa. Como borrifar água é difícil usando apenas as mãos, criamos um sistema capaz de fazê-lo; um sistema apenas capaz, que executa uma determinada tarefa, e que não pode nem ser chamado de robô. Sem ser automático ou inteligente, é apenas uma ferramenta: precisa de um humano para comandá-lo e não consegue analisar o ambiente ou criar cenários de ação. Um borrifador de água, por exemplo. Sempre que o Amora subir em cima da mesa, alguém deve borrifar água nele usando essa ferramenta.

Olá, Amora

Só que ensinar um gato a não subir na mesa é mais complexo que isso. Como às vezes ele fica em casa sozinho e sobe na mesa sem ser visto, o borrifador de água perde grande parte de sua utilidade. Para resolver o problema, o sistema deve ser automático e borrifar água no gato sem que ninguém esteja envolvido. Daí, vamos para o segundo passo: um borrifador de água capaz e automático, mas que não consegue analisar o ambiente. De minuto em minuto, ele borrifa água em cima da mesa. Pode acertar o gato, mas pode também acertar qualquer outra coisa que estiver ali. Um computador, papéis, comida, pessoas… Eficaz, mas ineficiente, no final das contas.

Para acertar apenas o Amora, o sistema deve ser também inteligente. Deve ter sensores que o possibilitem absorver e analisar dados do ambiente, e um processamento central para que ele chegue em conclusões baseadas nos dados coletados. Talvez um sensor de peso: quando algo com o peso de um gato subir na mesa, ele borrifa. Ou um sensor de movimento e captação de imagem, para que ele saiba onde borrifar. Assim, pode distinguir um gato de uma pessoa ou de um cachorro; pode analisar o ambiente à sua volta e entender quando e qual ação tomar. Quando um sistema torna-se também inteligente — por menor que essa inteligência seja — passamos também a considerá-lo um robô.

Quanto mais inteligente, capaz e automatizado um sistema for, maior são suas possibilidades. Voltando ao gato: como o objetivo inicial era ensinar ao Amora que subir em cima da mesa era errado, talvez nosso robozinho ache que borrifar água não é o melhor a se fazer. Talvez deva-se comprar brinquedos para que ele não queira subir, ou então aplicar choques para gerar resultados mais rápidos. Se juntarmos os três traços básicos, chegamos em uma característica fundamental de todo aspirante a robô: autonomia funcional. Conceitualmente, ela é “a habilidade de compor cenários, selecionar e executar, sozinho, dentre diferentes cursos de ação, aquele que maximiza as chances de atingir seus objetivos, com base em seu conhecimento e entendimento do mundo, de si mesmo e da situação”. Para maximizar as chances de evitar que o gato suba na mesa, o sistema analisa a situação e o mundo para decidir que um choque é melhor que água e agir sobre essa decisão informando a um humano sobre as conclusões em que chegou, por exemplo. Essa autonomia funcional, assim como seus conceitos base, possui níveis. Um sistema pode ter autonomia funcional em algumas situações (jogar água no Amora), ou então em diversas (entender que jogar água não é a melhor maneira, comprar brinquedos direto de um e-commerce, recebê-los em casa e brincar com o gato).

Toda essa história nos mostra o conflito primordial da robótica:

Quanto mais complexo o objetivo que o robô deve executar e o ambiente em que ele está inserido, maior deve ser o nível de cada um dos três traços para que ele seja útil naquela situação.

Mas sejamos realistas. Nossos robôs são militares e nosso ambiente, a guerra. Como o conflito se coloca, nesse caso? A maioria dos relatórios do exército norte-americano — o mais avançado em robótica no mundo — coloca o nível de autonomia e de maturidade tecnológica em um patamar parecido com o do gráfico abaixo, criado pela CIA.

Autonomous Systems in the Intelligence Community

Portanto, a situação atual é que a tecnologia já está muito avançada, mas não o suficiente para colocarmos robôs autônomos diretamente em guerra ou então em “missões de inteligência”.

Por mais que isso pareça ser um impedimento, existem algumas formas de contornar o descompasso entre complexidade e autonomia. Numa situação qualquer, quem quer que use um robô pode controlar melhor a situação se puder modificar qualquer um dos dois lados. Ou controlar o ambiente, diminuindo sua complexidade; ou aumentar a autonomia funcional de um robô (mais caro e complicado), possibilitando que ele opere em ambientes mais complexos; ou, ainda, se for realmente necessário que ele opere em situações complexas, terceirizar sua inteligência para um humano.

Vamos um por um, entendendo melhor a lógica por trás do uso de robôs autônomos em guerras reais.

O presente: a promessa da eficiência

fonte: wikipedia / dronewarsuk / zeroquatrodois

O primeiro é o passo mais lógico e o que fazemos hoje em dia. Como o desenvolvimento da robótica ainda não está em um nível suficientemente avançado, contornamos o problema ao assumirmos nós mesmos algumas das tarefas mais complexas. Drones, Talons e qualquer UVS (Unmanned Vehicle System — sistema veicular não tripulado) seguem essa lógica.

A promessa, nesse caso, é de que a obediência, resistência e capacidade física de um robô, somadas à inteligência humana, tornariam as decisões mais acertadas, os ataques mais objetivos e a guerra, em geral, mais rápida e com menos mortes. Esse mesmo argumento já funcionou com munições guiadas há um tempo atrás, tanto que o Human Rights Watch, hoje em dia, recomenda seu uso, especialmente em áreas populosas.

Ao assumirmos as tarefas mais complexas como, por exemplo, identificar alvos ou decidir sobre a vida de um outro ser humano, estaríamos criando uma das armas mais eficientes já vistas. Eficiente, porque facilita a identificação de alvos; porque possibilita ataques mais focados, diminuindo as chances de haver mortes dos dois lados, tanto de civis quanto de militares; e porque diminui (teoricamente) o tempo de guerra.

No entanto, terceirizar a inteligência de um robô para um humano ainda traz consigo alguns problemas que o impedem de ser tão eficiente.

O primeiro problema é a distância entre humano e máquina e as fragilidades que ela pressupõe. Com as tarefas mais complicadas a cargo de um homem, será necessário haver um canal de comunicação entre as duas partes. Em guerra, o canal deve ser constante e instantâneo para que decisões sejam feitas da melhor forma possível. No entanto, esse tipo de comunicação não é possível em diversas situações.

Além disso, um canal aberto de comunicação acaba abrindo a possibilidade de interceptação dos comandos, uma situação não muito agradável quando se tem uma máquina equipada com mísseis e metralhadoras. O problema já foi tratado pela OTAN, e existe até um manual online para hackear drones militares.

O segundo é que, em guerra, essa dependência pode tornar um robô muito lento. Para aumentar a velocidade das decisões tomadas e dispensar a comunicação constante e instantânea com a base, bastaria torná-los mais independentes do controle e supervisão humanas. Ou seja, desenvolver sua autonomia torna-se necessário para seu uso em guerra e para atingir níveis mais elevados de eficiência.

Se quisermos chegar nesses níveis, não podemos parar em UAV’s.

O futuro: eficiência máxima

fonte: extremetech / whenintime.com / zeroquatrodois

Existe um problema em qualquer coisa que segue a lógica da eficiência: você nunca para até que ela seja totalmente alcançada. Se acontece com a economia, acontecerá também com a robótica e com a guerra. Nesse caso, alcançaremos o máximo apenas com o aumento da autonomia, que acompanha o avanço da robótica e da inteligência artificial, inevitavelmente. E, portanto, segue uma lógica estabelecida:

O nível atual de autonomia coloca humanos in-the-loop — seu papel é apenas autorizar ações. O Taranis, por exemplo, ainda mantém pessoas in-the-loop quando está em combate: ele pode identificar alvos autonomamente, mas não pode atirar. Apenas um humano poderia tomar essa decisão.

Para aumentar sua eficiência, bastaria retirar a necessidade de autorização humana, mas permitir ainda que um operador pudesse barrar determinadas decisões. Nesse ponto, estaríamos on-the-loop.

O passo final, então, seria um robô capaz de escolher sozinho qual opção tomar, a qualquer momento. Sem envolver ninguém, diretamente. Portanto, com humanos out-of-the-loop. A informação só seria transmitida após a decisão ser tomada, em um report da ação. Chegaríamos no objetivo: máquinas que podem fazer tudo sozinhas, rapidamente, sem necessidade de controle direto, sempre obedecendo ordens pré-estabelecidas.

Guiado pela ilusão da eficiência total, tirar humanos do loop se tornou o futuro da robótica militar. Ainda que seja um grande desafio científico e tecnológico por si só, o caminho e os incentivos já estão postos para que cheguemos lá:

A derrocada norte-americana

Inevitavelmente, o desenvolvimento desses sistemas está ligado à estratégia militar dos EUA, cujo Departamento de Defesa possui gastos anuais maiores do que o dos outros nove países do top 10 mundial, combinados. Mas o exército norte-americano não é mais tão dominante quanto era: já em 2009, Andrew Krepinevich, em um artigo para a Foreign Affairs, colocava que “as fundações militares da dominância global norte-americana estão erodindo” e que “métodos tradicionais de projeção de poder estão se tornando obsoletos, criando wasting assets” (ativos desperdiçados, em uma tradução literal). Para ele, “a difusão de tecnologias militares avançadas para outros países e a contínua ascensão de novas forças, como a China, e Estados hostis, como o Irã, farão com que seja cada vez mais caro, em sangue e moeda, aos EUA realizarem missões em áreas de interesse, como o oeste da Ásia e o Golfo Persa”. Portanto, se quiserem manter seu incontestável poderio militar, é necessário que consigam obter novamente o monopólio de certas tecnologias militares.

Esse episódio já aconteceu uma vez. No final da Segunda Guerra, os EUA possuiam monopólio de armas nucleares. Uma vantagem estratégica inegável, que ameaçou tornar-se um wasting asset quando a Rússia fez seu primeiro teste nuclear, em 1949. Essa ameaça criou um senso de urgência ao militarismo norte-americano, o que deu origem à escalada militar da Guerra Fria não apenas na área nuclear, mas também na extensão de sua influência global e na capacidade de movimentar exércitos pelo globo.

É o que nos leva a ver, hoje, um movimento parecido. O CNAS — Centro para a Nova Segurança Americana — vem liberando uma série de relatórios sobre o futuro da guerra e sobre como os EUA devem se preparar para a era da robótica. Apelidados de 20YY, esses relatórios tentam visualizar os aparatos e estratégias necessárias para a guerra do futuro e retratam as fragilidades existentes hoje em dia. Munições guiadas, cyber ataques, sistemas de defesa avançados, enxames de robôs e, como não poderia deixar de ser, veículos não-tripulados e robôs autônomos são pontos analisados em cada um desses relatórios.

A importância estratégica dessas novas tecnologias fez com que o governo se empenhasse em se envolver e financiar seu avanço. Dos US$ 44 bilhões destinados à P&D pelo Departamento de Defesa dos EUA, aproximadamente 10% vai para o desenvolvimento de veículos não-tripulados, como os drones. A DARPA — Defense Advanced Research Projects Agency — agência responsável pelo desenvolvimento de tecnologias emergentes para o exército, possui orçamento anual de US$ 3 bilhões. Esse dinheiro possibilita o financiamento de diversas atividades, entre elas o DARPA Robotic Challenge, “uma competição entre sistemas robóticos e times de software que competem para desenvolver robôs capazes de ajudar humanos envolvidos em desastres”, que dá US$ 2 milhões para o primeiro colocado e que chegou ao fim em junho; o FLA (Fast Lightweight Autonomy), que está desenvolvendo um pequeno veículo para circular autonomamente em áreas urbanas e dentro de prédios; e o CODE (Collaborative Operations in Denied Environment), cujo objetivo é desenvolver times de drones que podem executar “todos os passos de uma missão — encontrar, fixar, monitorar, mirar, atirar e informar — em situações em que a comunicação humana é impossível”.

Robôs militares — autônomos ou não — são vistos como parte importante da modernização militar norte-americana. É o que pode manter a vantagem que os norte-americanos sempre tiveram sobre o resto do mundo. Essa nova diretriz guiará o futuro do exército norte-americano e, por consequência, o futuro dos exércitos e dos conflitos globais.

O começo de uma nova corrida

A boa e velha escalada armamentista. Se ocorreu com armas nucleares — e com praticamente qualquer outra arma da história da humanidade — já ocorre também com robôs autônomos. Os EUA começaram, e agora vários outros países vão atrás, tanto os mais tradicionais quanto as novas potências militares.

Começamos na Australia, com um depoimento de Jai Gallott, consultora do Departamento de Defesa:

“A Austrália precisa pensar na próxima geração de guerras e no fato de que nossos inimigos já estão utilizando drones altamente sofisticados. Nós precisamos ter drones no ar, na água e em terra.”

Passamos por diversos outros países: China, Rússia, Israel, Cingapura, Polônia, Alemanha, Índia, França, Iraque... Não vou abordar separadamente cada um deles, mas o tom e a racionalidade por trás são iguais aos da Austrália, independentemente do país e do inimigo que ele enfrenta.

Até onde a lógica de qualquer escalada armamentista vai, não há surpresas. É a mesma de sempre. Argumentos não faltarão, e o dinheiro continuará entrando, não importando o tamanho do budget — um estudo da Winter Green Research estima que o mercado de robôs militares atingirá US$ 9.8bi em 2016. E todos sabemos a importância que o aquecimento da indústria militar tem para alimentar guerras.

O apelo não-militar

Há muito tempo, queremos deixar de fazer uma porção de atividades e tarefas que são insalubres, estressantes ou simplesmente chatas. Queremos deitar na praia e aproveitar a vida, queremos ter trabalhos que significam alguma coisa e queremos passar mais tempo com amigos e família. O que falta é tempo. Robôs são a promessa de um tempo há muito tempo perdido para nós. De uma vida muito mais fácil e prazerosa.

Esse apelo pessoal e comercial é o grande diferencial do desenvolvimento de robôs autônomos. Antes, esse tipo de tecnologia só existiria se financiado por governos. Hoje, a situação mudou. Em 2013, o Google (Alphabet) comprou a Boston Dynamics (criadora da Cheetah, Wildcat e Atlas); em 2014, a DeepMind, de inteligência artificial; e no mesmo ano, a Titan Aerospace, que fabrica drones. Nenhuma dessas compras teve o objetivo de garantir ao Google (Alphabet) acesso a financiamento militar. Muito pelo contrário. Depois de comprar a Boston Dynamics, por exemplo, a empresa rompeu os contratos que tinha com o exército americano. O que interessa ao gigante de tecnologia (até onde sabemos) é o potencial mercado consumidor desses robôs. E, se quer vender para o máximo de pessoas possível, não é muito bom estar ligado ao exército.

Diferente de uma arma nuclear, um rifle ou um míssil, robôs autônomos realmente possuem (várias) características não violentas que nos convencem facilmente a aceitar seu desenvolvimento. Mesmo quando são iniciativas criadas pelo mesmo governo que quer utilizá-las em seu exército:

A Iniciativa Nacional para Robótica procura avançar a “nova geração da robótica”. O foco é em robôs que possam trabalhar junto a humanos — ajudando trabalhadores fabris, profissionais da saúde, soldados, cirurgiões e astronautas a realizarem suas tarefas.

Até no próprio meio militar, a robótica pode ser usada para tarefas completamente diferentes do que matar alguém. A possibilidade de um robô salvar alguém de um incêndio, de um desastre natural ou de uma bomba é real e deve ser levada em consideração. É essa esperança que guia o trabalho de inúmeros cientistas que desenvolvem esse tipo de tecnologia.

A dificuldade em desassociar o uso comercial, pessoal ou industrial do uso militar é o ponto mais sensível do desenvolvimento da autonomia. Porque ser contra “robôs militares” é bem diferente do que ser contra a robótica em geral. Só que o “spill-over” da robótica de consumo para a robótica militar é quase inevitável. Seja por meios lícitos ou ilícitos (DIY), a linha é demasiada tênue para garantir o avanço em um dos lados e interromper o avanço no outro.

Então,

1- Nós não conseguimos usar robôs autônomos em guerra, ainda, porque seu nível de autonomia é baixo, se o compararmos com a complexidade e dinamicidade de uma guerra;

2- A velocidade com que chegaremos em um nível de autonomia suficientemente alto poderá nos surpreender, já que existem incentivos para a maior potência militar do mundo, as potências menores e o setor privado criarem esse tipo de robô.

Mas não precisamos de robótica avançada quando temos política.

Política: manipulando o ambiente

fonte: business insider / Webb Chappel / zeroquatrodois

O grande problema do “ambiente” de guerra é o fato de que um robô precisa fazer duas distinções básicas: entre aliado e inimigo; entre civil e militar. A geopolítica da guerra moderna se livra de um desses pontos, o teor do soldado do futuro se livra do outro.

O fim do soldado

A palavra robô foi utilizada pela primeira vez em 1920, numa peça de teatro do tcheco Karel Čapek, chamada R.U.R. (Rossum’s Universal Robots). A trama central começa em uma fábrica que utiliza um substituto químico do protoplasma para criar pessoas simplificadas. Essas “pessoas” passam então a trabalhar sem parar na fábrica, livrando os humanos do trabalho árduo que tinham.

A lenda diz que, inicialmente, Karel queria utilizar a palavra labori para se referir a elas, só que ela não tinha a sonoridade que ele precisava. Foi uma sugestão de seu irmão, Josef, usar uma outra palavra: roboti. Derivada de robota, que significa “trabalho árduo” ou “trabalho servil” em tcheco. Na peça, os roboti substituíam os humanos e realizavam o trabalho fabril, árduo e quase servil da Tchecoslováquia do começo do século XX. Agora, estamos utilizando robota para o trabalho humano mais árduo (e servil) de todos: a guerra.

Faz sentido. Foi com esse conceito em mente que a própria palavra foi criada. A guerra é uma das criações mais cruéis do homem e traz, além dos óbvios danos físicos, também aflições psicológicas e sociais permanentes para quem participa delas. Substituir os homens por máquinas diminuiria as causalidades do país que possui robôs. Vários deles já são utilizados para explodir minas terrestres ou desarmar bombas em conflitos modernos. A ideia é que eles possam ser utilizados também em outras situações ainda mais perigosas, diminuindo a ameaça à vida humana.

O fim do soldado — ou, mais precisamente, da presença física do soldado em guerra — é uma das maiores tendências militares dos últimos tempos. Com o fim da Guerra do Vietnã e de seus altos custos políticos, criou-se a noção, no Ocidente desenvolvido, de que os próximos conflitos não poderiam ser tão custosos. Em Kosovo, 1999, essa tendência tornou-se clara:

“O principal ensinamento da operação Allied Force é que a segurança de nossas tropas deve ser nossa preocupação primordial” — William Cohen, secretário de defesa do governo Bill Clinton.

Hoje em dia, a segurança das tropas é exercida quando se bombardeia e monitora um veículo iraquiano do conforto de uma base militar nos EUA, via drones. Num futuro não tão distante, essa segurança será exercida ao se lutar uma guerra inteira sem colocar humanos no território inimigo.

Não ter que enviar soldados próprios é o que tornará um robô militar a arma predileta do burocrata moderno. Se você é burocrata de um país que possui esses robôs, justificar à opinião pública que qualquer guerra é necessária é muito mais fácil: os custos humanos do combate diminuem exponencialmente e a chance de vitória aumenta. Os “filhos da nação” não precisam mais se arriscar tanto. E os “filhos da puta” do outro país se tornam presas menos ameaçadores.

Além disso, não ter mais aliados em solo diminui exponencialmente a complexidade da guerra. Não é mais necessário fazer a distinção entre aliados e inimigos, já que todo mundo é do outro lado. Assim que não tivermos mais soldados em guerra — e eliminarmos o problema da distinção entre aliados e inimigos — teremos apenas mais um obstáculo: diferenciar militares e civis.

“Perigo eminente”

Isso deixa de ser um problema se tratarmos a guerra como combate ao terrorismo. O conceito de “terrorismo” é tão abstrato e amplo que se torna difícil delimitar quem é e quem não é terrorista, principalmente por câmeras. Então, para garantir, todos acabam virando terroristas ou combatentes.

Não é um absurdo pensar nisso, muito pelo contrário. Dois exemplos:

  • “Só” é possível aos EUA atacar os próprios cidadãos americanos em outros países, quando há “Uma ameaça iminente de ataque violento”. E o que seria isso? “As condições para que alguém apresente ameaça iminente de ataque violento aos Estados Unidos não requer que os Estados Unidos tenham evidências claras de que um ataque específico aos cidadãos e interesses norte-americanos irá ocorrer em um futuro imediato”. Se a regra é tão ampla para os próprios cidadãos, corram para (debaixo) das montanhas!
  • Os EUA consideramtodo indivíduo masculino em idade de combater presente em uma zona de ataque como um combatente […] a não ser que existam informações explícitas que provem postumamente que ele era inocente”. Assim, as estatísticas de ataques a civis diminuem consideravelmente.

Esses são exemplos de drones. Para robôs autônomos, se o passado puder servir de referência, não há razões para se acreditar que será diferente. A diferença entre civil e combatente pode ser paulatinamente obscurecida, até que seja legalmente aceitável ter qualquer um como alvo.

Não será preciso atingir um nível tecnológico em que os robôs são perfeitos para começar a usá-los. Isso já pode ser feito ao manipular os termos legais e a opinião pública. Ao tirarmos os soldados do solo e mudarmos a percepção de quem um combatente é, estaremos eliminando a principal barreira “ambiental” que um robô tem em guerra, tornando seu trabalho centenas de vezes mais fácil. O problema deixa de ser “escolher em quem atirar” e passa a ser “identificar o alvo e atirar”.

Quem precisa de tecnologia quando se tem política?

Seja por influência política, estratégias militares, consumo, avanço tecnológico e até mesmo pela esperança de confrontos menos dolorosos, chegaremos lá. Um dia usaremos robôs em guerra.

Mas antes desse dia chegar, precisaremos saber responder à pergunta: será mais uma ironia? Será que a robótica vai repetir a pólvora e a física nuclear? Tudo isso no próximo capítulo.

Este texto é o segundo da série “Quando deixamos a guerra para robôs.

Se você gostou, aperta no coração aí embaixo!

O próximo capítulo será liberado nos próximos dias, então é só seguir esse canal no Medium ou nosso facebook para saber mais.

--

--