Sobre guerras, drones e soldados-robôs

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket

“Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal.”
[1a Lei da Robótica]
Isaac Asimov (escritor e bioquímico norte-americano; 1920 – 1992)

Em 1942, no conto de ficção científica chamado Runaround, Isaac Asimov descreveu as três leis da robótica. Leis que, uma vez codificadas na memória dos robôs, garantiriam que estas máquinas não tomariam nenhum tipo de ação capaz de ferir ou matar um ser humano. Mas a realidade infelizmente nem sempre percorre os mesmos caminhos preconizados nos contos de ficção científica.

Pode parecer estranho num primeiro momento imaginar uma guerra sem soldados, mas diversos países tem aumentado significativamente seus investimentos em tecnologias capazes de promover combates à distância.

De acordo com Peter W. Singer: “A força aérea norte-americana treinou mais operadores de veículos não tripulados do que pilotos para bombardeiros e caças juntos”. [SINGER, 2013]. E, segundo Chris Anderson, editor da Wired, a indústria dos drones poderá chegar a 30 bilhões de dólares em 2015. Uma área em franco crescimento, sem dúvida.

Mas até quando drones voarão somente em áreas de conflito? E quem exatamente pode controlar o alcance de um vírus digital, manipulado por governos e pessoas sem princípios éticos e morais? Neste momento em que tecnologias computacionais ampliam o alcance e autonomia das forças armadas, considero fundamental resgatar os valores fundamentais que tecem e mantém coesa a sociedade humana. Todo desenvolvimento tecnológico possui desdobramentos sociais e ambientais e afetam nosso modo de viver. Desdobramentos muitas vezes imprevisíveis.

O Bom

Esse novo capítulo de nossa história começa muito cedo, bem próximo de nós, mais exatamente, dentro de nossas casas, no quarto de nossos filhos. Já faz muito tempo, empresas de entretenimento digital vêm aperfeiçoando a tal ponto seus videogames de guerra, que podem ser considerados, sem sombra de dúvidas, excelentes programas de treinamento militar. Os mais populares e de maior efeito psicológico são aqueles onde o adolescente joga em primeira pessoa (First Person Shooter – FPS), em cenários virtuais cada vez mais próximos da realidade. Neste caso, a tela representa a visão do usuário, ao mesmo tempo que este segura a arma com suas próprias mãos virtuais. O objetivo é dar a sensação de se estar “dentro” da ação, ampliando o engajamento e envolvimento psicológico do usuário.

A partir de algumas pesquisas simples no YouTube, podemos encontrar cenas reais filmadas por soldados norte americanos em combate no Afeganistão ou no Iraque. Se comparadas com as criações digitais de alguns destes videogames, a semelhança é assustadora. E isto não está restrito aos cenários e peças de artilharia, mas também aos personagens (recomendo uma visita ao website da Activision para uma atualização). A virtualização da guerra começa não somente com o treinamento dos jovens de forma subliminar, mas na busca pela criação de universos artificiais digitais, simulações perfeitas da realidade. O graal da realidade virtual.

“A realidade virtual promete expandir a experiência sensorial do sons e das imagens para além dos limites das mídias de massa, muito além das telas do computador ou da televisão.” [DOWNES, 2005]

Assim, não devemos nos surpreender quando o príncipe Harry da Inglaterra, então prestando serviço militar no Afeganistão, em sua entrevista para um jornalista, creditou suas habilidades como atirador embarcado em helicóptero Apache ao fato de jogar videogames. Disse ele: “É uma satisfação para mim, porque eu sou uma daquelas pessoas que gostam de jogar PlayStation e Xbox, assim usando meus dedos eu gosto de pensar que sou provavelmente muito útil”.

O Mau

Foi na Segunda Guerra Mundial que a ciência computacional começou seu namoro com as forças armadas. Motivados por uma causa nobre, a total aniquilação da Alemanha nazista e seu regime totalitário, cientistas e matemáticos trabalharam para os aliados no desenvolvimento de armas e computadores. Entre estes, Alan Turing, um dos pais da computação, e Gordon Welchman, ambos responsáveis pela invenção da Bombe, máquina que desvendou os códigos criptografados dos alemães, criados pela máquina Enigma. Desde então, de foguetes a submarinos nucleares, de radares a aviões invisíveis, todos os armamentos militares possuem alta tecnologia embarcada.

Mas enquanto no passado, soldados eram considerados elementos essenciais para se ganhar os combates de uma guerra, este cenário começa a mudar radicalmente com o desenvolvimento da robótica e das tecnologias de comunicação digitais. Hoje, soldados e pilotos estão deixando o campo de batalha e migrando para as salas de controle, que guardam certa semelhança com seus quartos de adolescentes. Ali reencontram seus computadores, telas e joysticks.

Mais do que pilotar aviões em videogames e realizar missões virtuais, por que não fazer o mesmo numa área de conflito real no Afeganistão ou no Iraque? A robótica também tem sido usada no Iraque faz alguns anos. O exército norte-americano possui uma unidade especial em atividade no Iraque, um time chamado de EOD (Explosive Ordnance Disposal – Destruição de Material Explosivo), composta por um soldado que controla um pequeno robô a distância. Este robô, do tipo PackBot, pesa um pouco mais de um quilo, possui várias câmaras e sensores, um braço ágil com quatro articulações e se move por meio de esteiras. Segundo o exército norte-americano, estas unidades já salvaram milhares de vidas no Iraque. Se hoje as unidades militares robóticas por terra e ar já estão salvando vidas, então por que vamos nos opor ao seu uso? Qual é o problema?

O Feio

Segundo a lei de Moore, o número de transistores em circuitos integrados dobra aproximadamente a cada dois anos, assim podemos esperar mais sofisticação e desenvolvimento tecnológico pela frente. No caso da robótica, as pesquisas apontam para “autonomia” ou a capacidade dos robôs de tomarem suas próprias decisões.

Segundo Hans Moravec: “Por volta de 2050 os cérebros dos robôs baseados em computadores vão executar 100 trilhões de instruções por segundo e começar a rivalizar com a inteligência humana”. [MORAVEC, 2009]. Imaginar robôs que possam pensar e agir como nós não é ficção científica, mas área em franco desenvolvimento, mais conhecida como Inteligência Artificial, ou IA. Então, no futuro próximo, robôs inteligentes e autônomos estarão em operação, combatendo ao lado de soldados ou outros robôs, matando e sendo mortos (ou “desativados”.)

A lógica da guerra justa divide os princípios do raciocínio sobre a moralidade da guerra em duas categorias: o jus ad bellum, ou, o critério para iniciar a guerra, e o jus in bello, este relacionado aos requisitos para conduzir uma guerra.

Na condução da guerra, existem dois princípios humanitários fundamentais: o princípio da discriminação e da proporcionalidade. O princípio da discriminação requer que combatentes não ataquem diretamente não combatentes e que tomem medidas razoáveis para evitar casualidades entre não combatentes. Assim, como garantir que este princípio seja respeitado por robôs, em especial nos conflitos de hoje, muitos dos quais travados em ambientes urbanos, onde civis e soldados sem uniforme coexistem?

Já o princípio da proporcionalidade significa determinar os limites máximos do uso da força que possam ser empregados racionalmente, tendo em vista os objetivos de uma guerra justa. Ao considerarmos um conflito onde de um lado temos seres humanos, os quais podem se ferir ou morrer, e do outro máquinas, que são produzidas em série e podem ser restauradas após qualquer avariação, retornando prontamente ao campo de batalha. Estas guerras serão certamente assimétricas.

Conclusão

Vivemos um período de nossa história onde as decisões para o desenvolvimento tecnológico respeitam leis de mercado, isto é, interesses econômicos. Existem de um lado clientes, representados pelas forças armadas, e de outro lado fornecedores, representados pela indústria bélica. Não há evidentemente um pensamento ético e moral norteando o desenvolvimento tecnológico das armas de guerra. Apesar dos esforços de Max Weber, Hans Jonas e Norbert Wiener, a ética computacional continua sendo nada mais do que uma bela disciplina teórica ensinada nas universidades.

Talvez nós tenhamos que ouvir justamente de um soldado-robô do futuro, com seu cérebro de 100 trilhões de instruções por segundo, que o caminho para superar nossas diferenças políticas ou religiosas é o diálogo, a negociação pacífica e não a guerra.

Referências

Activision.

Asimo.

ASIMOV, I. I, Robot. New York: Spectra, 2004.

Computer and Information Ethics. Stanford Encyclopedia of Philosophy. First published Tue Aug 14, 2001; substantive revision Thu Oct 23, 2008.

CURRIER, C. Everything We Know So Far About Drone Strikes. ProPublica – Journalism in the Public Interest. Feb. 5, 2013.

DOWNES, D. Interactive Realism: the poetics of cyberspace. Canada: McGill-Queen’s University Press, 2005.

HALLS, J. S. Beyond AI: creating the conscience of the machine. New York: Prometheus Books, 2007.

JONAS, H., Technology and Responsibility: Reflections on the New Tasks of Ethics. Social Research, 40:1, Spring, p.31. 1973.

KELLY, K. What technology wants: Technology is a living force that can expand our individual potential – if we listen to what it wants. New York: Penguin Group, 2010.

KREPS, S.E. and Kaag, J. The Use of Unmanned Aerial Vehicles in Contemporary Conflict: A Legal and Ethical Analysis. March 15, 2012.

KURZWEIL, R. The Singularity is Near. New York: Viking Books, 2005.

LANIER, J. You are not a Gadget – A Manifesto. New York: Penguin Group, 2010.

LEMOS, A. Cibercultura: Tecnologia e Vida Social na Cultura Contemporânea. Porto Alegre: Editora Sulina, 2010.

LÉVY, P. O que é virtual? São Paulo: Editora 34, 1996.

MORAVEC, H. Rise of the Robots–The Future of Artificial Intelligence. Scientific America. March, 23, 2009.

OBENHAUS, S. R. A Estrada para Basra e a Ética da Perseguição. Military Review. 2002.

PARENTE, A. (Org.). Imagem máquina: a era das tecnologias do virtual. Rio de Janeiro: Editora 34, 1993.

RAYNER, A. Are video games just propaganda and training tools for the military? The Guardian, Sunday 18 March 2012.

SINGER, P. W. The Predator Comes Home: A Primer on Domestic Drones, their Huge Business Opportunities, and their Deep Political, Moral, and Legal Challenges. Brookings. March 8, 2013.

SMITH, G. Pentagon Cyber Force Turns To Hackers To Meet Growing Demand. Huff Post Tech, January, 2013.

Notas

Drones. De forma genérica são chamados de UAVs (Unmanned Aerial Vehicles – Veículos Aéreos Não Tripulados) ou RPVs (Remotely Piloted Vehicles – Veículos Pilotados Remotamente) ou ainda VANTS (Veículos Aéreos Não Tripulados – na sigla em português).

Prince Harry returns from Afghanistan as he reveals he killed Taliban insurgents

As Três Leis da Robótica, elaboradas pelo escritor Isaac Asimov:

  • 1ª Lei: Um robô não pode ferir um ser humano ou, por omissão, permitir que um ser humano sofra algum mal.
  • 2ª Lei: Um robô deve obedecer as ordens que lhe sejam dadas por seres humanos, exceto nos casos em que tais ordens entrem em conflito com a Primeira Lei.
  • 3ª Lei: Um robô deve proteger sua própria existência desde que tal proteção não entre em conflito com a Primeira e/ou a Segunda Lei.

[Webinsider]

…………………………

Leia também:

…………………………

Acompanhe o Webinsider no Twitter e no Facebook.

Ricardo Murer é graduado em Ciências da Computação (USP) e mestre em Comunicação (USP). Especialista em estratégia digital e novas tecnologias. Mantém o Twitter @rdmurer.

Share on facebook
Share on twitter
Share on linkedin
Share on whatsapp
Share on telegram
Share on pocket

Mais lidas

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *