PartnerSales


Imprimir

Estratégias Digitais

Os exterminadores do futuro

Marcelo Martinez

Publicado em 02/08/2018 às 16:24


Eu, Robô, clássico de Isaac Asimov publicado em 1950 enumera as Três Leis da Robótica que visam manter à paz entre autômatos e seres biológicos: 1) um robô não pode ferir um humano ou permitir que um humano sofra algum mal; 2) os robôs devem obedecer às ordens dos humanos, exceto nos casos em que tais ordens entrem em conflito com a primeira lei; e 3) um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores.



 



Embora o cinema e a literatura gostem de proliferar histórias sobre máquinas se rebelando e dominando os seres humanos, a discussão sobre a aplicabilidade dessas antigas “leis” em tempos atuais tem ganhado espaço com os grandes avanços de Inteligência Artificial (IA), em especial, o desenvolvimento das chamadas Armas Autônomas Letais (do inglês Lethal Autonomous Weapons, ou simplesmente LAWs), dispositivos inteligentes que podem selecionar e atacar alvos humanos por decisão própria.



O fato é que das LAWs derivam várias ameaças. Primeiro, se construídas, elas serão prontamente difundidas, desencadeando uma corrida armamentista. Segundo, sua possibilidade de realizar, em anonimato, fins à distância gera não apenas problemas de imputabilidade, mas também tira freios humanos ético-existenciais. Por fim, a sua eficácia sobre-humana aumenta o potencial destrutivo, mesmo nas mãos de pequenos Estados ou grupos, sendo um instrumento potente para governos autoritários e grupos terroristas ou paramilitares com vontade de levar a cabo uma limpeza étnica ou desestabilizar a ordem mundial.



Em reação às crescentes preocupações com o uso das LAWs, o The Future of Life Institute (FLI), organização não-governamental para apoio de pesquisas e iniciativas sobre o uso e impacto de novas tecnologias em nossas vidas, apresentou em novembro de 2017 na Convenção das Nações Unidas sobre Armas Convencionais, em Genebra, o vídeo Slaughterbots retratando um futuro dominado por LAWs. Para completar o clímax, bem ao estilo Black Mirror, no final do vídeo aparece Stuart Russell, pesquisador de Berkeley, advertindo que a tecnologia perturbadora apresentada já existe e que o prazo para agirmos acabará rapidamente.



Conscientes do risco, líderes e cientistas de todo o mundo se reuniram em julho na cidade de Estocolmo para discutirem as LAWs. Ao final do encontro, mais de 160 empresas e 2.400 pessoas de 90 países assinaram um documento se comprometendo a não participar no desenvolvimento, fabricação, comércio, ou uso de robôs com capacidade de atacar pessoas sem a supervisão humana. Como concluíram os próprios signatários, não se pode delegar a uma máquina a decisão de subtrair uma vida humana, impossibilitando a imputação de culpa e responsabilidade.



No campo corporativo, várias empresas e executivos também estão tomando posições a respeito da proliferação das armas autônomas. A Google, por exemplo, signatária do acordo de Estocolmo, já havia decidido recentemente abandonar por pressão dos próprios funcionários o projeto Maven, uma parceria com o departamento de defesa dos Estados Unidos para desenvolver drones militares com IA. Outro famoso ativista da causa, Elon Musk, fundador da Tesla e da Space X, além de conhecido por diversas doações do próprio bolso para iniciativas sobre o tema, recentemente fundou a OpenAI para a promoção de IA de forma segura para a humanidade. Para ele as LAWs são mais perigosas que as armas nucleares e precisam ser discutidas.



A ideia de criar formas de vida à nossa semelhança sempre nos fascinou. É o estágio máximo da inventividade humana: desenvolver uma habilidade que até então seria exclusiva dos deuses. A pergunta chave para a humanidade hoje é se devemos controlar armas feitas com IA ou se devemos simplesmente bani-las antes que surjam. Talvez dessa decisão dependa o nosso futuro. Stephen Hawking, famoso físico teórico inglês, declarou um pouco antes de sua morte que “o sucesso em criar uma IA seria a maior realização da raça humana, mas infelizmente também poderia ser a última”. Resta-nos trabalhar para que pelo menos essa sua teoria nunca seja comprovada.