X-47B_over_coastline

BILL KELLER – THE NEW YORK TIMES – O Estado de S.Paulo

vinheta-clipping-forte1Se vocês acham preocupante a utilização de drones armados, imaginem então se a decisão de matar um inimigo suspeito não for tomada por um operador em uma longínqua sala de controle, mas pela própria máquina. Imaginem um avião-robô que estuda a paisagem em terra, reconhece uma atividade hostil, calcula que existe um risco mínimo de danos, e, então, sem a participação de um ser humano, aciona o gatilho.

Bem-vindos à guerra do futuro. Enquanto os americanos debatem sobre o poder do presidente de ordenar o assassinato por drones, uma poderosa dinâmica – científica, militar e comercial – nos impele para o dia em que cederemos essa mesma autoridade destrutiva ao software.

No próximo mês, várias organizações de defesa dos direitos humanos e para o controle de armamentos se reunirão em Londres para lançar uma campanha de proibição dos robôs assassinos antes que eles saiam das pranchetas dos engenheiros. Entre os que propõem a proibição estão os que conseguiram conquistar um amplo consenso no mundo civilizado contra o uso indiscriminado das minas terrestres que aleijam as pessoas. Desta vez, eles abordarão um problema mais ardiloso, o do controle de armamentos.

Os argumentos contrários ao aperfeiçoamento de armas totalmente autônomas, como elas são chamadas, são tanto morais (“elas são nefastas”)e técnicos (“jamais serão tão inteligentes”) quanto viscerais (“assustadoras”).

“É uma coisa que as pessoas consideram instintivamente errada”, afirma Stephen Goose, diretor da divisão de armas da organização Human Rights Watch, que assumiu a liderança do desafio à desumanização da guerra. “O repúdio é realmente violento.”

Alguns especialistas em robótica duvidam que, algum dia, um computador consiga distinguir, sem possibilidade de erro, um inimigo de uma pessoa inocente, e muito menos se uma carga de explosivos será a resposta acertada ou proporcional. E se o alvo potencial já estiver ferido, ou tentando se render? Além disso, mesmo que a inteligência artificial atinja ou ultrapasse um grau de competência humana, ressaltam os críticos, jamais será capaz de provocar simpatia.

Noel Sharkey, um cientista da computação da Universidade Sheffield e presidente do Comitê Internacional para o Controle de Armas Robóticas, conta que uma patrulha americana no Iraque se aproximou de um grupo de rebeldes; ao apontarem seus fuzis, os soldados se deram conta de que se tratava de um funeral e os homens carregavam um caixão.

Matar pessoas que acabavam de ser atingidas pela tragédia provocaria o ódio dos locais contra os Estados Unidos, e os soldados baixaram suas armas. Será que um robô seria capaz de fazer esse tipo de julgamento? E há a questão da responsabilidade. Se um robô bombardeia uma escola, quem é o culpado: o soldado que mandou a máquina para o campo? Seu comandante? O fabricante? O inventor? Nas instâncias superiores das forças armadas existem dúvidas quanto ao uso de armas dotadas de autonomia. Em novembro do ano passado, o Departamento da Defesa emitiu uma espécie de moratória de dez anos referente ao desenvolvimento desse tipo de armamento enquanto discute as implicações éticas e as possíveis salvaguardas. Trata-se de uma orientação informal, que provavelmente seria posta de lado em um minuto se soubéssemos que a China vendeu armas autônomas ao Irã, mas de certo modo é bastante tranquilizador que os militares não estejam optando por esse recurso sem antes refletir profundamente sobre a questão.

Comparada às heroicas iniciativas para banir as minas terrestres e conter a proliferação nuclear, a campanha contra os robôs armados munidos de licença para matar enfrentam obstáculos totalmente novos.

Por exemplo, não está absolutamente claro onde se deverá traçar uma linha divisória. Embora o cenário de soldados do tipo ciborgue do Exterminador do Futuro esteja ainda a décadas de distância, se é que tudo isso não passa de uma fantasia, os exércitos do mundo inteiro já estão prevendo a adoção de máquinas com uma capacidade de destruição cujo poderio em combate vem gradativamente aumentando.

As forças armadas já deixam que as máquinas tomem decisões cruciais quando a situação evolui rápido demais para debater a intervenção humana. Os EUA dispõem há muito tempo de navios de guerra da classe Aegis que utilizam defesas antimísseis automatizadas capazes de identificar, perseguir e derrubar em segundos ameaças próximas. E o papel dos robôs está se expandindo até o ponto em que a decisão humana final de matar será em grande parte predeterminada pela inteligência produzida pela máquina.

“O problema, por acaso, é o dedo que aperta o gatilho?”, pergunta Peter W. Singer, especialista em guerra do futuro da Brookings Institution. “Ou será aquela parte que me diz que ‘esse cara é mau’?” Israel é o primeiro país a construir e a utilizar (e vender, para China, Índia, Coreia do Sul e outros) uma arma que pode realizar um ataque preventivo sem depender de um ser humano. O drone que paira no ar chamado Harpia é programado para reconhecer e lançar uma bomba contra qualquer sinal de radar que não conste em seu banco de dados como “amigo”.

Até o momento, não foram relatados erros, mas suponhamos que um adversário instale seu radar antiaéreo no teto de um hospital? Sharkey destaca que a Harpia é uma arma que já cruzou um limiar preocupante e não é possível fazê-la recuar. Há outros sistemas semelhantes, como o X-478 da Marinha dos EUA, um avião de combate não tripulado, semi-independente, que se encontra em fase de teste. Por enquanto, não está armado, mas foi construído com dois compartimentos para bombas. Nós já estamos no futuro.

Para os comandantes militares, o apelo das armas autônomas é quase irresistível, e não se parece com nenhum outro avanço tecnológico anterior. Os robôs são mais baratos que os sistemas pilotados, ou mesmo que os drones – que exigem dezenas de técnicos fornecendo apoio ao piloto remoto. Esses sistemas não colocam em risco a vida das tropas nem as expõem a ferimentos ou a traumas mentais. Os soldados não ficam cansados nem apavorados. Uma arma que não depende de comandos de uma base pode continuar combatendo depois que o inimigo provoca interferência nas comunicações, o que é cada vez mais provável na era dos pulsos eletromagnéticos e dos ataques cibernéticos.

E nenhum estrategista militar quer ceder uma vantagem a um adversário em potencial. Atualmente, mais de 70 países dispõem de drones, e alguns trabalham intensamente nos aspectos tecnológicos para soltar esses aviões de suas amarras virtuais.

“Mesmo que haja uma proibição, como poderá ser posta em prática?”, pergunta Ronald Arkin, cientista da computação e diretor do Laboratório de Robôs da Georgia Tech. “Isso não passa de software.” Os exércitos – e os mercadores de guerra – não são os únicos que investem nessa tecnologia. A robótica é uma fronteira científica hiperativa que vai desde os laboratórios mais sofisticados de inteligência artificial até os programas de ciências no ensino médio.

No mundo todo, as competições organizadas de robótica atraem 250 mil jovens estudantes. (Minha filha de 10 anos é uma competidora.) E a ciência da construção de robôs matadores não está tão facilmente separada da ciência que produz carros que não precisam de motorista ou computadores que se distinguem no programa de TV de perguntas e respostas Jeopardy.

Arkin afirma que a automação também pode tornar a guerra mais humana. Os robôs talvez não sintam compaixão, mas também não têm as emoções que levam a erros terríveis, atrocidades e genocídios: desejo de vingança, pânico, animosidade tribal.

“Meus amigos que serviram no Vietnã disseram que, quando se encontravam em uma zona de fogo livre, atiravam em tudo o que se movia”, ele afirmou. “Acho que podemos projetar sistemas autônomos, inteligentes, letais, capazes de fazer melhor do que isso.” Arkin afirma que as armas autônomas precisam de limites, mas não mediante o corte abrupto da pesquisa. Ele defende uma moratória do uso desses recursos e uma discussão ampla sobre as maneiras de ter seres humanos como responsáveis.

Singer, da Brookings Institution, também se mostra cauteloso a respeito da proibição de armas: “Apoio a finalidade, chamar a atenção para o caminho perigoso que estamos percorrendo. Mas nós temos uma história que não me deixa absolutamente otimista”.

Assim como Singer, não tenho grandes esperanças quanto à viabilidade da proibição de robôs que provocam a morte de pessoas, mas gostaria que me provassem que estou errado. Se a guerra é feita para parecer impessoal e segura, quase tão moralmente significativa quanto um videogame, temo que as armas autônomas acabem empobrecendo nossa humanidade. Tão perturbadora quanto a ideia de os robôs se tornarem mais parecidos com os seres humanos é a perspectiva de que, ao longo do processo, nos tornemos mais parecidos com os robôs. / TRADUÇÃO DE ANNA CAPOVILLA

* É COLUNISTA

FONTE: O Estado de S. Paulo

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

8 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
Observador
Observador
11 anos atrás

Talvez, um dia, precisemos fazer uma pergunta a moda de Philip K. Dick:

Do Drones Dream of Electric Sheep?

Deixando as questões filosóficas de lado, como o texto já vislumbra, trata-se de uma tecnologia mais acessível do que a nuclear, e que se tornará mais comum e mais barata a cada dia que passa.

Assim, vai chegar o dia em que qualquer um, na garagem de sua casa, poderá comprar um kit de automatização na internet, modificar e programar a seu bel prazer, da mesma forma que se faz com qualquer computador hoje. Para o bem e para o mal.

O que me assusta nesta história toda é que se um robô não é um soldado ideal, pode se tornar o terrorista ideal:

Sem medo, incansável, impiedoso, sem dilemas morais, absolutamente focado na sua missão sagrada e… …suicida.

edurval
edurval
11 anos atrás

Acho que o problema é serio e muito plausivel.

Sou um profissional de Informatica e acompanho a evolução da computação por necessidade profissional.

Baseando-se na Lei de Moore estudiosos calculam que a Singularidade tecnologica devera ocorrer nos proximos 50 anos (ou menos).

Singularidade – Poder computacional ira se igualar e ultrapassar o poder computacional do cerebro humano ou seja os computadores se tornaram conscientes.

Lei de Moore – Essa lei demosntra que os computadores dobram o seu potencial de processamento a cada 18 meses, essa lei é empirica e não falhou deste a criação do primeiro processador pela Intel.

Torço para que sejamos inteligentes o suficiente para não colocar uma arma na mão de uma maquina conciente.

Vader
11 anos atrás

Uma correção: é “X47-B” e não “X478”.

No mais, o fantasma da Skynet é real.

Bosco Jr
Bosco Jr
11 anos atrás

Há algo mais desprezível, irracional e desumano que o ser humano?
Não sei por que tememos os computadores no comando de sistemas avançados de armas cibernéticas.
Com certeza só teremos a lucrar e muitos serão poupados.

Observador
Observador
11 anos atrás

Senhores,

Na verdade, o temor do ser humano ao se deparar com uma inteligência diferente da nossa, seja esta de uma máquina ou mesmo alienígena, é que esta inteligência seja um reflexo do que há de pior em nós.

Por outro lado, por que um intelecto superior ao nosso tem que ser necessariamente mau ou amoral? Não será preconceituosa a idéia de que respeito, afeição, amizade, gratidão, reconhecimento, coragem, piedade e o perdão são atributos exclusivamente humanos?

As mentes mais brilhantes que a humanidade produziu, no geral foram (e ainda são) uma referência na ética e moral. Se fosse diferente, garanto que já estaríamos mortos, todos nós, sepultados sob a pilha de escombros de nossa civilização. E já há muito tempo.

paulsnows
paulsnows
11 anos atrás

Há um conto de F.C. muito interessante chamado “O Jogo do Exterminador”.
Nele crianças são treinadas desde pequenas em jogos. Vão passando de fases e avançando na complexidade e nas dimensões. Os mais promissores são transferidos para uma Academia, onde seguem “jogando” em simuladores sofisticados, batalhas atrás de batalhas.
No final da história se descobre que as crianças, há muito tempo eram os pilotos, comandantes de esquadrilha, de grupos e em-chefe de uma guerra real.
E a guerra acabou, com a vitória e o extermínio de toda a raça adversária. E tudo foi comandado por crianças totalmente inocentes que apenas jogavam. E controlavam drones sem saber.

Requena
Requena
11 anos atrás

edurval

Rapaz, 50 anos pra atingir a “Singularidade”?
Ainda bem que não vou estar vivo pra ver a M. que vai dar… 😀

Arnaldo
Arnaldo
9 anos atrás

Qual a diferença entre uma máquina (seja qual for o nome dado a ela) matando e um homem matando ? O estrago para a vítima é o mesmo, levar um tiro de um homem e levar um tiro de uma máquina é a mesma coisa. Nada consegue ser terrivelmente cruel como o homem. A história da humanidade prova que o homem é o pior e mais cruel assassino que existe, um “soldado” em fúria pode ser muito mais terrível e fazer atrocidades com sua vítima que qualquer máquina. A questão não é essa de usar ou não usar artefato para matar, isso vem sendo feito a partir do momento que um homem usou uma pedra ou um pau para matar outro, faca, espada, lança, flecha até chegar nas armas de fogo, granadas, minas, gás, bombas, avião, armas químicas, bacteriológicas, tanques tudo foi fruto da tecnologia do homem em busca de sobrepor o adversário. A questão é o HOMEM deixar de ser belicoso, a questão é o homem e seu instinto de dominação, de poder. Não adianta fazer convenções para NÃO usar esse ou aquele artefato pois todos matam, a questão é NÃO FAZER GUERRA, pois enquanto houver guerra haverá quem se utilize do que tiver ao seu alcance para destruir, matar, estraçalhar seu adversário. Drones aéreos, terrestres ou submarinos são só mais um artefato que o homem usa para atacar ou se defender. Se esse artefato se move ou se orienta obedecendo comandos humanos ou instruções de softwares não muda nada o estrago que vai ser feito, pois vitimas inocentes desde sempre houve, há e haverá.