‘Uma ameaça à humanidade’, ONGs e ativistas pedem a proibição do uso de ‘robôs assassinos’

80
SPUR

ONGs e ativistas pedem a proibição do uso de armas autônomas que não são mais estritamente controladas por mãos humanas, chamando os chamados “robôs assassinos” de uma “ameaça à humanidade”.

A medida ocorre durante a Sexta Conferência de Exame da Convenção sobre Armas Convencionais (CCW – Sixth Review Conference of the Convention on Conventional Weapons) acontece em Genebra nesta semana, presidida pelo embaixador Yann Hwang da França.

Espera-se que os Estados membros decidam se negociarão um tratado que proíba o uso de armas que não sejam controladas de forma decisiva por mãos humanas.

A Human Rights Watch (HRW) pediu um novo tratado para esclarecer e fortalecer as leis existentes relacionadas a essas novas tecnologias, acrescentando que “o surgimento de sistemas de armas autônomos e a perspectiva de perder o controle humano significativo sobre o uso da força são ameaças graves que exigem Ação urgente”.

Achamos que isso ultrapassa uma linha moral. Temos questões morais e éticas sobre isso, temos questões jurídicas, temos questões de desestabilização da segurança internacional. Existem tantas razões pelas quais um robô assassino nunca deveria existir.
Steve Goose- Diretor, Divisão de Armas da Human Rights Watch

“Estes são sistemas de armas que operariam sem controle humano significativo. Ou seja, em vez de um humano, você teria o próprio sistema de armas que selecionaria o alvo e decidiria quando puxar o gatilho. Você não teria humanos executando essas funções, em vez disso, a inteligência artificial substituiria o soldado no campo de batalha “, explicou Steve Goose, diretor da Divisão de Armas da Human Rights Watch.

“Achamos que isso atravessa uma linha moral. Temos questões morais e éticas sobre isso, temos questões jurídicas, temos questões de desestabilização da segurança internacional. Existem tantas razões pelas quais um robô assassino nunca deveria existir e qualquer um desses aspectos merece uma proibição, uma proibição preventiva. Estas são armas que ainda estão em desenvolvimento. Temos a chance de detê-los “, disse Goose ao Euronews.

Tanque robótico Uran 9

Apesar da maioria das nações ser a favor de um novo tratado sobre o assunto, fabricantes de armas como os Estados Unidos, Rússia, China, Israel e Índia são fortemente contra a proibição.

“Não por acaso, esses são os mesmos países que estão mais avançados no desenvolvimento de robôs assassinos”, revelou Goose.

Desde 2018, o Secretário-Geral das Nações Unidas, António Guterres, tem repetidamente instado os Estados a proibir os sistemas de armas que podem, por si próprios, alvejar e atacar seres humanos, chamando-os de “moralmente repugnantes e politicamente inaceitáveis”.

No ano passado, a HRW divulgou um relatório mostrando como 97 países responderam a esse desafio e elaboraram seus pontos de vista sobre os sistemas de armas autônomas letais desde que o assunto foi discutido pela primeira vez no Conselho de Direitos Humanos em 2013.

O relatório pesquisa onde esses países estão em apelos para banir armas totalmente autônomas e reter controle humano significativo sobre o uso da força.

No entanto, de acordo com Steve Goose, o CCW fez “muito pouco progresso” desde que começou a discutir essa preocupação em 2014.

“Em grande parte por causa desses resistentes que não querem ver um movimento em direção a um instrumento legalmente vinculativo. Mas o CCW não é o único caminho para buscar regulamentações legais sobre essas armas futuras. Com as minas terrestres, com as munições cluster, vimos as nações saírem de as Nações Unidas e reúnem um poderoso grupo de países para proibir totalmente as armas. O mesmo passo poderia ser dado para os robôs assassinos ”, prosseguiu.

De acordo com um relatório recente da ONU, um ataque aéreo de drone na Líbia na primavera de 2020 – feito contra as forças do Exército Nacional da Líbia por drones STM Kargu-2 de fabricação turca em nome do Governo de Acordo Nacional da Líbia – foi conduzido por sistemas de armas sem humanos “no circuito”.

Vídeo crítico sobre o futuro com robôs assassinos

FONTE: Euronews

0 0 votos
Classificação do artigo
Inscrever-se
Notificar de
guest

80 Comentários
mais antigos
mais recentes Mais votado
Feedbacks embutidos
Ver todos os comentários
João Adaime
João Adaime
3 anos atrás

Infelizmente este será o futuro da guerra. Não só robôs, mas também drones e barcos, sem falar nos mísseis e torpedos.
Os poderosos vão evitar ao máximo expor seus soldados.
Quem é contra isto? Quem ainda não tem em seu arsenal.

cerberosph
cerberosph
Responder para  João Adaime
3 anos atrás

Já penso ao contrário, isso vai aumentar a quantidade de conflitos com mais mortes nos países mais pobres. Devia era ter a lei de quem dar a ordem ter de estar à frente do conflito. Presidente ordena a invasão de um pais tem de ser o primeiro a desembarcar, os generais na frente do exército. Aí sim quero ver …

Otavio
Otavio
Responder para  cerberosph
3 anos atrás

Você deve ter 15 anos de idade para escrever uma coisa dessa.

Carlos Campos
Carlos Campos
Responder para  cerberosph
3 anos atrás

é pelo visto vc tá lendo sobre assuntos militares a pouco tempo, ou ainda é ingênuo demais para entender que as guerras tem de tudo menos moralidade, todas as potências atuais e as que foram no passado, cometeram atrocidades,

Eduardo
Eduardo
Responder para  cerberosph
3 anos atrás

Amadurece infantil esquerdopata de 12 anos.

rafa
rafa
Responder para  cerberosph
3 anos atrás

todo mundo criticanto seu comentario e falando sobre ser de esquerda, mas concordo com vc, guerras sao feitas pelos mesmos lideres que vao tomar chá junto meses apos ela acontecer, existem bastantes idiotas para seguir ordem, mas o real perigo desses “robos” é que serao usados contra civis, a economia mundial anda em frangalhos , e a escacez de recurso e instatisfaçao popular estao em altas, robos n precisa de salario e não faz perguntas.

sergio
sergio
Responder para  João Adaime
3 anos atrás

Eles falam em Robôs assassinos, mais qual a diferença entre um Humano puxar o gatilho de uma maquina?
o piloto de um caça que lança uma bomba a 150 km de distancia, não ve o alvo, não sabe as condiçoes do mesmo no momento do ataque, esta sujeito a danos colaterais, etc.
Um Drone dotado de uma IA apurada, que lança uma bomba a 150 km de distancia, não vê o alvo, não sabe as condições do mesmo no momento do ataque, esta sujeito a danos colaterais, etc.
qual a diferença entre eles ?
Tudo bem Humanos matar Humanos, mais maquinas matar Humanos não pode ?
Sera que e por que o piloto de caça pode ter remoço e a IA do Drone não ?
mais justamente por que a IA não tem Humanidade, isso já não seria um ponto a favor ?
Por exemplo o robô e mais preciso, menos efeitos colaterais no lado inimigo, e menos mortes de suas tropas em missões arriscadas.
Medo da skynet ?
Mesmo com o Desenvolvimento atual algo sequer parecido com o conceito da sky net esta muito longe do que temos hoje.

Hcosta
Hcosta
Responder para  sergio
3 anos atrás

Um drone é pilotado por humanos. Isto é diferente, é a IA que define quem são os alvos, já não é um drone.
Um robot não tem a consciência operacional, ou seja, não compreende a situação. Será sempre baseado em informação que coleta e isso pode não ser suficiente.
E não é nem mais nem menos letal que operadores humanos, isto depende da arma, não do meio de lançamento. Um hellfire lançado de um Apache tem a mesma precisão do que um de um drone

Francisco
Francisco
Responder para  sergio
3 anos atrás

Amigo é a tal da HIPOCRISIA por parte dos HIPÓCRITAS, desculpe a redundância.

Leonardo
Leonardo
Responder para  sergio
3 anos atrás

Um humano pode ser responsabilizado por erros , uma IA já não pode… Vai prender o robô?

Slow
Slow
Responder para  Leonardo
3 anos atrás

Tanto faz, o estrago ja vai ter acontecido mesmo .

Luciano
Luciano
Responder para  Slow
3 anos atrás

Podemos evitar esse estrago ou ao menos diminuir, não?

Slow
Slow
Responder para  Luciano
3 anos atrás

“ vai prender um robô “

O humano vai preso mas pra isso acontecer o estrago ja foi feito entendeu oq quis dizer ?

sergio
sergio
Responder para  Slow
3 anos atrás

Uma IA, e pura, livre de paixões, preconceitos, ideologias, raiva, ódio, amor, a menos chances dela cometer um erro, do que um Humano, vou citar aqui o molde mestre, a IA que comanda os sentinelas nos x-men.
em dado momento, as sentinelas se voltaram contra os mutantes e os humanos, seu criado então indaga do por que ele esta fazendo, isso se a finalidade da mesa era proteger os Humanos dos mutantes, então molde mestre responde essa indagação era absurda pois mutantes são humanos, Humanos precisam ser protegidos deles mesmos.
perceba a sutileza da questão, ela esta cometendo um erro ao se virar contra os humanos ?
ou esta seguindo a risca sua programação?
quem errou então ?
talvez o programador.
quem seria responsabilizado pela ” rebelião do molde mestre ” ele ? o programador ?
quem sabe.

sergio
sergio
Responder para  Leonardo
3 anos atrás

A IA e menos propensa a “erros” do que Humanos.

EduardoSP
EduardoSP
Responder para  sergio
3 anos atrás

IA não erra. Ela faz o que foi programada para fazer. A questão é se o programa abarca todo o contexto em que se dá a operação.
Lembrando que a guerra é, talvez, a atividade humana com maior nível de incerteza que existe.

Agressor's
Agressor's
Responder para  sergio
3 anos atrás

Mensurem sobre o que já fazem com os drones de ataque “predators”, e agora imaginem como vai ser quando estiverem usando essas coisas…..

Pessoas perversas sempre evoluem, sempre se aprimoram, e estão sempre criando, na arte de praticar o Mal em nome do Bem…!!!…

Otavio
Otavio
Responder para  João Adaime
3 anos atrás

Infelizmente? É muito mais lógico colocar um robô na zona de guerra.

João Adaime
João Adaime
Responder para  Otavio
3 anos atrás

Caro Otávio
Infelizmente porque não será robô contra robô, mas robôs contra humanos que não dispõem desta tecnologia.
Abraço

Marcelo
Marcelo
3 anos atrás

Quem vai proibir isso somente países fracos e pequenos. Duvido que as nações poderosas e avançadas em IA em máquinas Irá entrar nesse jogo. Espero que o Bolso não entre nesse tratado.

Mensageiro
Mensageiro
Responder para  Marcelo
3 anos atrás

Cara não deposite esperança em politicos tradicionais, principalmente esse, desde quando bolso tem alguma ideia sensata pro país, só quer $$ e manter o foro privilegiado.

Alessandro
Alessandro
Responder para  Marcelo
3 anos atrás

Marcelo

Mas o papel das ONGs é exatamente esse, elas são criadas com a única e exclusiva finalidade de FINGIR que estão preocupadas com a humanidade, enquanto LUCRAM com os “problemas” criados pelos países desenvolvidos TRAVANDO o progresso dos subdesenvolvidos em fazer igual.

Pode ter certeza que já há estudos e dados “científicos” encomendados por essas ONGs, para chantagear e reprimir países como o Brasil e outros para não seguir o mesmo caminho dos EUA, Rússia, Europa, China e Índia.

Um governante só assina esse tipo de coisa se for mal intencionado, lembrando que aqui no Brasil tudo antes passa pelo crivo dos nossos congressistas que “sofrem” um forte LOBBY internacional pra aceitar tudo o que eles querem, o TNP é um exemplo clássico do que estou falando.

Carlos
Carlos
3 anos atrás

Prezados,

Alguém sabe como funciona ,no caso de operação, a identificação (e a certeza) do alvo?

Rafael Gustavo de Oliveira
Rafael Gustavo de Oliveira
Responder para  Carlos
3 anos atrás

Prezado…estamos em uma era onde a busca e a identificação é automatizada atraves de algoritmos de grande complexidade que trabalham de forma sugestiva ao operador baseada em probabilidades (reconhecimento de padrões), ou seja, o processo de decisão de engajamento caberá a um comando humano…..o resto é hollywood puro

Felipe Augusto Batista
Felipe Augusto Batista
Responder para  Rafael Gustavo de Oliveira
3 anos atrás

” o processo de decisão de engajamento caberá a um comando humano…..o resto é hollywood puro”

Por enquanto. Vários países por exemplo, estão desenvolvendo aeronaves opcionalmente tripuladas, uma ideia seria enviar 3 caças mas apenas um com piloto dando ordens pros outros dois drones, agora imagine uma missão de bombardeio e depois de penetrarem o espaço aéreo inimigo o caça pilotado é abatido, as opções seriam, os robôs passarem para o controle de um segundo caça pilotado se este estivesse próximo, ou abortar a missão e retornar à base, acredito que vão preferir que os drones continuem a missão e terminem por si mesmos, mesmo sem uma mão humana por tras pra dar a ordem final.

Bosco
Bosco
Responder para  Rafael Gustavo de Oliveira
3 anos atrás

Eu temo que já estejamos vivendo a era em que as máquinas tomam decisões.
Só como exemplo, os primeiros mísseis guiados por TV na e logo após a SGM eram dirigidos por controle remoto até o alvo.
Na década de 60 já desenvolveram mísseis guiados por TV que bastava o operador trancar manualmente na imagem de alto contraste que ele queria acerta que o míssil mantinha a imagem “centralizada” e a atingia após ser lançado.
Depois aperfeiçoaram o sistema lançando o míssil primeiro e por meio de um data-link via RF o alvo era escolhido e aí o míssil fazia o trabalho sozinho.
Na década de 80 já se podia inserir os dados referentes à forma do alvo fixo no processador e o míssil se aproximava da área do alvo e começava a procurá-lo até achar um que correspondia aos dados previamente inseridos e se dirigia a ele.
No mar , contra navios, o míssil era lançado com a provável posição do alvo e usa seu radar para atingir o que ele julga ser o alvo de acordo com alguns dados inseridos e com os algoritmos do processador. É um sistema relativamente simples , mas fácil de ser “seduzido”.
O problema sempre foi os alvos móveis (estacionários ou em movimento) em terra.
Esses tiveram a mesma evolução dos sistemas que citei. Se fizermos um retrospecto usando mísseis ar-sup como referência , pode-se começar com o Bullpup, guiado manualmente por CLOS.
Depois veio o Maverick A, B e D, que tinham que trancar no alvo marcado pelo piloto antes de serem lançados, mas depois seguiam sozinhos até o impacto.
Hoje, se adota sistemas de seeker multimodo , combinando 2 ou 3 sensores para poder identificar e validar um alvo “de verdade”.
Teoricamente pode-se lançar uma onda de dezenas de bombas StormBreakers numa região específica contra por exemplo um site de S400 que elas irão atingir apenas os alvos reais (poupando um ônibus escolar ou uma ambulância) utilizando um sistema de imagem combinada IIR e MMWR (e ainda tem o laser semiativo). Elas conseguem literalmente tomar decisões sem interferência humana.
*Os novos mísseis antinavios com capacidade ATR e sensores com formação de imagem fazem o mesmo.

Bosco
Bosco
Responder para  Bosco
3 anos atrás

E a tecnologia continua evoluindo. O que se planeja para breve é que as diversas armas “conversem” entre si e tomem suas próprias decisões.
Ou seja, se uma dúzia de F-35 lançarem 96 GBU-53 numa determinada área com , digamos, uns 50 alvos válidos, corre-se o risco de mais de uma bomba (ou mesmo, várias) se dirigir para um mesmo alvo, o que seria contraproducente. Com elas podendo se comunicar entre si cada uma irá se dirigir para um alvo e se ele for destruído uma outra que se dirigia a ele pode buscar outro alvo.
Um programa da USAF que visa esse tipo de tecnologia chama-se “Golden Horde”.
Algo desse tipo já é empregado no míssil antinavio LRASM e no Tomahawk Block V, que ataca em enxame, mas o objetivo é integrar uma série de mísseis diferentes como por exemplo o JASSM, a bomba SDB, a StormBreaker, o míssil MALD, etc.

Agressor's
Agressor's
Responder para  Bosco
3 anos atrás

Os mísseis russos já fazem isso a muito tempo…

Emmanuel
Emmanuel
Responder para  Agressor's
3 anos atrás

Claro. E voltam para casa quando não encontram o alvo.

Bosco
Bosco
Responder para  Agressor's
3 anos atrás

Eu sei que há a informação que o SSN19 seria capaz de ataque cooperativo tipo enxame, mas eu não acredito , caso tais informações tenham procedência, que seja algo muito evoluído por uma série de razões: tecnologia de 40/50 anos atrás; seeker de radar que não possibilita formação de imagem; míssil supersônico, que implica em menor tempo de processamento das informações.

Agressor's
Agressor's
Responder para  Bosco
3 anos atrás

Também não acredito naquela farsa da missão Apollo 11 e por conta disso eu sou atacado ou censurado por aqui quando abordo sobre esse assunto….Pois cada um acredita naquilo que lhe convém… O ser humano acredita, sempre, naquilo que ele quer e sente como o mais conveniente para si…Se é a realidade ou não é a decisão de cada um que determina a nobreza dos fatos ou não…

Agressor's
Agressor's
Responder para  Bosco
3 anos atrás

Os mísseis russos estão lá preparados e armados para quem quiser pôr a prova a capacidade de eficácia deles ou tentar levar a “democracia”…

Rafael Gustavo de Oliveira
Rafael Gustavo de Oliveira
Responder para  Bosco
3 anos atrás

Caro Bosco…..É um excelente texto, quase uma aula…rs…mas isso tudo são informações que são alimentadas previamente (If and else), todo sistema com IA, pode ter um bom desempenho se parametrizado corretamente (o desenvolvedor precisa prever de tudo), acho engraçado a frase de imprensa “a máquina tomará as decisões” o computador seguirá a linha do código que poderá levar a um comportamento…não tem nada de novo nisso, o que muda é o quão complexo é o sistema (um F-35 tem 8 milhões de linhas de códigos)
Agora pense comigo, atacar é relativamente simples comparado o quão complexo pode ser a programação de um sistema de defesa, imagine esse mesmo navio que vc citou frente as ameaças?
Um conceito é você ter uma arma com IA com uma missão específica já parametrizada e outra é vc ter uma maquina com Machine Learning armada com um fuzil como muitos estão citando aí…na minha opinião, isso nunca vai acontecer, isso sim seria uma máquina que tomará as decisões….uma loucura digna de Hollywood.

Recomendo a leitura da robô tay da microsoft que atuava em redes sociais e teve comportamentos nazista….abraço

Francisco
Francisco
3 anos atrás

A única chance dos europeus lacradores terem “alguém” para lutar em caso de guerra é essa visto que seus jovens vão estar distraídos lacrando, assinar um tratado como esse é a mesma coisa que dar um tiro no próprio pé, e não duvido que esse movimento ganhe força e o pessoal do mundo do faz de contas assine mesmo, provavelmente se a Rússia, China, Irã, Turquia, etc… esperarem mais uns 10 anos vão conseguir conquistar a lacrolândia sem ter que efetuar um único disparo, pensei que o velho continente deixaria de existir como conhecemos mas de outra forma, achei que seria via dominação genética por conta da baixa natalidade dos europeus e o avanço dos imigrantes dentro do continente, mas pelo visto vai ser bem antes e por excesso de lacração.

pangloss
pangloss
Responder para  Francisco
3 anos atrás

Acho que as coisas não são muito diferentes por aqui.
Basta trocar o que você chama de lacração por samba/sertanejo/balada/futebol, e verá que o jovem brasileiro não se sente muito estimulado a defender uma pátria que, salvo exceções pontuais, nada oferece.

Francisco
Francisco
Responder para  pangloss
3 anos atrás

KKKKKKKK verdade amigo, infelizmente essa é a realidade.

Victor Filipe
Victor Filipe
3 anos atrás

Quem proibir o uso será derrotado por aqueles que adotarem o mesmo.

Agressor's
Agressor's
Responder para  Victor Filipe
3 anos atrás

Essa é a ideia por detrás da coisa. É o mesmo que fazem com relação as armas e submarinos nucleares…

Carlos Campos
Carlos Campos
Responder para  Victor Filipe
3 anos atrás

iguais as armas nucleares.

Varg
Varg
3 anos atrás

Pessoal está vendo muito Exterminador do Futuro…

Ainda estamos décadas distantes de uma IA realmente consciente.

O maior risco atual em armas autônomas são eventuais “cracks” em seus códigos por hackers, mas a isso isso qualquer sistema digital está vulnerável.

Felipe Augusto Batista
Felipe Augusto Batista
Responder para  Varg
3 anos atrás

Um possível problema com armas autonomas é justamente a falta de uma IA consciente. Se por um lado esta seria um risco (skynet etc) por outro uma IA rígida segue suas ordens à risca. Temos os casos do submarino russo que quase disparou um torpedo atômico durante a crise de misseis de cuba e daquele operador também russo que deveria ter dado o alerta de ataque nuclear para começar uma retaliação mas decidiu que deveria ser um erro do sistema, em ambos os casos todas as informações disponíveis indicavam que o ataque era a opção correta, e apenas o bom senso dos envolvidos impediu o mesmo, uma IA rígida não tem maldade nem bom senso, ela iria verificar seus sensores e executar a ordem de ataque imediatamente conforme tinha sido programada.

Emmanuel
Emmanuel
3 anos atrás

AK-47, M-16, e todas as suas variantes, mataram e matarão muito mais que robôs assassinos.
É só dar um pulinho na África, alguns países da Ásia, Oriente Médio e América Latina para ver isso.

pedro
pedro
Responder para  Emmanuel
3 anos atrás

Nao sabia que o AK-47 ou o M-16 matam pessoas! Gostaria de saber como é isso. O Fuzil sai flutuando atirando a esmo e remuniciando por si proprio? Ou será que existe um operador humano nele utilizando a arma para matar mas tambem correndo o risco de ser morto?
Essa é a grande diferença, pois sem um droide ou robo, a chance de haver perdas sempre existe e isso muitas vezes que foi o fiel da balança entre fazer guerra ou negociar. Sem essa preocupação, para que vou negociar com um inimigo se nao terei problemas de baixas?

Emmanuel
Emmanuel
Responder para  pedro
3 anos atrás

Dá uma lida sobre criança soldados.
Só isso.
Talvez a sua ignorância consiga entender o que eu escrevi.

Grifon Eagle
Grifon Eagle
3 anos atrás

Só podiam ser globalistas mesmo querendo proibir artefatos de guerra no futuro.

Pablo
Pablo
3 anos atrás

Parece que o lider desse movimento contra essas armas é o John Connor

Jacinto
Jacinto
Responder para  Pablo
3 anos atrás

kkk

pedro
pedro
3 anos atrás

Primeira vez que estou do lado desse tipo de “gente”! Certamente se estao fazendo isso é por terem percebido que seus financiadores (Globalistas) perderam a guerra por desenvolver esse tipo de produto e agora querem proibir. A guerra é natural do ser Humano e o que o faz desistir disso é seu custo. Uma vez que ele nao corre o risco de ser atingido pelo lado ruim da guerra (morte, destruição, peste, prejuizo financeiro, humilhação e etc) o mesmo irá fazer guerras a rodo!

Hoje com a proliferação de drones e agora armas com IA, ter armas nucleares ou quimicas/biologicas é extremamente necessario pois somente assim vc pode forçar ao outro lado desistir de uma guerra que para ele sera mais um jogo de video game!

Andreo Tomaz
Andreo Tomaz
3 anos atrás

Ao meu ver esse é um problema que ultrapassa o campo de batalha. E espero que a humanidade consiga resolver esse problema.

SmokingSnake ?
SmokingSnake ?
3 anos atrás

No máximo só conseguem proibir nos países lacradores ocidentais como já estão conseguindo proibir até câmeras de reconhecimento facial, e então vira mais uma vantagem tecnológica para países como China e Rússia. Uma hora vai custar caro…

Bruno Vinícius
Bruno Vinícius
Responder para  SmokingSnake ?
3 anos atrás

Quem defende a proibição de câmeras com reconhecimento facial nos países desenvolvidos, via de regra, está no espectro político oposto ao dos lacradores. Geralmente com o discurso de “governo tirano”, muuuuuu. Apesar de que agora tem um povo de esquerda à la Greenwald que está começando a comprar esse discurso também.

Rafael Gustavo de Oliveira
Rafael Gustavo de Oliveira
3 anos atrás

Isso vai acabar igual tratado de armas nucleares, fabricacão de minas anti pessoal, etc…..quem detem a tecnologia vai manter seu clubinho e os demais países provavelmente poderão ser fiscalizados e passível de sanções
Se o Brasil desenvolver uma nova arma revolucionária eu serei o primeiro a montar uma ong e levantar algo assim…e que ninguém mais
possa fazer algo parecido tão terrível assim, com direito a encenação na onu, tudo em nome da paz mundial…rs

Carlos Campos
Carlos Campos
Responder para  Rafael Gustavo de Oliveira
3 anos atrás

vai ganhar milhões de doláres, vai aparecer em jornais famosos, e blá blá blá.

Zé zinho
Zé zinho
3 anos atrás

Ué…porque as ONG’s não exigem o fim dos soldados autômatos das ditaduras ou dos terroristas?

Augusto
Augusto
Responder para  Zé zinho
3 anos atrás

Talvez porque muitas dessas ONG’s devem ser financiadas por esses ditadores.

Gabriel BR
Gabriel BR
3 anos atrás

Os gringos podem ficar despreocupados! tenho quase a certeza que o interesse das Forças do Brasil nessa automação toda é mínimo rsrsrsrsrsrs

Augusto
Augusto
Responder para  Gabriel BR
3 anos atrás

E logico, assim vai acabar a mamata Gabriel, kkkkkk.

Mas e capas de ainda assim aumentar mais ainda o efetivo, com a justificativa que vai precisar de mais pessoal para controlar a automação.

Renato B.
Renato B.
3 anos atrás

Inventamos armas nucleares e elas só foram usadas em combate duas vezes, armas químicas eram consideradas um avanço inevitável no início do século XX e seu uso permaneceu raro nas décadas seguintes.

A proibição é necessária e possível.

Bosco
Bosco
Responder para  Renato B.
3 anos atrás

Renato,
Eu temo que seja impossível proibir tais armas. Elas são indiferenciáveis das tecnologias civis. Se vai colocar um fuzil na mão do robô faxineira não há o que se possa fazer.
*As três leis da robótica de Asimov eram interessantes como distração mas completamente inverossímil no mundo real. Simplesmente não há como implantá-las.

Renato B.
Renato B.
Responder para  Bosco
3 anos atrás

Não existe proibição 100%, mas quanto mais proscrito for o uso dessas armas, melhor será.

Luciano
Luciano
Responder para  Renato B.
3 anos atrás

Olá, Renato. Lembrei das armas químicas tb, que teve um sucesso significatico. Com menor efetividade, faz anos que existe um esforço pra limitar outras armas que acabam afetando muito as populações civis durante e no pós conflito. É o caso das munições cluster e das minas terrestres. No casos desses veículos robôs, poderia restringi-los as funções de vigilância, reconhecimento e espionagem.

Embora a guerra ocorra nos extremos, sempre existiu uma ética que limitava ações, armas e alvos……mas tb sempre existiu quem nao respeitasse nada disso….vamos ver onde isso vai dar.

Bruno Vinícius
Bruno Vinícius
Responder para  Renato B.
3 anos atrás

As armas que você citou, além de terem um poder destrutivo enorme e de deixarem um número gigante de sequelas naqueles que sobrevivem ao ataque inicial, são incapazes de distinguir entre alvos civis e militares. Não acho que se possa dizer o mesmo destes robôs. Na minha opinião, são meros soldados, porém mais precisos.

Augusto
Augusto
Responder para  Renato B.
3 anos atrás

Renato B. não foi a proibição de tais armas que impediu delas serem usadas, mas o medo da escalada em um conflito ao usar tais armas, a maioria das potencias militares devem ter um estoque de tais armas, a mesma coisa acontece com as armas nucleares.

Aconteceu isso na SGII, os beligerantes possuíam essas armas, mas não as usaram por temerem uma repetição do que aconteceu na guerra anterior.

Renato B.
Renato B.
Responder para  Augusto
3 anos atrás

Colocar a palavra “proibição” no papel dos tratados é só a forma como a decisão se cristaliza. O que importa é que o uso dessas armas foi restringido.

Rogério Loureiro Dhierio
Rogério Loureiro Dhierio
3 anos atrás

Skynet.

O próximo passo será estas armas autônomas e prontas para matar vestidas de “seres humanos”.

Bosco
Bosco
3 anos atrás

Na verdade as máquinas já tomam decisões há muito tempo.
Um simples Exocet da década de 70 já toma decisões quando tem que escolher entre dois contatos de mesma magnitude na mesma área de varredura. Um pode ser um navio de cruzeiro e o outro um cruzador e o míssil pode escolher o primeiro.
Toda vez que um míssil que opera no modo LOAL (trancamento depois do lançamento) sem participação humana é lançado contra um alvo ele toma decisões e nem sempre a mais acertada, daí haver as tais “regras de engajamento” e terem desenvolvido sistemas de identificação amigo-inimigo colaborativos.
Há vários sistemas de sensores e de armas que já atingiram um alto grau de discernimento e podem efetivamente identificar e escolher o alvo certo dentre vários, dentro do conceito denominado de ATR e ATA (reconhecimento automático de alvos/ aquisição automática de alvos).
Alguns deles: LRASM, Tomahawk Block V, Storm Breacker, NSM, JSM, etc.
A atual fase da tecnologia permite miniaturizar esses sistemas e incluir em drones e robôs tão pequenos quanto um pássaro (ou um inseto). Teoricamente já é possível um minidrone atingir uma pessoa num estádio de futebol lotado e de modo totalmente autônomo. *Granadas de mão vão virar peças de museus em 5 anos.
Essa história me lembrou um velho filme B do Tom Selleck, “Runaway” (Fora de Controle).

Allan Lemos
Allan Lemos
3 anos atrás

Assim que esses robôs estiverem operacionais, as potências irão incentivar os países fracos a os proibirem, enquanto elas os manterão em seus arsenais alegando “necessidade”.

Algo parecido acontecerá com os mísseis hipersônicos, quando as potências os tiverem em seus arsenais, começarão a surgir tratados, que serão impostos sugeridos para os demais países, mas que eles mesmos jamais irão aderir.

Nemo
Nemo
3 anos atrás

Pensem nos bilhões de dólares que já devem estar sendo investidos nessas tecnologias e o que já devecestar pronto para uso. Também na zona cinza que existe entre uma máquina realmente autônoma e um sistema sob uma forma de controle humano. Finalmente qual potência está disposta a abrir mão dessa tecnologia. Um colega acima lembrou do John Connors, espero que a Sarah o treine bem.

Alexandre
Alexandre
3 anos atrás

Me fez lembrar o Exterminador do Futuro agora rsrsrs

Willber Rodrigues
Willber Rodrigues
3 anos atrás

Impossível proibir isso. Essa tecnologia já passou do “ponto de não retorno” a muito tempo.
Além do mais, com a população de democracias ocidentais cada vez menos tolerantes com a idéia de seus militares voltando pra casa em sacos pretos após ter sido morto por uma IED em algum sh*thole qualquer, os governos recorrerão cada vez mais pra drones e robôs fazerendo o máximo de trabalho sujo possível no campo de batalha.

sóestoudepassagem
3 anos atrás

Nada. Esquece robôs, esquece meteoro e esquece guerra nuclear.
O que vai decidir o futuro da humanidade será o genocídio pela arma biológica.
Populações com o DNA marcados geneticamente sumirão do planeta como no estalar de dedo do Thanos. A ironia nisso é que antes do extermínio essas populações pedirão para serem marcadas.

Bosco
Bosco
Responder para  sóestoudepassagem
3 anos atrás

Isso me lembra uma certa vacina que não serve pra nada mas todo mundo é obrigado a tomar…

Francisco
Francisco
Responder para  Bosco
3 anos atrás

Discordo amigo Bosco, a vacina tem funcionado bem demais, acredito que até além do esperado, é só entender o real propósito para qual ela foi “criada”.

Renato B.
Renato B.
Responder para  Francisco
3 anos atrás

Enquanto a vacina funcionar melhor que a doença ela vale todo o investimento.

Carlos Campos
Carlos Campos
Responder para  sóestoudepassagem
3 anos atrás

olha, andei vendo uma teorias aí um tempo atrás e a maior parte delas tá em caminho de se concretizar, eu diria que vc é louco, mas hj te dou um certo crédito.

Reinaldo Deprera
Reinaldo Deprera
3 anos atrás

Se a consciência do Pentágono for parecida com a minha
e, se estivéssemos na década de 90 do século XX, sabendo que os EUA já tinham tecnologia para criar inteligência artificial e robôs para fazer guerra e, inclusive, substituir a infantaria. Certamente começaria a ocultar todo o tipo de sistema de armas e pesquisas nesse campo e de vez em quando soltaria uma desinformação para o público já me antecipando ao óbvio: este tipo de reação de setores da sociedade.

Como não estamos na década de 90 do século passado, só tenho uma coisa a dizer para o Secretário e demais: IA? Robô? Isso non ecziste! É charlatanismo! És teoria da conspiracion!

Mas se eles forem falar com a China e outras potências ainda tem bastante tempo.

Save Ferris!

Carlos Campos
Carlos Campos
Responder para  Reinaldo Deprera
3 anos atrás

e quem disse que não existe algo assim? tu acha que a China e o EUA fazem computadores quânticos para rodar o joguinho em 100000000 fps?

Vincenzzo
Vincenzzo
3 anos atrás

Cylon? Cade o Battlestar Galactica?!

Mattos
Mattos
3 anos atrás

Enquanto isso Rússia e China se armam e e avançam na qualidade e o Ocidente fica descutindo banheiro junto para homens e mulheres, ideologia de genero e outras baboseira globalistas> Ocidente com um pé na cova>

Mattos
Mattos
3 anos atrás

Nossa soberania depende de termos a bomba atômica> Sem ela para nos impormos perantes os cretinos que querem a nossa Amazônia> Ninguém se atreve a tentar qualquer coisa contra um pa´´is possuidor da boma>