‘Uma ameaça à humanidade’, ONGs e ativistas pedem a proibição do uso de ‘robôs assassinos’
ONGs e ativistas pedem a proibição do uso de armas autônomas que não são mais estritamente controladas por mãos humanas, chamando os chamados “robôs assassinos” de uma “ameaça à humanidade”.
A medida ocorre durante a Sexta Conferência de Exame da Convenção sobre Armas Convencionais (CCW – Sixth Review Conference of the Convention on Conventional Weapons) acontece em Genebra nesta semana, presidida pelo embaixador Yann Hwang da França.
Espera-se que os Estados membros decidam se negociarão um tratado que proíba o uso de armas que não sejam controladas de forma decisiva por mãos humanas.
A Human Rights Watch (HRW) pediu um novo tratado para esclarecer e fortalecer as leis existentes relacionadas a essas novas tecnologias, acrescentando que “o surgimento de sistemas de armas autônomos e a perspectiva de perder o controle humano significativo sobre o uso da força são ameaças graves que exigem Ação urgente”.
Achamos que isso ultrapassa uma linha moral. Temos questões morais e éticas sobre isso, temos questões jurídicas, temos questões de desestabilização da segurança internacional. Existem tantas razões pelas quais um robô assassino nunca deveria existir.
Steve Goose- Diretor, Divisão de Armas da Human Rights Watch
“Estes são sistemas de armas que operariam sem controle humano significativo. Ou seja, em vez de um humano, você teria o próprio sistema de armas que selecionaria o alvo e decidiria quando puxar o gatilho. Você não teria humanos executando essas funções, em vez disso, a inteligência artificial substituiria o soldado no campo de batalha “, explicou Steve Goose, diretor da Divisão de Armas da Human Rights Watch.
“Achamos que isso atravessa uma linha moral. Temos questões morais e éticas sobre isso, temos questões jurídicas, temos questões de desestabilização da segurança internacional. Existem tantas razões pelas quais um robô assassino nunca deveria existir e qualquer um desses aspectos merece uma proibição, uma proibição preventiva. Estas são armas que ainda estão em desenvolvimento. Temos a chance de detê-los “, disse Goose ao Euronews.
Apesar da maioria das nações ser a favor de um novo tratado sobre o assunto, fabricantes de armas como os Estados Unidos, Rússia, China, Israel e Índia são fortemente contra a proibição.
“Não por acaso, esses são os mesmos países que estão mais avançados no desenvolvimento de robôs assassinos”, revelou Goose.
Desde 2018, o Secretário-Geral das Nações Unidas, António Guterres, tem repetidamente instado os Estados a proibir os sistemas de armas que podem, por si próprios, alvejar e atacar seres humanos, chamando-os de “moralmente repugnantes e politicamente inaceitáveis”.
No ano passado, a HRW divulgou um relatório mostrando como 97 países responderam a esse desafio e elaboraram seus pontos de vista sobre os sistemas de armas autônomas letais desde que o assunto foi discutido pela primeira vez no Conselho de Direitos Humanos em 2013.
O relatório pesquisa onde esses países estão em apelos para banir armas totalmente autônomas e reter controle humano significativo sobre o uso da força.
No entanto, de acordo com Steve Goose, o CCW fez “muito pouco progresso” desde que começou a discutir essa preocupação em 2014.
“Em grande parte por causa desses resistentes que não querem ver um movimento em direção a um instrumento legalmente vinculativo. Mas o CCW não é o único caminho para buscar regulamentações legais sobre essas armas futuras. Com as minas terrestres, com as munições cluster, vimos as nações saírem de as Nações Unidas e reúnem um poderoso grupo de países para proibir totalmente as armas. O mesmo passo poderia ser dado para os robôs assassinos ”, prosseguiu.
Vídeo crítico sobre o futuro com robôs assassinos
FONTE: Euronews
Infelizmente este será o futuro da guerra. Não só robôs, mas também drones e barcos, sem falar nos mísseis e torpedos.
Os poderosos vão evitar ao máximo expor seus soldados.
Quem é contra isto? Quem ainda não tem em seu arsenal.
Já penso ao contrário, isso vai aumentar a quantidade de conflitos com mais mortes nos países mais pobres. Devia era ter a lei de quem dar a ordem ter de estar à frente do conflito. Presidente ordena a invasão de um pais tem de ser o primeiro a desembarcar, os generais na frente do exército. Aí sim quero ver …
Você deve ter 15 anos de idade para escrever uma coisa dessa.
é pelo visto vc tá lendo sobre assuntos militares a pouco tempo, ou ainda é ingênuo demais para entender que as guerras tem de tudo menos moralidade, todas as potências atuais e as que foram no passado, cometeram atrocidades,
Amadurece infantil esquerdopata de 12 anos.
todo mundo criticanto seu comentario e falando sobre ser de esquerda, mas concordo com vc, guerras sao feitas pelos mesmos lideres que vao tomar chá junto meses apos ela acontecer, existem bastantes idiotas para seguir ordem, mas o real perigo desses “robos” é que serao usados contra civis, a economia mundial anda em frangalhos , e a escacez de recurso e instatisfaçao popular estao em altas, robos n precisa de salario e não faz perguntas.
Eles falam em Robôs assassinos, mais qual a diferença entre um Humano puxar o gatilho de uma maquina?
o piloto de um caça que lança uma bomba a 150 km de distancia, não ve o alvo, não sabe as condiçoes do mesmo no momento do ataque, esta sujeito a danos colaterais, etc.
Um Drone dotado de uma IA apurada, que lança uma bomba a 150 km de distancia, não vê o alvo, não sabe as condições do mesmo no momento do ataque, esta sujeito a danos colaterais, etc.
qual a diferença entre eles ?
Tudo bem Humanos matar Humanos, mais maquinas matar Humanos não pode ?
Sera que e por que o piloto de caça pode ter remoço e a IA do Drone não ?
mais justamente por que a IA não tem Humanidade, isso já não seria um ponto a favor ?
Por exemplo o robô e mais preciso, menos efeitos colaterais no lado inimigo, e menos mortes de suas tropas em missões arriscadas.
Medo da skynet ?
Mesmo com o Desenvolvimento atual algo sequer parecido com o conceito da sky net esta muito longe do que temos hoje.
Um drone é pilotado por humanos. Isto é diferente, é a IA que define quem são os alvos, já não é um drone.
Um robot não tem a consciência operacional, ou seja, não compreende a situação. Será sempre baseado em informação que coleta e isso pode não ser suficiente.
E não é nem mais nem menos letal que operadores humanos, isto depende da arma, não do meio de lançamento. Um hellfire lançado de um Apache tem a mesma precisão do que um de um drone
Amigo é a tal da HIPOCRISIA por parte dos HIPÓCRITAS, desculpe a redundância.
Um humano pode ser responsabilizado por erros , uma IA já não pode… Vai prender o robô?
Tanto faz, o estrago ja vai ter acontecido mesmo .
Podemos evitar esse estrago ou ao menos diminuir, não?
“ vai prender um robô “
O humano vai preso mas pra isso acontecer o estrago ja foi feito entendeu oq quis dizer ?
Uma IA, e pura, livre de paixões, preconceitos, ideologias, raiva, ódio, amor, a menos chances dela cometer um erro, do que um Humano, vou citar aqui o molde mestre, a IA que comanda os sentinelas nos x-men.
em dado momento, as sentinelas se voltaram contra os mutantes e os humanos, seu criado então indaga do por que ele esta fazendo, isso se a finalidade da mesa era proteger os Humanos dos mutantes, então molde mestre responde essa indagação era absurda pois mutantes são humanos, Humanos precisam ser protegidos deles mesmos.
perceba a sutileza da questão, ela esta cometendo um erro ao se virar contra os humanos ?
ou esta seguindo a risca sua programação?
quem errou então ?
talvez o programador.
quem seria responsabilizado pela ” rebelião do molde mestre ” ele ? o programador ?
quem sabe.
A IA e menos propensa a “erros” do que Humanos.
IA não erra. Ela faz o que foi programada para fazer. A questão é se o programa abarca todo o contexto em que se dá a operação.
Lembrando que a guerra é, talvez, a atividade humana com maior nível de incerteza que existe.
Mensurem sobre o que já fazem com os drones de ataque “predators”, e agora imaginem como vai ser quando estiverem usando essas coisas…..
Pessoas perversas sempre evoluem, sempre se aprimoram, e estão sempre criando, na arte de praticar o Mal em nome do Bem…!!!…
Infelizmente? É muito mais lógico colocar um robô na zona de guerra.
Caro Otávio
Infelizmente porque não será robô contra robô, mas robôs contra humanos que não dispõem desta tecnologia.
Abraço
Quem vai proibir isso somente países fracos e pequenos. Duvido que as nações poderosas e avançadas em IA em máquinas Irá entrar nesse jogo. Espero que o Bolso não entre nesse tratado.
Cara não deposite esperança em politicos tradicionais, principalmente esse, desde quando bolso tem alguma ideia sensata pro país, só quer $$ e manter o foro privilegiado.
Marcelo
Mas o papel das ONGs é exatamente esse, elas são criadas com a única e exclusiva finalidade de FINGIR que estão preocupadas com a humanidade, enquanto LUCRAM com os “problemas” criados pelos países desenvolvidos TRAVANDO o progresso dos subdesenvolvidos em fazer igual.
Pode ter certeza que já há estudos e dados “científicos” encomendados por essas ONGs, para chantagear e reprimir países como o Brasil e outros para não seguir o mesmo caminho dos EUA, Rússia, Europa, China e Índia.
Um governante só assina esse tipo de coisa se for mal intencionado, lembrando que aqui no Brasil tudo antes passa pelo crivo dos nossos congressistas que “sofrem” um forte LOBBY internacional pra aceitar tudo o que eles querem, o TNP é um exemplo clássico do que estou falando.
Prezados,
Alguém sabe como funciona ,no caso de operação, a identificação (e a certeza) do alvo?
Prezado…estamos em uma era onde a busca e a identificação é automatizada atraves de algoritmos de grande complexidade que trabalham de forma sugestiva ao operador baseada em probabilidades (reconhecimento de padrões), ou seja, o processo de decisão de engajamento caberá a um comando humano…..o resto é hollywood puro
” o processo de decisão de engajamento caberá a um comando humano…..o resto é hollywood puro”
Por enquanto. Vários países por exemplo, estão desenvolvendo aeronaves opcionalmente tripuladas, uma ideia seria enviar 3 caças mas apenas um com piloto dando ordens pros outros dois drones, agora imagine uma missão de bombardeio e depois de penetrarem o espaço aéreo inimigo o caça pilotado é abatido, as opções seriam, os robôs passarem para o controle de um segundo caça pilotado se este estivesse próximo, ou abortar a missão e retornar à base, acredito que vão preferir que os drones continuem a missão e terminem por si mesmos, mesmo sem uma mão humana por tras pra dar a ordem final.
Eu temo que já estejamos vivendo a era em que as máquinas tomam decisões.
Só como exemplo, os primeiros mísseis guiados por TV na e logo após a SGM eram dirigidos por controle remoto até o alvo.
Na década de 60 já desenvolveram mísseis guiados por TV que bastava o operador trancar manualmente na imagem de alto contraste que ele queria acerta que o míssil mantinha a imagem “centralizada” e a atingia após ser lançado.
Depois aperfeiçoaram o sistema lançando o míssil primeiro e por meio de um data-link via RF o alvo era escolhido e aí o míssil fazia o trabalho sozinho.
Na década de 80 já se podia inserir os dados referentes à forma do alvo fixo no processador e o míssil se aproximava da área do alvo e começava a procurá-lo até achar um que correspondia aos dados previamente inseridos e se dirigia a ele.
No mar , contra navios, o míssil era lançado com a provável posição do alvo e usa seu radar para atingir o que ele julga ser o alvo de acordo com alguns dados inseridos e com os algoritmos do processador. É um sistema relativamente simples , mas fácil de ser “seduzido”.
O problema sempre foi os alvos móveis (estacionários ou em movimento) em terra.
Esses tiveram a mesma evolução dos sistemas que citei. Se fizermos um retrospecto usando mísseis ar-sup como referência , pode-se começar com o Bullpup, guiado manualmente por CLOS.
Depois veio o Maverick A, B e D, que tinham que trancar no alvo marcado pelo piloto antes de serem lançados, mas depois seguiam sozinhos até o impacto.
Hoje, se adota sistemas de seeker multimodo , combinando 2 ou 3 sensores para poder identificar e validar um alvo “de verdade”.
Teoricamente pode-se lançar uma onda de dezenas de bombas StormBreakers numa região específica contra por exemplo um site de S400 que elas irão atingir apenas os alvos reais (poupando um ônibus escolar ou uma ambulância) utilizando um sistema de imagem combinada IIR e MMWR (e ainda tem o laser semiativo). Elas conseguem literalmente tomar decisões sem interferência humana.
*Os novos mísseis antinavios com capacidade ATR e sensores com formação de imagem fazem o mesmo.
E a tecnologia continua evoluindo. O que se planeja para breve é que as diversas armas “conversem” entre si e tomem suas próprias decisões.
Ou seja, se uma dúzia de F-35 lançarem 96 GBU-53 numa determinada área com , digamos, uns 50 alvos válidos, corre-se o risco de mais de uma bomba (ou mesmo, várias) se dirigir para um mesmo alvo, o que seria contraproducente. Com elas podendo se comunicar entre si cada uma irá se dirigir para um alvo e se ele for destruído uma outra que se dirigia a ele pode buscar outro alvo.
Um programa da USAF que visa esse tipo de tecnologia chama-se “Golden Horde”.
Algo desse tipo já é empregado no míssil antinavio LRASM e no Tomahawk Block V, que ataca em enxame, mas o objetivo é integrar uma série de mísseis diferentes como por exemplo o JASSM, a bomba SDB, a StormBreaker, o míssil MALD, etc.
Os mísseis russos já fazem isso a muito tempo…
Claro. E voltam para casa quando não encontram o alvo.
Eu sei que há a informação que o SSN19 seria capaz de ataque cooperativo tipo enxame, mas eu não acredito , caso tais informações tenham procedência, que seja algo muito evoluído por uma série de razões: tecnologia de 40/50 anos atrás; seeker de radar que não possibilita formação de imagem; míssil supersônico, que implica em menor tempo de processamento das informações.
Também não acredito naquela farsa da missão Apollo 11 e por conta disso eu sou atacado ou censurado por aqui quando abordo sobre esse assunto….Pois cada um acredita naquilo que lhe convém… O ser humano acredita, sempre, naquilo que ele quer e sente como o mais conveniente para si…Se é a realidade ou não é a decisão de cada um que determina a nobreza dos fatos ou não…
Os mísseis russos estão lá preparados e armados para quem quiser pôr a prova a capacidade de eficácia deles ou tentar levar a “democracia”…
Caro Bosco…..É um excelente texto, quase uma aula…rs…mas isso tudo são informações que são alimentadas previamente (If and else), todo sistema com IA, pode ter um bom desempenho se parametrizado corretamente (o desenvolvedor precisa prever de tudo), acho engraçado a frase de imprensa “a máquina tomará as decisões” o computador seguirá a linha do código que poderá levar a um comportamento…não tem nada de novo nisso, o que muda é o quão complexo é o sistema (um F-35 tem 8 milhões de linhas de códigos)
Agora pense comigo, atacar é relativamente simples comparado o quão complexo pode ser a programação de um sistema de defesa, imagine esse mesmo navio que vc citou frente as ameaças?
Um conceito é você ter uma arma com IA com uma missão específica já parametrizada e outra é vc ter uma maquina com Machine Learning armada com um fuzil como muitos estão citando aí…na minha opinião, isso nunca vai acontecer, isso sim seria uma máquina que tomará as decisões….uma loucura digna de Hollywood.
Recomendo a leitura da robô tay da microsoft que atuava em redes sociais e teve comportamentos nazista….abraço
A única chance dos europeus lacradores terem “alguém” para lutar em caso de guerra é essa visto que seus jovens vão estar distraídos lacrando, assinar um tratado como esse é a mesma coisa que dar um tiro no próprio pé, e não duvido que esse movimento ganhe força e o pessoal do mundo do faz de contas assine mesmo, provavelmente se a Rússia, China, Irã, Turquia, etc… esperarem mais uns 10 anos vão conseguir conquistar a lacrolândia sem ter que efetuar um único disparo, pensei que o velho continente deixaria de existir como conhecemos mas de outra forma, achei que seria via dominação genética por conta da baixa natalidade dos europeus e o avanço dos imigrantes dentro do continente, mas pelo visto vai ser bem antes e por excesso de lacração.
Acho que as coisas não são muito diferentes por aqui.
Basta trocar o que você chama de lacração por samba/sertanejo/balada/futebol, e verá que o jovem brasileiro não se sente muito estimulado a defender uma pátria que, salvo exceções pontuais, nada oferece.
KKKKKKKK verdade amigo, infelizmente essa é a realidade.
Quem proibir o uso será derrotado por aqueles que adotarem o mesmo.
Essa é a ideia por detrás da coisa. É o mesmo que fazem com relação as armas e submarinos nucleares…
iguais as armas nucleares.
Pessoal está vendo muito Exterminador do Futuro…
Ainda estamos décadas distantes de uma IA realmente consciente.
O maior risco atual em armas autônomas são eventuais “cracks” em seus códigos por hackers, mas a isso isso qualquer sistema digital está vulnerável.
Um possível problema com armas autonomas é justamente a falta de uma IA consciente. Se por um lado esta seria um risco (skynet etc) por outro uma IA rígida segue suas ordens à risca. Temos os casos do submarino russo que quase disparou um torpedo atômico durante a crise de misseis de cuba e daquele operador também russo que deveria ter dado o alerta de ataque nuclear para começar uma retaliação mas decidiu que deveria ser um erro do sistema, em ambos os casos todas as informações disponíveis indicavam que o ataque era a opção correta, e apenas o bom senso dos envolvidos impediu o mesmo, uma IA rígida não tem maldade nem bom senso, ela iria verificar seus sensores e executar a ordem de ataque imediatamente conforme tinha sido programada.
AK-47, M-16, e todas as suas variantes, mataram e matarão muito mais que robôs assassinos.
É só dar um pulinho na África, alguns países da Ásia, Oriente Médio e América Latina para ver isso.
Nao sabia que o AK-47 ou o M-16 matam pessoas! Gostaria de saber como é isso. O Fuzil sai flutuando atirando a esmo e remuniciando por si proprio? Ou será que existe um operador humano nele utilizando a arma para matar mas tambem correndo o risco de ser morto?
Essa é a grande diferença, pois sem um droide ou robo, a chance de haver perdas sempre existe e isso muitas vezes que foi o fiel da balança entre fazer guerra ou negociar. Sem essa preocupação, para que vou negociar com um inimigo se nao terei problemas de baixas?
Dá uma lida sobre criança soldados.
Só isso.
Talvez a sua ignorância consiga entender o que eu escrevi.
Só podiam ser globalistas mesmo querendo proibir artefatos de guerra no futuro.
Parece que o lider desse movimento contra essas armas é o John Connor
kkk
Primeira vez que estou do lado desse tipo de “gente”! Certamente se estao fazendo isso é por terem percebido que seus financiadores (Globalistas) perderam a guerra por desenvolver esse tipo de produto e agora querem proibir. A guerra é natural do ser Humano e o que o faz desistir disso é seu custo. Uma vez que ele nao corre o risco de ser atingido pelo lado ruim da guerra (morte, destruição, peste, prejuizo financeiro, humilhação e etc) o mesmo irá fazer guerras a rodo!
Hoje com a proliferação de drones e agora armas com IA, ter armas nucleares ou quimicas/biologicas é extremamente necessario pois somente assim vc pode forçar ao outro lado desistir de uma guerra que para ele sera mais um jogo de video game!
Ao meu ver esse é um problema que ultrapassa o campo de batalha. E espero que a humanidade consiga resolver esse problema.
No máximo só conseguem proibir nos países lacradores ocidentais como já estão conseguindo proibir até câmeras de reconhecimento facial, e então vira mais uma vantagem tecnológica para países como China e Rússia. Uma hora vai custar caro…
Quem defende a proibição de câmeras com reconhecimento facial nos países desenvolvidos, via de regra, está no espectro político oposto ao dos lacradores. Geralmente com o discurso de “governo tirano”, muuuuuu. Apesar de que agora tem um povo de esquerda à la Greenwald que está começando a comprar esse discurso também.
Isso vai acabar igual tratado de armas nucleares, fabricacão de minas anti pessoal, etc…..quem detem a tecnologia vai manter seu clubinho e os demais países provavelmente poderão ser fiscalizados e passível de sanções
Se o Brasil desenvolver uma nova arma revolucionária eu serei o primeiro a montar uma ong e levantar algo assim…e que ninguém mais
possa fazer algo parecido tão terrível assim, com direito a encenação na onu, tudo em nome da paz mundial…rs
vai ganhar milhões de doláres, vai aparecer em jornais famosos, e blá blá blá.
Ué…porque as ONG’s não exigem o fim dos soldados autômatos das ditaduras ou dos terroristas?
Talvez porque muitas dessas ONG’s devem ser financiadas por esses ditadores.
Os gringos podem ficar despreocupados! tenho quase a certeza que o interesse das Forças do Brasil nessa automação toda é mínimo rsrsrsrsrsrs
E logico, assim vai acabar a mamata Gabriel, kkkkkk.
Mas e capas de ainda assim aumentar mais ainda o efetivo, com a justificativa que vai precisar de mais pessoal para controlar a automação.
Inventamos armas nucleares e elas só foram usadas em combate duas vezes, armas químicas eram consideradas um avanço inevitável no início do século XX e seu uso permaneceu raro nas décadas seguintes.
A proibição é necessária e possível.
Renato,
Eu temo que seja impossível proibir tais armas. Elas são indiferenciáveis das tecnologias civis. Se vai colocar um fuzil na mão do robô faxineira não há o que se possa fazer.
*As três leis da robótica de Asimov eram interessantes como distração mas completamente inverossímil no mundo real. Simplesmente não há como implantá-las.
Não existe proibição 100%, mas quanto mais proscrito for o uso dessas armas, melhor será.
Olá, Renato. Lembrei das armas químicas tb, que teve um sucesso significatico. Com menor efetividade, faz anos que existe um esforço pra limitar outras armas que acabam afetando muito as populações civis durante e no pós conflito. É o caso das munições cluster e das minas terrestres. No casos desses veículos robôs, poderia restringi-los as funções de vigilância, reconhecimento e espionagem.
…
Embora a guerra ocorra nos extremos, sempre existiu uma ética que limitava ações, armas e alvos……mas tb sempre existiu quem nao respeitasse nada disso….vamos ver onde isso vai dar.
As armas que você citou, além de terem um poder destrutivo enorme e de deixarem um número gigante de sequelas naqueles que sobrevivem ao ataque inicial, são incapazes de distinguir entre alvos civis e militares. Não acho que se possa dizer o mesmo destes robôs. Na minha opinião, são meros soldados, porém mais precisos.
Renato B. não foi a proibição de tais armas que impediu delas serem usadas, mas o medo da escalada em um conflito ao usar tais armas, a maioria das potencias militares devem ter um estoque de tais armas, a mesma coisa acontece com as armas nucleares.
Aconteceu isso na SGII, os beligerantes possuíam essas armas, mas não as usaram por temerem uma repetição do que aconteceu na guerra anterior.
Colocar a palavra “proibição” no papel dos tratados é só a forma como a decisão se cristaliza. O que importa é que o uso dessas armas foi restringido.
Skynet.
O próximo passo será estas armas autônomas e prontas para matar vestidas de “seres humanos”.
Na verdade as máquinas já tomam decisões há muito tempo.
Um simples Exocet da década de 70 já toma decisões quando tem que escolher entre dois contatos de mesma magnitude na mesma área de varredura. Um pode ser um navio de cruzeiro e o outro um cruzador e o míssil pode escolher o primeiro.
Toda vez que um míssil que opera no modo LOAL (trancamento depois do lançamento) sem participação humana é lançado contra um alvo ele toma decisões e nem sempre a mais acertada, daí haver as tais “regras de engajamento” e terem desenvolvido sistemas de identificação amigo-inimigo colaborativos.
Há vários sistemas de sensores e de armas que já atingiram um alto grau de discernimento e podem efetivamente identificar e escolher o alvo certo dentre vários, dentro do conceito denominado de ATR e ATA (reconhecimento automático de alvos/ aquisição automática de alvos).
Alguns deles: LRASM, Tomahawk Block V, Storm Breacker, NSM, JSM, etc.
A atual fase da tecnologia permite miniaturizar esses sistemas e incluir em drones e robôs tão pequenos quanto um pássaro (ou um inseto). Teoricamente já é possível um minidrone atingir uma pessoa num estádio de futebol lotado e de modo totalmente autônomo. *Granadas de mão vão virar peças de museus em 5 anos.
Essa história me lembrou um velho filme B do Tom Selleck, “Runaway” (Fora de Controle).
Assim que esses robôs estiverem operacionais, as potências irão incentivar os países fracos a os proibirem, enquanto elas os manterão em seus arsenais alegando “necessidade”.
Algo parecido acontecerá com os mísseis hipersônicos, quando as potências os tiverem em seus arsenais, começarão a surgir tratados, que serão
impostossugeridos para os demais países, mas que eles mesmos jamais irão aderir.Pensem nos bilhões de dólares que já devem estar sendo investidos nessas tecnologias e o que já devecestar pronto para uso. Também na zona cinza que existe entre uma máquina realmente autônoma e um sistema sob uma forma de controle humano. Finalmente qual potência está disposta a abrir mão dessa tecnologia. Um colega acima lembrou do John Connors, espero que a Sarah o treine bem.
Me fez lembrar o Exterminador do Futuro agora rsrsrs
Impossível proibir isso. Essa tecnologia já passou do “ponto de não retorno” a muito tempo.
Além do mais, com a população de democracias ocidentais cada vez menos tolerantes com a idéia de seus militares voltando pra casa em sacos pretos após ter sido morto por uma IED em algum sh*thole qualquer, os governos recorrerão cada vez mais pra drones e robôs fazerendo o máximo de trabalho sujo possível no campo de batalha.
Nada. Esquece robôs, esquece meteoro e esquece guerra nuclear.
O que vai decidir o futuro da humanidade será o genocídio pela arma biológica.
Populações com o DNA marcados geneticamente sumirão do planeta como no estalar de dedo do Thanos. A ironia nisso é que antes do extermínio essas populações pedirão para serem marcadas.
Isso me lembra uma certa vacina que não serve pra nada mas todo mundo é obrigado a tomar…
Discordo amigo Bosco, a vacina tem funcionado bem demais, acredito que até além do esperado, é só entender o real propósito para qual ela foi “criada”.
Enquanto a vacina funcionar melhor que a doença ela vale todo o investimento.
olha, andei vendo uma teorias aí um tempo atrás e a maior parte delas tá em caminho de se concretizar, eu diria que vc é louco, mas hj te dou um certo crédito.
Se a consciência do Pentágono for parecida com a minha
e, se estivéssemos na década de 90 do século XX, sabendo que os EUA já tinham tecnologia para criar inteligência artificial e robôs para fazer guerra e, inclusive, substituir a infantaria. Certamente começaria a ocultar todo o tipo de sistema de armas e pesquisas nesse campo e de vez em quando soltaria uma desinformação para o público já me antecipando ao óbvio: este tipo de reação de setores da sociedade.
Como não estamos na década de 90 do século passado, só tenho uma coisa a dizer para o Secretário e demais: IA? Robô? Isso non ecziste! É charlatanismo! És teoria da conspiracion!
Mas se eles forem falar com a China e outras potências ainda tem bastante tempo.
Save Ferris!
e quem disse que não existe algo assim? tu acha que a China e o EUA fazem computadores quânticos para rodar o joguinho em 100000000 fps?
Cylon? Cade o Battlestar Galactica?!
Enquanto isso Rússia e China se armam e e avançam na qualidade e o Ocidente fica descutindo banheiro junto para homens e mulheres, ideologia de genero e outras baboseira globalistas> Ocidente com um pé na cova>
Nossa soberania depende de termos a bomba atômica> Sem ela para nos impormos perantes os cretinos que querem a nossa Amazônia> Ninguém se atreve a tentar qualquer coisa contra um pa´´is possuidor da boma>