Cultura

O que sabemos sobre os códigos mortais usados para assassinar personalidades iranianas? | política

Na terceira década do século XXI, a inteligência artificial não é mais apenas uma ferramenta em nossa vida diária, mas se transformou em um grande ator nos campos de batalha, onde sistemas automáticos estão tomando decisões de vida e morte, longe de qualquer supervisão humana direta.

Esse fenômeno conhecido como “matar algoritmo” representa uma mudança qualitativa na história das guerras e levanta questões existenciais sobre o futuro do conflito armado, os limites da decisão humana e a ética da guerra na era da transformação digital.

Estima -se que mais de 30 países estejam atualmente desenvolvendo sistemas de armas independentes. Esses sistemas estão focados em três pilares: redes de detecção de dados de várias fontes, algoritmos de aprendizado automático capazes de analisar padrões e prever comportamentos e sistemas de auto -implementação que tomam decisões sem se referir a um líder ou operador humano.

O que distingue esses sistemas é sua capacidade de trabalhar em ambientes complexos, pois é difícil para uma pessoa tomar decisões precisas da velocidade necessária, como é o caso nas operações antiterrorismo ou em conflitos urbanos de alta intensidade.

Talvez os exemplos mais proeminentes do uso dessas tecnologias tenham sido evidentes nas operações precisas que direcionavam personalidades iranianas proeminentes no meio de 2025.

As evidências mostraram que as plataformas utilizadas não eram apenas aviões tradicionais de marcha, mas sistemas de combate inteligentes capazes de rastrear metas por semanas, coletando e analisando grandes quantidades de dados, escolhendo o tempo ideal para implementar a greve com base em contas precisas que levam em consideração variáveis como local, clima, movimento civil e até o impacto esperado da mídia. A precisão de algumas dessas operações atingiu cerca de 92%, indicando o desenvolvimento dessa tecnologia.

O aspecto mais perigoso desses sistemas está em sua capacidade de aprender contínuo. Ele não funciona de acordo com um programa fixo, mas se desenvolve com o tempo, e suas decisões são modificadas com base em experiências anteriores e novos dados. Isso o torna mais eficiente, mas também torna seu comportamento menos previsível e pode até mudar radicalmente em pouco tempo.

O algoritmo de hoje pode agir de maneira completamente diferente após uma semana, embora a tarefa seja a mesma. Aqui, surge um profundo problema ético e legal: quem tem responsabilidade se esses sistemas cometeram um erro que levou ao assassinato de civis? O funcionário é o programador? Ou o operador? Ou o estado? Ou a inteligência artificial se torna um ator legal novo, não identificador ou de responsabilidade?

Nesse contexto, a experiência israelense é um exemplo proeminente da transição da dissuasão tradicional para o que pode ser chamado de “dissuasão do algoritmo”. Graças à integração da capacidade da unidade 8200 especializada em guerra eletrônica, com startups no campo da análise de dados e previsão comportamental, sistemas capazes de monitorar e analisar ameaças foram desenvolvidos e assassinatos cirúrgicos foram realizados antes que as ameaças se cristalizassem ou se transformem em um perigo real.

Essa estratégia não pretende responder ao ataque, mas impede o surgimento da ameaça da fundação, através de algo semelhante ao “assassinato aritmético”.

Vale ressaltar que essas operações não exigem uma presença humana direta no campo, mas são gerenciadas por centros digitais altos equipados, onde o alvo é monitorado e as “condições de direcionamento” são monitoradas antes da implementação da greve em uma segunda parte.

Essa transformação não é exclusiva de Israel ou dos Estados Unidos. China, Rússia e Turquia, juntamente com as potências regionais emergentes, entraram na corrida para desenvolver sistemas de liderança e algoritmo de combate.

Em alguns casos, as redes de inteligência artificial capazes de coordenar entre unidades de combate independentes, ar e mar foram construídas sem supervisão humana direta, com base na análise imediata dos dados provenientes de vários sensores e fontes imediatas de inteligência.

Essas capacidades tomam a decisão militar mais rapidamente do que qualquer resposta humana, mas, em troca, oferecem graves perigos: e se os algoritmos concorrentes colidirem no chão? Uma guerra pode entrar em erupção devido ao defeito da minha conta? E se a decisão de atacar se tornar nas mãos de um sistema que não entende a diplomacia ou as intenções?

O mais perigoso disso é a transferência dessa tecnologia para os partidos não -governamentais. Com a propagação das ferramentas de programação de código aberto, a diminuição dos custos dos drones, um grupo armado ou mesmo um indivíduo que possui habilidades técnicas pode projetar um algoritmo primitivo direcionado a um oponente específico com base em uma marca de rosto ou sinal digital.

Essa tendência abre a porta para a democracia do assassinato digital, pois a guerra não é exclusiva dos exércitos, mas uma arena aberta para mercenários, piratas e caóticos.

A guerra não é apenas física, mas se tornou psicológica e informativa. Nas operações modernas, ataques cibernéticos apoiados pela inteligência artificial destinados a destruir o moral, publicando informações enganosas, fabricando imagens e gravações falsas e usando contas falsas para criar um estado de confusão e dúvida nas fileiras do inimigo.

É uma “guerra suave” que afeta a consciência do alvo diante de seu corpo e restabelece o ambiente da decisão política e de segurança de dentro.

Todos esses desenvolvimentos ocorrem na ausência de uma clara estrutura legal internacional que regula o uso de algoritmos mortais.

Os acordos atuais, especialmente as convenções de Genebra, foram colocados em um momento em que a guerra era um ato puramente humano. Hoje, não há um acordo vinculativo que regulamenta o uso de sistemas de auto -killing ou os estados obrigatórios a divulgar seus algoritmos de combate, ou mesmo responsáveis pelos desenvolvedores.

Há pedidos para o estabelecimento da “Convenção Digital de Genebra”, mas até agora, os principais poderes se recusam a sujeitar essas tecnologias a qualquer restrição que possa limitar sua superioridade estratégica.

Apesar das tentativas de alguns pesquisadores de integrar valores morais aos algoritmos, o fracasso em representar a complexidade humana torna essas tentativas limitadas.

O algoritmo não entende a diferença entre uma criança e um desconto que se esconde entre civis; É a análise das possibilidades e é implementada quando excede uma certa extensão da “ameaça”. A ética neste caso se transforma em uma variável esportiva, não em um princípio humano.

Neste novo mundo, o homem se torna variável dentro de uma equação. Não é mais quem toma a decisão, mas que recebe suas consequências. Seu fim pode ser calculado em um relatório preditivo de que apenas as leituras de inteligência artificial.

Aqui está o dilema mais perigoso: se não definirmos limites claros para o que a máquina pode fazer, nos encontraremos vivendo em uma época em que a morte é gerenciada pressionando um botão, sem memória, sem arrependimento e sem responsabilidade.

A humanidade excedeu o estágio de armas inteligentes direcionadas à era das armas que pensam e decidem por conta própria. Por exemplo, os aviões que dirigiam no conflito russo -ucraniano não eram apenas os meios para transportar explosivos, mas se transformaram em sistemas de combate independentes capazes de analisar o ambiente de campo e tomar decisões táticas sem intervenção humana.

Essa transformação radical levanta questões existenciais: quem tem verdadeira soberania quando as decisões de guerra são transferidas de líderes militares para algoritmos?

A Guerra Cibernética acrescenta outra dimensão ao problema. Os algoritmos não estão mais limitados à matança de materiais, mas se estendem ao assassinato moral. As técnicas de Deepfake permitem um vídeo e vídeos assustadores, que podem ser usados para destruir a reputação de personagens ou espalhar o caos nas sociedades.

No Irã, vimos como essas tecnologias poderiam se transformar em armas psicológicas mortais, capazes de desestabilizar a estabilidade social sem fazer uma única bala.

O futuro levanta cenários mais preocupantes: e se os sistemas de inteligência artificial militar evoluíssem para o grau de gestão de estratégias completas sem intervenção humana? E se esses sistemas começaram a desenvolver suas próprias táticas que podem entrar em conflito com os objetivos políticos do homem?

O verdadeiro perigo não está apenas na precisão dessas armas, mas também para perder o controle.

Em conclusão, o que enfrentamos não é apenas um desenvolvimento técnico, mas um marco no desenvolvimento da própria pessoa. Os algoritmos mortais nos forçam a redefinir a relação entre humanos e a máquina, entre poder e responsabilidade e entre guerra e justiça.

Se a comunidade internacional não se mover rapidamente para formular novas regras que restringem essa força, as próximas guerras não serão entre exércitos, mas entre algoritmos. Nós, simplesmente, seremos objetivos digitais.

As opiniões no artigo não refletem necessariamente a posição editorial de Al -Jazeera.

Source link

Artigos Relacionados

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Veja Também
Fechar
Botão Voltar ao Topo