Translate

quarta-feira, 10 de abril de 2024

O destino de centenas de milhares de civis em Gaza está nas mãos da inteligência artificial

estatuadesal

8 de Abril de

(Por Ayse Iram Tiryaki e Irmak Akcan, in Reseau International, 08/04/2024, Trad. Estátua de Sal)

(Este artigo revela toda a ignomínia e maldade de que é capaz a espécie humana, ou pelo menos alguns dos seus membros. Aterrador e revoltante. Desculpem-me, mas quem assim atua não tem perdão. Merece mais e pior que uma morte rápida e indolor.

Estátua de Sal, 08/04/2024)


Os militares israelitas perseguem 37 mil “alvos humanos” identificados pelo programa de inteligência artificial “Lavender”, por alegadas ligações ao Hamas, entre os 2,3 milhões de habitantes de Gaza cujos dados foram avaliados pelo programa.

A comunicação social israelita revelou que o exército está a usar inteligência artificial (IA) para determinar os seus alvos entre a população de Gaza.

Assim, segundo fontes que prestaram declarações aos meios de comunicação israelitas (+972 e Local Call), com sede em Telavive, o programa “Lavender” analisa os dados que recolhe sobre cerca de 2,3 milhões de pessoas de Gaza segundo critérios vagos, avaliando a probabilidade de uma pessoa estar ligada ao Hamas.

Segundo estas fontes, Israel arriscaria pelo menos 20 “vítimas civis” por cada um dos 37 mil “suspeitos”, identificados pelo programa de inteligência artificial “Lavender” como “alvos humanos”, nos ataques a Gaza.

O exército israelita “aderiu integralmente” ao programa, nomeadamente no início da guerra, e os nomes identificados pelo “Lavender” foram, portanto, considerados “alvos”, por pessoal sem controlo e sem critérios específicos, desde que se tratassem de homens, especificam as fontes nas suas declarações aos meios de comunicação em questão.

37000 Palestinianos rotulados como suspeitos

Fontes disseram ao +972 que o conceito de “alvo humano”, que permite matar em propriedade privada mesmo que haja civis no edifício e arredores, anteriormente abrangia apenas “alvos militares de alto nível”, mas depois de 7 de outubro, os “alvos humanos" foram expandidos para incluir todos os membros do Hamas.

Devido ao aumento no número de alvos, notou-se que a inteligência artificial era necessária porque a capacidade de verificar alvos – através de exame e verificação individual por humanos, como se fazia anteriormente -, foi eliminada, e foi relatado que a inteligência artificial rotulou cerca de 37.000 palestinianos como “suspeitos”. O processo foi totalmente automatizado depois que o “Lavender” foi considerado capaz de classificar os palestinianos “em até 90%”.

Matámos milhares de pessoas. Automatizámos tudo e não verificámos os alvos individualmente. Quando as pessoas marcadas entravam nas suas casas, nós as bombardeávamos”, disseram as fontes, confirmando a retirada do controle humano.

O comentário de uma fonte de que era "muito surpreendente que lhe pedissem para bombardear uma casa para matar um personagem menor" foi visto como uma admissão do massacre de civis em Gaza, por Israel.

Luz verde para alvos de alto nível com até 100 vítimas civis

Fontes indicaram que foi permitido um máximo de “20 vítimas civis” na operação contra um “suspeito” de baixo escalão, e que este número foi frequentemente aumentado e diminuído durante o processo, chamando a atenção para o facto de que o “princípio da proporcionalidade” não foi aplicado. Por outro lado, foi afirmado que o número em questão subia para 100, quando se tratava de alvos de alto nível. As mesmas fontes disseram que receberam ordens de “bombardear onde pudessem” e acrescentaram: “Os altos funcionários estavam em estado de histeria. Eles não sabiam como reagir. Tudo o que sabiam era que tinham de bombardear como loucos para limitar as capacidades do Hamas”. “B.”, um militar de alta patente que usou o “Lavender”, afirma que o programa tem uma “margem de erro de cerca de 10%” e que não precisa ser verificado por humanos para evitar perdas de tempo.

Uma pessoa que levava o telefone, identificado como alvo, foi bombardeada juntamente com a sua família

Quando a definição de membro do Hamas foi alargada, a aplicação começou a visar todos os tipos de membros da proteção civil e agentes da polícia. Mesmo que estas pessoas estivessem a ajudar o Hamas, não estavam realmente a pôr em perigo os soldados israelitas”. Destacando as deficiências do sistema, “B.” disse: “Se o alvo desse o seu telefone a outra pessoa, essa pessoa seria bombardeada na sua casa com toda a sua família. Isso aconteceu com muita frequência. Este foi um dos erros mais frequentes do Lavender”.

A maioria dos mortos eram mulheres e crianças

Por outro lado, outro software chamado “Onde está o papai?” rastreia milhares de pessoas simultaneamente e notifica as autoridades israelitas quando elas entram em casa. As casas das pessoas visadas foram bombardeadas usando este software: “Digamos que você calcule que há um membro do Hamas e 10 civis numa casa, geralmente essas 10 pessoas são mulheres e crianças. Portanto, a maioria das pessoas que você mata são mulheres e crianças”.

Este sistema também apresenta erros de cálculo, como explica uma das fontes: “Na maioria das vezes, a pessoa visada nem está na casa que bombardeámos. Portanto, estávamos a matar uma família para nada”.

Bombas não guiadas são usadas para economizar dinheiro

As fontes também disseram que pessoas de baixo escalão foram alvo de “bombas não guiadas” em vez de “bombas inteligentes guiadas”, a fim de “economizar armas caras”, causando muitas vítimas civis à medida que edifícios localizados dentro e ao redor da pessoa visada eram destruídos.

Sobre o uso de bombas não guiadas, uma das fontes disse: “Costumamos realizar ataques com bombas não guiadas, o que significa literalmente a destruição de toda a casa e do seu conteúdo. Por causa deste sistema, os alvos continuam a multiplicar-se”.

A inteligência artificial é usada para encontrar mais alvos, não para reduzir as vítimas civis

Em declarações à Al Jazeera, o professor Marc Owen Jones, que trabalha em estudos do Médio Oriente e humanidades digitais na Universidade Hamid bin Khalifa, no Qatar, disse: "Está a tornar-se cada vez mais claro que Israel utiliza sistemas de inteligência artificial não testados, que não foram avaliados de forma transparente, para ajudar na tomada de decisões sobre a vida dos civis”. Sugerindo que as autoridades israelitas - quando usam sistemas de inteligência artificial delegam a seleção de alvos na inteligência artificial e usam o sistema para “evitar a responsabilidade moral ” -, Jones afirmou que o sistema é usado “para encontrar mais alvos, e não para reduzir o número de vítimas civis”. Alegando que mesmo os responsáveis ​​que operam o sistema veem a inteligência artificial como uma “máquina de matar”, Jones sublinhou que é pouco provável que Israel acabe com a utilização de inteligência artificial em ataques, a menos que “os seus aliados pressionem muito”.Descrevendo o incidente como um genocídio assistido por IA, Jones acredita que “deveria ser discutida e negociada uma moratória sobre o uso de inteligência artificial em guerras”.

“Habsora” (O Evangelho)

Num outro estudo publicado a 1 de Dezembro de 2023, afirma-se que o exército israelita utilizou a aplicação de inteligência artificial chamada “Habsora” (O Evangelho), que é utilizada para identificar alvos durante os seus ataques contra a Faixa de Gaza, para atacar deliberadamente infraestruturas civis, e que sabe sempre quantos civis morrerão nos ataques contra os alvos gerados automaticamente pela aplicação. Enquanto o “Habsora” tem como alvo edifícios e estruturas, o Lavender tem como alvo indivíduos.

 

Sem comentários:

Enviar um comentário