Ataki na cywilów w Strefie Gazy. Media: Izrael używa AI do identyfikacji celów

2024-04-04, 15:18

Ataki na cywilów w Strefie Gazy. Media: Izrael używa AI do identyfikacji celów
Izrael ma używać sztucznej inteligencji do identyfikacji celów ataków lotniczych. Foto: EPA/MOHAMMED SABER

Izraelska armia identyfikuje cele do ataków lotniczych z wykorzystaniem sztucznej inteligencji (AI) - donoszą izraelskie i brytyjskie media. Niewystarczający nadzór człowieka nad system ma skutkować ofiarami wśród ludności cywilnej. 

O działaniu systemu AI o nazwie Lawenda poinformował w środę izraelsko-palestyński portal +972 Magazine, a także brytyjski dziennik "Guardian".

Armia izraelska wystosowała oficjalny komunikat, w którym zdementowała te doniesienia.

37 tys. celów zidentyfikowanych przez system Lawenda

+972 Magazine rozmawiał z sześcioma oficerami izraelskiego wywiadu, którzy służyli w armii podczas trwającej wojny w Strefie Gazy i poznali sposób, w jaki wojsko używa AI do identyfikacji celów.

System Lawenda został zaprojektowany w celu zidentyfikowania wszystkich domniemanych bojowników zbrojnego skrzydła Hamasu i Islamskiego Dżihadu - w tym niższego szczebla - jako celów nalotów.

W pierwszych tygodniach wojny w Strefie Gazy armia niemal wyłącznie opierała się na tym systemie, który zidentyfikował co najmniej 37 tys. Palestyńczyków jako domniemanych bojowników. Stali się oni - i ich domy - potencjalnymi celami bombardowań lotniczych - relacjonuje portal.

Decyzje AI zatwierdzane przez wojskowych bez zastanowienia

Jedno ze źródeł powiedziało dziennikarzom, że decyzje AI były często bez zastanowienia zatwierdzane przez wojskowych. Zwykle potrzebowali oni zaledwie 20 sekund na zatwierdzenie ostrzału - tyle, by upewnić się, że człowiek, który ma być zabity jest płci męskiej.

Lawenda - jak się uznaje - ma margines błędu wynoszący około 10 procent. Wiadomo też, że system niekiedy identyfikuje jako cele ludzi, którzy są z Hamasem powiązani tylko luźno, albo wcale.

Izrael specjalnie bombardował domy

Portal podkreśla, że armia z reguły zabijała podejrzanych wtedy, gdy byli w domu - a więc, z całą rodziną - uznając, że prywatne domy hamasowców są łatwiejszym celem bombardowań.

"W rezultacie, jak potwierdzają źródła, tysiące Palestyńczyków, w większości - kobiet i dzieci bądź ludzi nieuczestniczących w walkach - zostało zabitych w izraelskich ostrzałach lotniczych w wyniku decyzji programów AI, zwłaszcza w pierwszych tygodniach wojny" - relacjonuje +972 Magazine.

Ofiary cywilne "dopuszczalne"

Źródła portalu utrzymują, że gdy chodziło o młodszych rangą hamasowców armia wybierała do uderzeń mniej precyzyjne bomby, bowiem nie chciała "marnować kosztownych bomb (inteligentnych, precyzyjnych pocisków) na ludzi mało ważnych".

Według dwóch źródeł "armia zadecydowała w pierwszych tygodniach wojny, że dopuszczalne było w przypadku niższych rangą członków Hamasu zabicie od 15 do 20 cywilów"; kilkakrotnie też zgodziła się na zabicie ponad stu cywilów w atakach na pojedynczych dowódców Hamasu w randze dowódców batalionu bądź brygady.

Użycie sztucznej inteligencji. Wątpliwości prawne i moralne

"Użycie przez Izrael w wojnie z Hamasem potężnych systemów AI jest wkroczeniem na nieznane terytorium zaawansowanej wojny, co budzi masę pytań natury prawnej i moralnej oraz zmienia relację między personelem wojskowym i maszynami" - ocenił "Guardian".

Dziennik przypomniał, że w czasie poprzednich operacji zbrojnych wyznaczanie celów było bardziej pracochłonnym procesem, w którym uczestniczył też doradca prawny. Jednak po atakach Hamasu z 7 października 2023 r. na Izrael "model zatwierdzania ostrzałów przeciwko celom ludzkim gwałtownie przyspieszył" - ocenia dziennik.

System Lawenda. Wyjaśnienia izraelskiej armii

Armia izraelska w oficjalnym komunikacie cytowanym przez "Guardiana" oświadczyła, że niektóre doniesienia o użyciu systemu Lawenda są "bezpodstawne". Inne zaś "demonstrują błędne zrozumienie dyrektyw armii i prawa międzynarodowego".

Armia zapewniła, że stosuje "rozmaite typy narzędzi i metod" do identyfikowania celów.

"Wbrew twierdzeniom siły obronne Izraela nie używają systemu sztucznej inteligencji, który identyfikuje terrorystów bądź próbuje przewidzieć, czy dana osoba jest terrorystą. Systemy informatyczne są jedynie narzędziami używanymi przez analityków w procesie identyfikacji celów" - oświadczyły siły zbrojne.

Zapewniły też, że działają zgodnie z prawem międzynarodowym, czego - według nich - nie robi Hamas, "systematycznie wykorzystujący ludność jako żywe tarcze" i prowadzący walki z terenu obiektów cywilnych - "domów mieszkalnych, szpitali, meczetów, szkół i obiektów ONZ".

Czytaj także:

PAP/fc

Polecane

Wróć do strony głównej