Strona głównaWiadomościŚwiatPolaka w Strefie Gazy wystawiła na cel „sztuczna inteligencja”?

Polaka w Strefie Gazy wystawiła na cel „sztuczna inteligencja”?

-

- Reklama -

Izraelskie media twierdzą, że siły zbrojne tego kraju wykorzystuje sztuczną inteligencję do wybierania celów dla swoich ataków. Izrael oficjalnie zaprzecza i twierdzi, że AI i używany program służy jedynie do gromadzeniu informacji. Tymczasem zaniepokojenie użyciem tego sposobu walki, wyraził Sekretarz Generalny ONZ.

Media stawiają sobie pytanie – w jaki sposób armia izraelska wybiera cele swoich ataków w Strefie Gazy i w środę 3 kwietnia, dwa niezależne izraelskie media, +972 i Local Call, postawiły tezę, że armia korzysta z programu opartego na sztucznej inteligencji o nazwie Lavender. Można się zapytać, czy ów Lavender wybierał cele w ataku na konwój organizacji humanitarnej, w której zginął także polski obywatel?

Izrael oficjalnie twierdzi, że Lavender to prosta baza danych, zawierająca odniesienia do informacji zebranych przez jego służby. Sekretarz Generalny ONZ Antonio Guterres oświadczył jednak 5 kwietnia, że jest „głęboko zaniepokojony” wynikami dziennikarskiego śledztwa i wykorzystywaniem sztucznej inteligencji przez armię izraelską.

Internetowy serwis medialny +972 powołuje się na sześć anonimowych źródeł izraelskiego wywiadu. Opisuje Lavender jako „program oparty na sztucznej inteligencji”, mający na celu identyfikację osób podejrzanych o przynależność do Hamasu i Islamskiego Dżihadu oraz oznaczanie ich jako „potencjalne cele ataków”.

Według danych zebranych przez +972, armia izraelska w dużym stopniu polegała na tym systemie, szczególnie na początku swojej interwencji wojskowej w Gazie. Jeden z anonimowych funkcjonariuszy, z którym przeprowadzono wywiad, stwierdził, że miał 20 sekund na podjęcie decyzji o każdym celu wskazanym przez Lavender i jako człowiek miał „zero szans” na inne działania, niż zatwierdzenie ataku. Według +972 system przeprowadził błędne analizy w prawie 10% przypadków.

Według tych mediów, Lavender różni się od „Evangile”, innego algorytmu używanego przez izraelską armię do obserwacji i wyznaczania celów ataków na budynki. Poprzednie dziennikarskie śledztwo +972 i Local Call przedstawiało także ten system jako „fabrykę masowych zabójstw”, przedkładającą „ilość nad jakość”.

Izrael nie zaprzeczył istnieniu Lavendera, ale wg armii nie jest «systemem», ale bazą danych wykorzystywaną do porównywania źródeł wywiadowczych w celu uzyskania aktualnych informacji na temat członków organizacji terrorystycznych. Armia zapewniła także, że „przestrzega prawa międzynarodowego” i „atakuje wyłącznie cele wojskowe i żołnierzy”.

Źródło: Le Figaro

Najnowsze