newswynalazki

Ruszyła kampania zmierzająca do wprowadzenia miedzynarodowego zakazu prac nad autonomicznymi systemami bojowymi

Po kilku miesiącach przygotowań, pod koniec kwietnia Human Rights Watch rozpoczęła ogólnoświatową kampanię, której celem jest wprowadzenie zakazu rozwoju, produkcji i stosowania automatycznych systemów bojowych.

Na całym świecie wykorzystuje się obecnie dziesiątki, jeśli nie setki typów dron. Większość z nich jest nieuzbrojona, ale niektóre z nich, tak jak na przykład okryte złą sławą Predatory, mogą wziąć na swój pokład całkiem pokaźny zestaw uzbrojenia. Co prawda dziś, niezależnie od tego jak bardzo autonomiczny nie byłby dany system, decyzja o otwarciu ognia podejmowana jest przez człowieka, jednak wcale tak być nie musi. Nietrudno wyobrazić sobie, że skoro samoloty mogą same startować, tankować w powietrzu czy lądować na lotniskowcach, pewnego dnia ktoś stwierdzi, że właściwie dlaczego nie miałyby same otwierać ognia.

Organizacja Human Rights Watch postanowiła uprzedzić pomysły napalonych sztabowców i już teraz rozpocząć ogólnoświatową kampanię pod nazwą „Stop Killer Robots”. W jej ramach organizacje pozarządowe z całego świata wywierać mają presje na rządy, by te zdecydowały się zapobiec powstaniu problemu i wprowadziły międzynarodowy zakaz produkcji takiej broni.

„Roboty wyposażone w śmiercionośną broń, które mogą namierzyć i zabić bez interwencji ze strony człowieka nigdy nie powinny powstać,” twierdzi Steve Goose, który w HRW odpowiada za nadzór nad bronią. „Człowiek powinien być zawsze włączony w proces decyzyjny na polu bitwy. Zabójcze roboty przekroczą każde moralne i prawne granice a [prace nad nimi] powinny zostać zaniechane jako niemoralne.”

Human Rights Watch uważa, że algorytmy decydujące o czyimś życiu są ślepym zaułkiem technologii, w który w ogóle nie powinniśmy brnąć. Według organizacji w pełni automatyczna broń z jednej strony „może zwiększyć cywilne straty podczas konfliktu zbrojnego” i nie będzie w stanie „sprostać podstawowym zasadom międzynarodowego prawa humanitarnego”, z drugiej nie bardzo wiadomo kto byłby odpowiedzialny za nieuniknione błędy w działaniu takiej broni. Błędy, które w tym wypadku mogłyby być śmiertelne. Kto miałby ponieść konsekwencje błędów? Producent? Dowódca? Dostawca oprogramowania? Bo na pewno nie robot.

Prace nad kampanią rozpoczęły się po publikacji raportu „Losing Humanity”, który został przygotowany wspólnie przez organizację oraz Harvard Law School. Human Rights Watch już wtedy postulowała opracowanie międzynarodowej konwencji zakazywałaby prac nad rozwojem w pełni automatycznych systemów bojowych.

Pewne kroki prawne w kierunku zakazu rozwoju tego typu broni zostały już podjęte. W listopadzie zeszłego roku amerykański Departament Obrony wydał dyrektywę, która zabrania amerykańskiemu wojsku stosowania w pełni automatycznych systemów wyposażonych w broń, która może zabić. Ale to tylko dyrektywa, która, nie dość, że można w każdej chwili odwołać, to obowiązywać będzie jedynie przez dziesięć lat i nie ma żadnej gwarancji, że po tym czasie zostanie przedłużona.

Podobnego zdania co Human Rights Watch jest najwyraźniej ONZ. Wstępna wersja raportu, jaką na zlecenie Rady Praw Człowieka przygotował południowoafrykański prawnik Christof Heyns. Raport stwierdza, że „rozwój [tego rodzaju broni] może być nie do zaakceptowania ponieważ [w tym przypadku] nie można przypisać adekwatnej odpowiedzialności prawnej a ponadto roboty nie mogą mieć władzy nad życiem istot ludzkich. Specjalny Sprawozdawca zaleca, by Państwa wprowadziły krajowe moratoria na LAR (Lethal autonomous robotics – zabójcza autonomiczna robotyka) i wzywa do ustanowienia panelu na wysokim szczeblu w celu wyrażenia stanowiska społeczności międzynarodowej na temat LAR.” Pełny raport Heynsa w tej sprawie ma zostać opublikowany pod koniec miesiąca.

Zdjęcie: Wikipedia


podobne treści