Walka Z Robotami: Zabronione Nie Może Być Dozwolone

Spisu treści:

Walka Z Robotami: Zabronione Nie Może Być Dozwolone
Walka Z Robotami: Zabronione Nie Może Być Dozwolone

Wideo: Walka Z Robotami: Zabronione Nie Może Być Dozwolone

Wideo: Walka Z Robotami: Zabronione Nie Może Być Dozwolone
Wideo: ТОП-14 ЛУЧШИХ ФИЛЬМОВ ПРО РОБОТОВ ПОСЛЕДНИХ ЛЕТ | КиноРейтинг 2024, Listopad
Anonim

Eksperci spotkali się w Genewie, ale nie udało się osiągnąć porozumienia: Stany Zjednoczone i Rosja zablokowały wszelkie prace. Być może to jedyny czas, kiedy hegemonowie działają tak harmonijnie.

Walka z robotami: zabronione nie może być dozwolone
Walka z robotami: zabronione nie może być dozwolone

Spotkania ekspertów w formacie Konwencji o Nieludzkiej Broni zakończyły się w Genewie, by zadecydować o losie tzw. robotów bojowych – autonomicznej broni wykorzystującej sztuczną inteligencję do pokonywania celów. Nie udało się jednak osiągnąć porozumienia. Stany Zjednoczone, Rosja, Korea Południowa, Izrael i Australia były jednymi z mniejszości narodowych, którym udało się zablokować sentyment do całkowitego zakazu zabójczych robotów.

Tak więc, chociaż wciąż nie ma działającej autonomicznej broni na świecie, technologia pozostaje, że tak powiem, humanitarna - można ją rozwijać i badać. Co ciekawe, Stany Zjednoczone i Rosja, według sztokholmskiego Instytutu Badań nad Pokojem (SIPRI), znajdują się na szczycie listy największych eksporterów broni. Korea Południowa, Izrael i Australia również nie pozostają w tyle w tym rankingu – znajdują się w pierwszej dwudziestce graczy na rynku.

I choć Chiny (piąty eksporter broni na świecie, stały członek Rady Bezpieczeństwa ONZ opowiadają się za zakazem robotów bojowych, to podczas spotkań nie zdołały przechylić szali w swoim kierunku. Dziś 26 krajów otwarcie popiera zakaz stosowania sztucznej inteligencji w wojnie, inni unikają jasnego stanowiska) Francja i Niemcy (trzeci i czwarty eksporter broni) proponują podpisanie dokumentu, który utrwaliby prymat człowieka nad sztuczną inteligencją, ale są bardziej prawdopodobne po stronie tych, którzy chcą rozwijać autonomiczne pojazdy bojowe.

„To z pewnością rozczarowujące, że niewielka grupa gigantów wojskowych może powstrzymać wolę większości” – skomentowała Mary Verhem, koordynatorka Kampanii na rzecz Stop Killer Robots, na temat wyników spotkań w Genewie.

Rzeczywiście, sytuacja wygląda jak spisek uzbrojonych potentatów monopolistycznych, biorąc pod uwagę, że Stany Zjednoczone i Rosja zwykle nie mogą dojść do jakiegoś kompromisu w ważnych kwestiach. Weźmy syryjską: Waszyngton i Moskwa wzajemnie zablokowały swoje rezolucje po użyciu broni chemicznej w Syrii wiosną tego roku. Nawiasem mówiąc, gazy duszące i inne substancje toksyczne do celów wojskowych były wcześniej zakazane przez Konwencję o Nieludzkiej Broni.

Kolejne spotkanie na temat losów zabójczych robotów odbędzie się w listopadzie w Genewie.

Dlaczego chcą zakazać broni autonomicznej?

Zwolennicy zakazu prowadzenia wojny robotów twierdzą, że pole bitwy nie jest miejscem dla sztucznej inteligencji. Ich zdaniem takie technologie stanowią ogromne zagrożenie. Przynajmniej dzisiaj nie jest jasne, w jaki sposób maszyna będzie odróżniać walczących (tych, którzy są bezpośrednio zaangażowani w działania wojenne) od nie-kombatantów (personel wojskowy, który może używać broni tylko do samoobrony) i cywilów w ogóle. Istnieje możliwość, że praca zabije rannych i tych, którzy się poddadzą, co jest zabronione przez obecne zasady prowadzenia wojny.

Co powstrzymuje pracę przed przerwaniem wszystkich stron konfliktu, nawet posiadaczy takiej broni? Elementy sztucznej inteligencji są już z powodzeniem stosowane w sprzęcie wojskowym, rakietach; roboty są przyciągane do zwiadu, ale ostatnie słowo wciąż należy do ludzi. Broń autonomiczna nie będzie wykonywać rozkazów dowódców – dlatego jest autonomiczna. Dlatego generałowie wojskowi z różnych krajów sceptycznie podchodzą do wprowadzania maszyn do szeregów personelu.

I jeszcze jedno otwarte pytanie to międzynarodowy terroryzm. Technologia broni autonomicznej może wpaść w niepowołane ręce i ostatecznie zostać zhakowana. Rok temu prezydent Rosji Władimir Putin powiedział, że władcą świata będzie ten, który stanie się liderem w rozwoju sztucznej inteligencji. W przypadku broni autonomicznej ten, kto uzyska dostęp do takich technologii, stanie się władcą świata. A do tego tak naprawdę potrzebujesz tylko komputera i sprytnego, który przejdzie przez systemy bezpieczeństwa. Nawiasem mówiąc, Pentagon został zhakowany więcej niż raz. W konsekwencji nikt nie może dać gwarancji, że broń autonomiczna pozostanie nienaruszalna.

Nie jest też jasne, kto będzie odpowiedzialny prawnie, jeśli w wyniku funkcjonowania autonomicznego systemu uzbrojenia zostanie popełniona zbrodnia wojenna. „Inżynier, programista, producent czy dowódca, który używał broni? Skoro odpowiedzialność nie może być zdefiniowana zgodnie z wymogami międzynarodowego prawa humanitarnego, czy rozmieszczenie takich systemów może być uznane za legalne lub etycznie uzasadnione?”, zauważa Międzynarodowy Komitet Czerwonego Krzyża.

Co ciekawe, naukowcy opowiadali się również za zakazem robotów bojowych. W lipcu tego roku ponad dwa tysiące naukowców, w szczególności twórca Tesli i SpaceX Elon Musk oraz współzałożyciele DeepMind, podpisali dokument, że nie opracują śmiercionośnej broni autonomicznej. Google zrobił to samo. Gigant technologiczny zrezygnował z prac nad projektem Maven Pentagonu. A w 2017 roku wielu naukowców wezwało już ONZ do zakazu tworzenia zabójczych robotów.

Nawiasem mówiąc, kwestia sztucznej inteligencji w wojnie pojawiła się na agendzie ONZ pod koniec 2013 roku, ale od tego czasu praktycznie nic się nie zmieniło. Dopiero w tym roku rozpoczęły się spotkania eksperckie w formie Konwencji o Nieludzkiej Broni. Oznacza to, że dojście do jakiegoś mniej lub bardziej praktycznego samolotu zajęło ponad cztery lata.

Dlaczego nie chcą zakazać broni autonomicznej

Bez względu na to, jak banalnie to zabrzmi, wyścig zbrojeń jest głównym powodem, dla którego nie chcą zakazać zabójczych robotów. Putin ma rację: kto pierwszy zdobędzie autonomiczną broń, zdominuje świat. Oficjalnie ten powód jest wyrażony.

Głównym argumentem przeciwników zakazu jest niemożność oddzielenia cywilnej sztucznej inteligencji od wojska. Na przykład nie zabronimy używania noży kuchennych tylko dlatego, że terroryści mogą ich używać. Rzeczywiście, praktycznie niemożliwe jest oddzielenie cywilnego rozwoju sztucznej inteligencji od wojskowego. Ale teraz mówimy o zakazie tej broni, która będzie mogła samodzielnie określać i atakować cele. Może to być projekt Maven, nad którym pracuje Departament Obrony USA we współpracy z Boozem Allenem Hamiltonem (Google odmówił zawarcia umowy).

Twórcy Mavena chcą nauczyć drony analizować obrazy, w szczególności z satelitów i – potencjalnie – identyfikować cele do ataku. Pentagon rozpoczął pracę nad projektem w kwietniu 2017 roku i miał nadzieję, że do końca roku uzyska pierwsze działające algorytmy. Ale dzięki démarche pracowników Google rozwój został opóźniony. Według Gizmodo od czerwca tego roku system potrafił rozróżniać obiekty elementarne – samochody, ludzi, ale w trudnych sytuacjach okazał się zupełnie nieistotny. Jeśli jednak zakaz autonomicznej broni zostanie przyjęty na szczeblu ONZ, projekt będzie musiał zostać odrzucony, a Pentagon twierdzi, że ich rozwój może uratować życie, ponieważ można go zaprogramować tak, aby działał dokładniej i niezawodnie w porównaniu z ludźmi.

"Trzeba zrozumieć, że mówimy o technologii, że nie ma próbek, które by działały. Idea takich systemów jest wciąż bardzo powierzchowna" - zauważył w przeddzień spotkania w Genewie w rosyjskim MSZ. - Naszym zdaniem prawo międzynarodowe, w szczególności sektor humanitarny, można zastosować do broni autonomicznej. Nie wymagają modernizacji ani adaptacji do systemów, których jeszcze nie ma.”

No i jeszcze jeden prawdziwy, ale nie wyrażony, powód to pieniądze. Dziś rynek wojskowych technologii sztucznej inteligencji szacowany jest na ponad sześć miliardów dolarów. Ale do 2025 r. liczba ta potroi się - do prawie 19 miliardów, według analityków amerykańskiej firmy MarketsandMarkets. Dla największych eksporterów broni to dobra motywacja do blokowania wszelkich ograniczeń w rozwoju zabójczych robotów.

Postępu nie da się zatrzymać

Zwolennicy zakazu broni autonomicznej zauważają, że technologia rozwija się bardzo szybko, a sztuczna inteligencja w końcu stanie się bronią – to kwestia czasu. W ich słowach jest logika. Sztuczna inteligencja jest integralną częścią czwartej rewolucji naukowo-technologicznej, która trwa do dziś. Należy pamiętać, że postęp techniczny jest w taki czy inny sposób związany z operacjami wojskowymi. Trzecia rewolucja naukowo-technologiczna trwała do połowy lat 50. XX wieku, czyli jej szczyt przypadł na okres II wojny światowej.

W 1949 r. Genewa przyjęła Konwencję o ochronie osób cywilnych w czasie wojny. W okresie powojennym uzupełniły także IV Konwencję Haską z 1907 r., która określała zasady prowadzenia wojny. Czyli okropności II wojny światowej stały się katalizatorem tego procesu. Tak więc obrońcy praw człowieka nie chcą czekać na trzecią wojnę światową, aby chronić ludzkość przed autonomiczną bronią. Dlatego właśnie teraz trzeba decydować o losie zabójczych robotów, twierdzą.

Według ekspertów Human Rights Watch użycie robotów bojowych jest sprzeczne z Deklaracją Martensa – preambułą do Konwencji haskiej z 1899 r. o prawach i zwyczajach wojny. Innymi słowy, roboty-zabójcy łamią prawa człowieczeństwa i wymogi świadomości społecznej (stanowisko to zostało potwierdzone w IV Konwencji Haskiej).

„Musimy współpracować, aby nałożyć prewencyjny zakaz na takie systemy broni, zanim rozprzestrzenią się one na całym świecie”, powiedziała Bonnie Doherty, starszy badacz w dziale uzbrojenia w Human Rights Watch.

Cóż, tym razem nie udało się zakazać zabójczych robotów. Jak można się spodziewać, listopadowe spotkania też będą bezowocne. To prawda, że prawie wszystkie kraje się zgadzają – technologia nie może płynąć grawitacyjnie, a roboty bojowe potrzebują takiego dźwigu zatrzymującego. Ale nadal nie jest jasne, czy ludzkość będzie miała czas, aby to zrobić, gdy zajdzie taka potrzeba.

Zalecana: