[Tylko u nas] Dr Rafał Brzeski: Sztuczna inteligencja. Roboty bojowe. Szansa i zagrożenie

Autonomiczne środki walki są technologicznie łatwiejsze do skonstruowania niż samochody bez kierowcy i roboty bojowe, pojawią się na froncie szybciej niż to się wydaje - uważają generałowie z Pentagonu i dlatego przyjęli przed kilkoma dniami etyczne zasady wykorzystania sztucznej inteligencji w warunkach frontowych. Sto lat temu. w czasie I wojny światowej, blokadą nieprzyjacielskiego natarcia były rozbudowane linie okopów otoczone zasiekami i polami minowymi oraz ziemne i betonowe fortyfikacje. W II wojnie światowej rolę blokady szybkich ataków jednostek pancernych przejęły zamienione w twierdze miasta, które trzeba było zdobywać w żmudnych i krwawych walkach o każdy dom. Podobnie jest obecnie z tym, że osłoną obrońców miasta-blokady jest coraz częściej ludność cywilna. Śmierć cywilów to dla wojskowych „straty uboczne”, ale dla polityków to poważny problem zwłaszcza jeśli los ludności stanie się głównym tematem doniesień medialnych. Dlatego też eliminacja siły żywej nieprzyjaciela przy minimalnych stratach wśród ludności cywilnej, to jedno z głównych zadań stawianych specjalistom pracującym nad „śmiercionośnymi broniami autonomicznymi”.
/ screen YouTube Corridor. Robot bojowy
Dotychczas jeszcze żaden kraj nie pochwalił się, że ma roboty na wyposażeniu swoich sił zbrojnych, ale potrzebne technologie są dostępne. Wiadomo również, że wiele wojskowych ośrodków naukowych pracuje nad ich skonstruowaniem i oprogramowaniem. Głównie w Chinach, USA, Korei Południowej, Izraelu, Wielkiej Brytanii i Australii. W Rosji zapewne też. Profesor Stuart Russell z Uniwersytetu Berkeley przewiduje, że „zabójcze roboty” pojawią się na polu walki w ciągu najbliższych dwóch lat. Nie będą to roboty człekokształtne w stylu Terminatora, ale zapewne drony podobne do współczesnych tylko zaadaptowane do działań autonomicznych.

Zdaniem specjalistów drony są najłatwiejsze do przekonstruowania. Już obecnie są „w połowie drogi”. Ich dolot do celu może być z góry zaprogramowany, a kiedy znajdą się w zadanym rejonie przekazują obraz do prowadzącego człowieka, który dokonuje wyboru celu i wydaje komendę „ognia”. Po ewentualnej adaptacji sztuczna inteligencja autonomicznego drona będzie samodzielnie identyfikować cel na podstawie zgromadzonych w pamięci obrazów (zdjęć lub filmów video), algorytm nakieruje pokładowe uzbrojenie i da polecenie „zniszczyć”. Sztuczną inteligencję autonomicznego drona można też przeszkolić z różnych wariantów sytuacji bojowej i nauczyć, w której z nich człowiek wydaje komendę „ognia”. Później dron sam porównuje sytuację widzianą przez swoje kamery z zapamiętanymi wariantami i decyduje „zniszczyć”, kiedy algorytm uzna, że człowiek wydałby komendę „ognia”. Można też wprowadzić algorytm, który będzie otwierał ogień do każdej postaci w zasięgu kamer, która będzie trzymała coś przypominającego broń i nie będzie w mundurze własnych sił zbrojnych. W ciągu minionych kilku lat sztuczna inteligencja dokonała dużego skoku i jej umiejętności rozpoznawania twarzy, ruchów, detali uzbrojenia i odzieży są olbrzymie.  Autonomiczne drony mają przy tym dwie wielkie zalety: są tanie i nie potrzebują prowadzącego człowieka ani kanału łączności między człowiekiem a dronem. Jeśli same wybierają cel i moment otwarcia ognia, to można ich wysłać całą chmarę a nie tylko tyle, ilu posiada się operatorów. Jeśli nie ma kanału łączności, to przeciwnik nie może zakłócić komunikacji i sparaliżować atak.

Techniczne przewagi autonomicznych dronów równoważą etyczne mankamenty. Zwolennicy „robotów bojowych” twierdzą, że są one bardziej etyczne niż ludzie, gdyż nie męczą się, nie ulegają stresom, nie wpadają w złość, nie popełniają zbrodni wojennych i są rycerskie bowiem świadomie nie zabijają poddającego się nieprzyjaciela. Przeciwnicy uważają, że wypełniając co do joty polecenia oprogramowania roboty nie znają litości. Trudno też wyobrazić sobie, żeby nawet najlepsza sztuczna inteligencja bezbłędnie rozróżniała cywila z karabinem od cywila ze szczotką na kiju. Stąd znaczenie etycznych ram militarnego wykorzystywania sztucznej inteligencji. W dokumencie Pentagonu podkreślono, że to na ludziach ciąży odpowiedzialność za „odpowiednią ocenę i troskę” w podejmowaniu decyzji użycia wszelkiego rodzaju robotów bojowych. To ludzie, muszą odpowiedzialnie uczyć sztuczną inteligencję rozpoznawania obiektów do zniszczenia. To ludzie muszą zadbać, żeby decyzje podejmowane przez automatyzowane systemy były możliwe do prześledzenia i oceny a jeśli zajdzie potrzeba człowiek musi mieć możliwość przerwania operacji i dezaktywacji robota. Bez takich możliwości kontroli sztucznej inteligencji ludzie dobrowolnie oddadzą zbyt wielkie obszary życia społecznego w ręce technologii, której w pełni jeszcze nie rozumieją. Co więcej jeśli algorytmy robotów optymalizując możliwe rozwiązania natrafią na lukę lub błąd oprogramowania to działając schematycznie robot bojowy może niszczyć obiekty, które powinien zostawić nienaruszone i stanie się zagrożeniem a nie obrońcą.

Rafał Brzeski

 

POLECANE
Węgry stawiają ultimatum Ukrainie. Orban zapowiada wstrzymanie tranzytu z ostatniej chwili
Węgry stawiają ultimatum Ukrainie. Orban zapowiada wstrzymanie tranzytu

Węgry wstrzymają tranzyt ważnych dla Ukrainy towarów, dopóki kraj ten nie przywróci transportu rosyjskiej ropy naftowej rurociągiem Przyjaźń - ogłosił w piątek w radiu Kossuth premier Węgier Viktor Orban.

Gaz może nie popłynąć do Polski. Nieoficjalne doniesienia z ostatniej chwili
Gaz może nie popłynąć do Polski. Nieoficjalne doniesienia

Spółka QatarEnergy z Kataru ogłosiła stan "siły wyższej" i wstrzymała produkcję gazu LNG. Orlen miał otrzymać wiadomość o anulowaniu dwóch dostaw – informuje serwis money.pl.

Kandydat PiS na premiera. Błaszczak zdradził jego wiek z ostatniej chwili
Kandydat PiS na premiera. Błaszczak zdradził jego wiek

Kandydatem Prawa i Sprawiedliwości na premiera będzie "polityk młodego pokolenia, w wieku prezydenta Karola Nawrockiego, poniżej 50 lat" – powiedział w piątek szef klubu parlamentarnego PiS Mariusz Błaszczak.

Pilne informacje z granicy. Straż Graniczna wydała komunikat z ostatniej chwili
Pilne informacje z granicy. Straż Graniczna wydała komunikat

Straż Graniczna opublikowała najnowsze dane dotyczące sytuacji na granicach Polski. Z raportu wynika, że 5 marca funkcjonariusze przeprowadzili kilka tysięcy kontroli osób i pojazdów na granicach z Niemcami i Litwą. Służby przekazały również ważną informację dotyczącą odcinka granicy z Białorusią.

Burza po emisji popularnego programu TVN. To jest po prostu ZŁE z ostatniej chwili
Burza po emisji popularnego programu TVN. "To jest po prostu ZŁE"

Nowy program TVN "Skok na głęboką wodę" zadebiutował 3 marca i od razu wywołał emocje. Nieoczekiwanie głos w sprawie zabrała Blanka Lipińska, która skrytykowała nowy format.

Wyłączenia prądu. Ważny komunikat dla mieszkańców Dolnego Śląska z ostatniej chwili
Wyłączenia prądu. Ważny komunikat dla mieszkańców Dolnego Śląska

Mieszkańcy Dolnego Śląska powinni przygotować się na planowane przerwy w dostawie energii elektrycznej. Operator sieci dystrybucyjnej Tauron Dystrybucja opublikował harmonogram wyłączeń, które obejmą zarówno duże miasta, m.in. Wrocław czy Jelenią Górę, jak i mniejsze miejscowości. Sprawdź, czy Twoja ulica znajduje się na liście.

Serwis mObywatel wydał ważny komunikat z ostatniej chwili
Serwis mObywatel wydał ważny komunikat

Serwis mObywatel poinformował o planowanej przerwie technicznej 9 marca 2026 roku.

„Mamy ludzi, którzy mogą tam rządzić”. Trump zapowiada zmiany w Iranie z ostatniej chwili
„Mamy ludzi, którzy mogą tam rządzić”. Trump zapowiada zmiany w Iranie

Prezydent USA Donald Trump oświadczył w czwartkowym wywiadzie dla telewizji NBC News, że inwazja lądowa na Iran byłaby „stratą czasu”, gdyż kraj ten stracił już potencjał militarny. Zaznaczył jednak, że Waszyngton zamierza „oczyścić” Teheran z obecnych władz i ma już kandydatów na nowych przywódców.

Ceny paliw mocno w górę. Prezes NBP mówi wprost z ostatniej chwili
Ceny paliw mocno w górę. Prezes NBP mówi wprost

Rosną ceny paliw na stacjach benzynowych. – Na razie ceny wystrzeliły na stacjach benzynowych kompletnie bez żadnych podstaw – powiedział prezes NBP prof. Adam Glapiński.

Pierwsza grupa Polaków wróciła z Bliskiego Wschodu. Nowe informacje z ostatniej chwili
Pierwsza grupa Polaków wróciła z Bliskiego Wschodu. Nowe informacje

​​​​​​​Pierwsza grupa Polaków ewakuowanych z Bliskiego Wschodu wróciła już do Polski – poinformowało w komunikacie Dowództwo Operacyjne Rodzajów Sił Zbrojnych.

REKLAMA

[Tylko u nas] Dr Rafał Brzeski: Sztuczna inteligencja. Roboty bojowe. Szansa i zagrożenie

Autonomiczne środki walki są technologicznie łatwiejsze do skonstruowania niż samochody bez kierowcy i roboty bojowe, pojawią się na froncie szybciej niż to się wydaje - uważają generałowie z Pentagonu i dlatego przyjęli przed kilkoma dniami etyczne zasady wykorzystania sztucznej inteligencji w warunkach frontowych. Sto lat temu. w czasie I wojny światowej, blokadą nieprzyjacielskiego natarcia były rozbudowane linie okopów otoczone zasiekami i polami minowymi oraz ziemne i betonowe fortyfikacje. W II wojnie światowej rolę blokady szybkich ataków jednostek pancernych przejęły zamienione w twierdze miasta, które trzeba było zdobywać w żmudnych i krwawych walkach o każdy dom. Podobnie jest obecnie z tym, że osłoną obrońców miasta-blokady jest coraz częściej ludność cywilna. Śmierć cywilów to dla wojskowych „straty uboczne”, ale dla polityków to poważny problem zwłaszcza jeśli los ludności stanie się głównym tematem doniesień medialnych. Dlatego też eliminacja siły żywej nieprzyjaciela przy minimalnych stratach wśród ludności cywilnej, to jedno z głównych zadań stawianych specjalistom pracującym nad „śmiercionośnymi broniami autonomicznymi”.
/ screen YouTube Corridor. Robot bojowy
Dotychczas jeszcze żaden kraj nie pochwalił się, że ma roboty na wyposażeniu swoich sił zbrojnych, ale potrzebne technologie są dostępne. Wiadomo również, że wiele wojskowych ośrodków naukowych pracuje nad ich skonstruowaniem i oprogramowaniem. Głównie w Chinach, USA, Korei Południowej, Izraelu, Wielkiej Brytanii i Australii. W Rosji zapewne też. Profesor Stuart Russell z Uniwersytetu Berkeley przewiduje, że „zabójcze roboty” pojawią się na polu walki w ciągu najbliższych dwóch lat. Nie będą to roboty człekokształtne w stylu Terminatora, ale zapewne drony podobne do współczesnych tylko zaadaptowane do działań autonomicznych.

Zdaniem specjalistów drony są najłatwiejsze do przekonstruowania. Już obecnie są „w połowie drogi”. Ich dolot do celu może być z góry zaprogramowany, a kiedy znajdą się w zadanym rejonie przekazują obraz do prowadzącego człowieka, który dokonuje wyboru celu i wydaje komendę „ognia”. Po ewentualnej adaptacji sztuczna inteligencja autonomicznego drona będzie samodzielnie identyfikować cel na podstawie zgromadzonych w pamięci obrazów (zdjęć lub filmów video), algorytm nakieruje pokładowe uzbrojenie i da polecenie „zniszczyć”. Sztuczną inteligencję autonomicznego drona można też przeszkolić z różnych wariantów sytuacji bojowej i nauczyć, w której z nich człowiek wydaje komendę „ognia”. Później dron sam porównuje sytuację widzianą przez swoje kamery z zapamiętanymi wariantami i decyduje „zniszczyć”, kiedy algorytm uzna, że człowiek wydałby komendę „ognia”. Można też wprowadzić algorytm, który będzie otwierał ogień do każdej postaci w zasięgu kamer, która będzie trzymała coś przypominającego broń i nie będzie w mundurze własnych sił zbrojnych. W ciągu minionych kilku lat sztuczna inteligencja dokonała dużego skoku i jej umiejętności rozpoznawania twarzy, ruchów, detali uzbrojenia i odzieży są olbrzymie.  Autonomiczne drony mają przy tym dwie wielkie zalety: są tanie i nie potrzebują prowadzącego człowieka ani kanału łączności między człowiekiem a dronem. Jeśli same wybierają cel i moment otwarcia ognia, to można ich wysłać całą chmarę a nie tylko tyle, ilu posiada się operatorów. Jeśli nie ma kanału łączności, to przeciwnik nie może zakłócić komunikacji i sparaliżować atak.

Techniczne przewagi autonomicznych dronów równoważą etyczne mankamenty. Zwolennicy „robotów bojowych” twierdzą, że są one bardziej etyczne niż ludzie, gdyż nie męczą się, nie ulegają stresom, nie wpadają w złość, nie popełniają zbrodni wojennych i są rycerskie bowiem świadomie nie zabijają poddającego się nieprzyjaciela. Przeciwnicy uważają, że wypełniając co do joty polecenia oprogramowania roboty nie znają litości. Trudno też wyobrazić sobie, żeby nawet najlepsza sztuczna inteligencja bezbłędnie rozróżniała cywila z karabinem od cywila ze szczotką na kiju. Stąd znaczenie etycznych ram militarnego wykorzystywania sztucznej inteligencji. W dokumencie Pentagonu podkreślono, że to na ludziach ciąży odpowiedzialność za „odpowiednią ocenę i troskę” w podejmowaniu decyzji użycia wszelkiego rodzaju robotów bojowych. To ludzie, muszą odpowiedzialnie uczyć sztuczną inteligencję rozpoznawania obiektów do zniszczenia. To ludzie muszą zadbać, żeby decyzje podejmowane przez automatyzowane systemy były możliwe do prześledzenia i oceny a jeśli zajdzie potrzeba człowiek musi mieć możliwość przerwania operacji i dezaktywacji robota. Bez takich możliwości kontroli sztucznej inteligencji ludzie dobrowolnie oddadzą zbyt wielkie obszary życia społecznego w ręce technologii, której w pełni jeszcze nie rozumieją. Co więcej jeśli algorytmy robotów optymalizując możliwe rozwiązania natrafią na lukę lub błąd oprogramowania to działając schematycznie robot bojowy może niszczyć obiekty, które powinien zostawić nienaruszone i stanie się zagrożeniem a nie obrońcą.

Rafał Brzeski


 

Polecane