Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Nowa Strategia Obrony Narodowej USA: Rosja stałym zagrożeniem dla wschodniej części NATO z ostatniej chwili
Nowa Strategia Obrony Narodowej USA: Rosja stałym zagrożeniem dla wschodniej części NATO

Rosja w dającej się przewidzieć przyszłości pozostanie „stałym, ale możliwym do opanowania zagrożeniem” dla członków NATO na wschodniej flance - napisano w opublikowanej w piątek przez Pentagon Strategii Obrony Narodowej USA.

ESET: Nieudany cyberatak na polską sieć energetyczną dziełem Rosjan z ostatniej chwili
ESET: Nieudany cyberatak na polską sieć energetyczną dziełem Rosjan

Grudniowy cyberatak przeciwko polskiej infrastrukturze energetycznej był dziełem rosyjskich hakerów z grupy Sandworm znanych z podobnych ataków w przeszłości – podała zajmująca się cyberbezpieczeństwem firma ESET. Nie ma informacji, by atak spowodował jakiekolwiek szkody.

Pierwszy Prezes SN zaskarżyła do TK wymóg kontrasygnaty premiera w obszarze wymiaru sprawiedliwości z ostatniej chwili
Pierwszy Prezes SN zaskarżyła do TK wymóg kontrasygnaty premiera w obszarze wymiaru sprawiedliwości

Korzystając ze swoich konstytucyjnych kompetencji, Pierwszy Prezes Sądu Najwyższego dr hab. Małgorzata Manowska skierowała w dniu 20 stycznia 2026 r. do Trybunału Konstytucyjnego wniosek o zbadanie zgodności z ustawą zasadniczą takiego rozumienia przepisów ustawy z dnia 8 grudnia 2017 r. o Sądzie Najwyższym (Dz. U. z 2024 r. poz. 622 ze zm.), ustawy z dnia 27 lipca 2001 r. – Prawo o ustroju sądów powszechnych (Dz. U. z 2024 r. poz. 334 ze zm.) oraz ustawy z dnia 25 lipca 2002 r. – Prawo o ustroju sądów administracyjnych (Dz. U. z 2024 r. poz. 1267), które zakłada, że akty urzędowe Prezydenta RP dotyczące obsady stanowisk w wymiarze sprawiedliwości wymagają dla swojej ważności podpisu (kontrasygnaty) Prezesa Rady Ministrów.

Jarosław Kaczyński o nowelizacji ustawy o KRS: Tutaj chodzi o konstruowanie w Polsce dyktatury z ostatniej chwili
Jarosław Kaczyński o nowelizacji ustawy o KRS: Tutaj chodzi o konstruowanie w Polsce dyktatury

„Prezydent powinien zawetować ustawę o KRS” - uważa prezes PiS Jarosław Kaczyński, który swoją opinię w tej sprawie wyraził na platformie X.

Wyłączenia prądu w Warszawie. Komunikat dla mieszkańców z ostatniej chwili
Wyłączenia prądu w Warszawie. Komunikat dla mieszkańców

Mieszkańcy Warszawy muszą przygotować się na planowane przerwy w dostawie prądu. Sprawdź, gdzie w styczniu 2026 r. nastąpią wyłączenia.

Jarosław Kaczyński: Polska powinna być w Radzie Pokoju z ostatniej chwili
Jarosław Kaczyński: Polska powinna być w Radzie Pokoju

„O ile zostaną uzyskane warunki i zgodzi się na to rząd i zaasygnuje ten 1 mld dolarów, bo nie ma sensu, żeby Polska wchodziła jako państwo biedne, to powinniśmy być w Radzie Pokoju” - napisał prezes Prawa i Sprawiedliwości Jarosław Kaczyński na platformie X.

Sejm uchwalił kontrowersyjną nowelę ustawy o Krajowej Radzie Sądownictwa z ostatniej chwili
Sejm uchwalił kontrowersyjną nowelę ustawy o Krajowej Radzie Sądownictwa

Sejm uchwalił w piątek nowelizację ustawy o Krajowej Radzie Sądownictwa oraz powiązaną z nią zmianę Kodeksu wyborczego. Sędziów - członków KRS - mają wybierać w bezpośrednich i tajnych wyborach organizowanych przez PKW wszyscy sędziowie, a nie - jak obecnie – Sejm.

Tȟašúŋke Witkó: Nasza chata z kraja z ostatniej chwili
Tȟašúŋke Witkó: Nasza chata z kraja

Od dłuższego czasu zastanawiam się, jak lapidarnie opisać Europę Zachodnią, tę z 2. połowy 3. dekady XXI wieku? Czy lepsze będzie wyświechtane andersenowskie powiedzenie: „Król jest nagi”, czy może – bardziej brutalne i nieco dłuższe zdanie – „Kontynent przyłapany ze spodniami opuszczonymi do kostek”?

Sejm za wydłużeniem zakazu sprzedaży ziemi rolnej z państwowego zasobu do 2036 r. z ostatniej chwili
Sejm za wydłużeniem zakazu sprzedaży ziemi rolnej z państwowego zasobu do 2036 r.

Sejm uchwalił w piątek ustawę, która o kolejne 10 lat, czyli do 2036 roku wydłuża czas, w którym wstrzymana będzie sprzedaż ziemi rolnej z państwowego zasobu. Nowe przepisy zwiększają też areał ziemi państwowej, który będzie można sprzedać rolnikowi bez wyrażania na to zgody ministra rolnictwa.

Prezydenci Polski, Ukrainy i Litwy będą rozmawiali o bezpieczeństwie i negocjacjach pokojowych z ostatniej chwili
Prezydenci Polski, Ukrainy i Litwy będą rozmawiali o bezpieczeństwie i negocjacjach pokojowych

Aktualna sytuacja bezpieczeństwa oraz toczące się negocjacje pokojowe dotyczące Ukrainy, będą głównymi tematami rozmów prezydenta Karola Nawrockiego z prezydentami Ukrainy i Litwy - poinformował PAP prezydencki minister Marcin Przydacz. Rozmowy przywódców odbędą się w sobotę i w niedzielę.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane