Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Antoni Macierewicz usłyszał zarzuty. Jest ruch prokuratury z ostatniej chwili
Antoni Macierewicz usłyszał zarzuty. Jest ruch prokuratury

Prokuratura Krajowa poinformowała w środę o postawieniu byłemu szefowi MON, posłowi PiS Antoniemu Macierewiczowi zarzutu ujawnienia informacji niejawnych.

PKP Intercity wydało pilny komunikat z ostatniej chwili
PKP Intercity wydało pilny komunikat

PKP Intercity wybrało ofertę Alstom Polska na budowę 42 piętrowych pociągów za 4,1 mld zł. Pociągi będą mogły wozić pasażerów z prędkością 200 km/h - poinformował w środę kolejowy przewoźnik.

Unijni komisarze przeforsowali umowę handlową z Mercosurem z ostatniej chwili
Unijni komisarze przeforsowali umowę handlową z Mercosurem

Unijni komisarze przeforsowali umowę handlową z Mercosurem, która może zalać Europę tanią, niskiej jakości żywnością z Ameryki Południowej. Polska – wspólnie z Francją – stanowczo sprzeciwiła się decyzji, broniąc interesów swoich rolników i bezpieczeństwa konsumentów.

Pokaz lotniczy w USA dla prezydenta Nawrockiego. Wyścig po kontrakt z Polską z ostatniej chwili
Pokaz lotniczy w USA dla prezydenta Nawrockiego. Wyścig po kontrakt z Polską

Podczas wizyty prezydenta Karola Nawrockiego w Białym Domu zaplanowano pokaz lotniczy. Choć oficjalnie Polska nie rozpoczęła jeszcze procesu zakupu nowych samolotów bojowych, wydarzenie to postrzegane jest jako element rywalizacji producentów o przyszłe zamówienia dla polskiego wojska.

Skandal na posiedzeniu Trybunału Stanu. Sędziowie nie przyjmują do wiadomości, że zostali wyłączeni z ostatniej chwili
Skandal na posiedzeniu Trybunału Stanu. Sędziowie nie przyjmują do wiadomości, że zostali wyłączeni

Zamieszanie przed posiedzeniem Trybunału Stanu. Kilku sędziów, którzy przyszli przed godziną 12 na posiedzenie dotyczące immunitetu przewodniczącej Małgorzaty Manowskiej, nie zostało wpuszczonych na salę. Przygotowano miejsce tylko dla trzech sędziów – właśnie tyle osób jest dziś uprawnionych do orzekania. – W chwili, gdy przychodzicie, macie prawo uczestniczyć, ale formalnie nie posiadacie teraz statusu sędziów – mówił Piotr Sak, jeden z trzech sędziów wyznaczonych do składu.

Sensacja w Kanale Zero. Andrzej Duda dołącza do ekipy z ostatniej chwili
Sensacja w Kanale Zero. Andrzej Duda dołącza do ekipy

Krzysztof Stanowski znów zaskoczył widzów. Do ekipy Kanału Zero dołącza były prezydent Andrzej Duda, który poprowadzi autorski cykl 16 odcinków. Premiera już 15 września, a internet wrze od komentarzy.

Nowy sondaż partyjny. PiS zadowolony, gorzej z Konfederacją  z ostatniej chwili
Nowy sondaż partyjny. PiS zadowolony, gorzej z Konfederacją 

Z najnowszego badania przeprowadzonego dla Wirtualnej Polski wynika, że gdyby wybory parlamentarne odbyły się w najbliższą niedzielę, zwycięzcą mogłoby zostać Prawo i Sprawiedliwość z wynikiem 29 proc. To wzrost o 1,6 punktu procentowego w porównaniu z poprzednim sondażem.

Nawrocki–Trump. Ujawniono agendę spotkania z ostatniej chwili
Nawrocki–Trump. Ujawniono agendę spotkania

Sekretarz stanu w Kancelarii Prezydenta RP Marcin Przydacz w rozmowie z „Rzeczpospolitą” zdradził agendę środowego spotkania Karola Nawrockiego z Donaldem Trumpem.

Dron sparaliżował lotnisko w Wilnie. Prezydencki samolot krążył pół godziny nad miastem Wiadomości
Dron sparaliżował lotnisko w Wilnie. Prezydencki samolot krążył pół godziny nad miastem

Samolot transportowy C-27J Spartan z prezydentem Litwy Gitanasem Nausedą na pokładzie przez ponad 30 minut nie mógł wylądować w Wilnie. Powodem był dron latający w pobliżu lotniska, który – jak się okazało – wykorzystywano do celów reklamowych. To kolejny taki incydent w litewskiej stolicy, który stawia poważne pytania o bezpieczeństwo.

Światowa awaria ChatGPT. Ponad tysiąc raportów z Polski z ostatniej chwili
Światowa awaria ChatGPT. Ponad tysiąc raportów z Polski

3 września 2025 roku doszło do globalnej awarii ChatGPT, która dotknęła także użytkowników w Polsce. Pierwsze sygnały o problemach pojawiły się w serwisie Downdetector przed godziną 8:00 rano, a około 9:00 liczba zgłoszeń zaczęła gwałtownie rosnąć.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane
Emerytury
Stażowe