Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
NFZ wydał pilny komunikat z ostatniej chwili
NFZ wydał pilny komunikat

Od 5 marca 2026 r. wygasły uprawniania w dostępie do publicznej ochrony zdrowia w Polsce dla obywateli Ukrainy, którzy byli do tej pory objęci tzw. specustawą – informuje w komunikacie NFZ.

Rządowa uchwała ws. SAFE. Mocne słowa Kaczyńskiego z ostatniej chwili
Rządowa uchwała ws. SAFE. Mocne słowa Kaczyńskiego

Prezes PiS Jarosław Kaczyński ocenił w piątek, że działania rządu i uchwała ws programu Polska Zbrojna są sprzeczne z konstytucją. Dodał, że nie sądzi, by „jakiś bank dawał nabierać na tego rodzaju nadużycie”. Nie ma żadnej gwarancji, że w przyszłości „jakiś przyzwoity polski rząd w ogóle będzie to uznawał” - dodał.

Prof. Ryszard Piotrowski: Unijna pożyczka SAFE jest niezgodna z konstytucją z ostatniej chwili
Prof. Ryszard Piotrowski: Unijna pożyczka SAFE jest niezgodna z konstytucją

Konstytucjonalista prof. Ryszard Piotrowski zabrał głos w sprawie unijnej pożyczki SAFE. Jego zdaniem ustawa narusza konstytucję i nie mieści się w polskim porządku prawnym.

Pieniądze na zbrojenia. Czarnek: Tu nie ma miękkiej gry wideo
Pieniądze na zbrojenia. Czarnek: Tu nie ma miękkiej gry

– Tu miękkiej gry nie ma, bo tu chodzi o bezpieczeństwo Polaków – powiedział podczas piątkowej konferencji prasowej kandydat PiS na premiera, poseł prof. Przemysław Czarnek, grożąc rządowi odpowiedzialnością karną, gdyby ten zdecydował się na nielegalne przyjęcie unijnej pożyczki SAFE.

Unijna pożyczka SAFE zawetowana. Tusk ujawnił plan rządu z ostatniej chwili
Unijna pożyczka SAFE zawetowana. Tusk ujawnił plan rządu

– Rząd przyjmie uchwałę, na podstawie której zostanie zrealizowany program Polska Zbrojna. (…) Weto prezydenta pod ustawą wdrażającą program SAFE nas nie zatrzyma – stwierdził w piątek, tuż przed nadzwyczajnym posiedzeniem rządu, premier Donald Tusk.

Grecy zatrzymali Polaka podejrzanego o szpiegostwo z ostatniej chwili
Grecy zatrzymali Polaka podejrzanego o szpiegostwo

Greckie władze zatrzymały mężczyznę w pobliżu strategicznie ważnych obiektów marynarki wojennej w zatoce Suda na Krecie – poinformowała w piątek agencja AFP. Mężczyzna legitymujący się polskim paszportem jest podejrzewany o szpiegostwo – przekazał portal dziennika "Kathimerini".

Złe wieści dla Donalda Tuska. Nowy sondaż z ostatniej chwili
Złe wieści dla Donalda Tuska. Nowy sondaż

Koalicja Obywatelska utrzymuje prowadzenie nad Prawem i Sprawiedliwością. Premier Donald Tusk miałby jednak duży problem, aby utworzyć większość koalicyjną – wynika z sondażu IBRiS dla Onetu.

Komunikat Straży Granicznej. Pilne doniesienia z granicy z ostatniej chwili
Komunikat Straży Granicznej. Pilne doniesienia z granicy

Straż Graniczna opublikowała najnowsze dane dotyczące sytuacji na granicach Polski. 12 marca 2026 r. Straż Graniczna skontrolowała łącznie ponad 7,6 tys. osób na granicach z Litwą i Niemcami. Poinformowano też o sytuacji na granicy z Białorusią.

Karol Nawrocki zawetował SAFE. Zbadano komentarze w sieci z ostatniej chwili
Karol Nawrocki zawetował SAFE. Zbadano komentarze w sieci

Przeanalizowano sieć po wecie prezydenta Karola Nawrockiego ws. unijnej pożyczki SAFE. Internauci podzielili się niemal po równo, ale emocje były skrajne.

ZUS wydał pilny komunikat z ostatniej chwili
ZUS wydał pilny komunikat

ZUS zapowiada przerwę serwisową aplikacji mZUS i mZUS dla Lekarza.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane