Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Przypominamy stacji TVN, że czasy Urbana i Waltera się skończyły z ostatniej chwili
"Przypominamy stacji TVN, że czasy Urbana i Waltera się skończyły"

Stacja TVN24 bezpodstawnie uderzyła w NSZZ "Solidarność" i Telewizję Republika w związku z obchodami 45. rocznicy Porozumień Sierpniowych. "Przypominamy stacji TVN, że czasy Jerzego Urbana i jego protegowanego Mariusza Waltera skończyły się – właśnie dzięki rewolucji Solidarności" – oświadczył w swoim wpisie dyrektor programowy Telewizji Republika Michał Rachoń.

Ukrainiec, który groził Polakom podpaleniami został deportowany. Jest nagranie z ostatniej chwili
Ukrainiec, który groził Polakom podpaleniami został deportowany. Jest nagranie

W niedzielę 31 sierpnia Straż Graniczna opublikowała w mediach społecznościowych nagranie przedstawiające deportację Ukraińca, który groził Polakom podpaleniami.

Von der Leyen: Europa ma plan wysłania wojsk na Ukrainę z ostatniej chwili
Von der Leyen: Europa ma plan wysłania wojsk na Ukrainę

– Europa ma "dość precyzyjny" plan wysłania wojsk na Ukrainę – oświadczyła w rozmowie z "Financial Times" szefowa KE Ursula von der Leyen.

TVN obraził się na Solidarność. Jest oświadczenie stacji z ostatniej chwili
TVN obraził się na Solidarność. Jest oświadczenie stacji

Stacja TVN24 bezpodstawnie uderzyła w NSZZ "Solidarność" w związku z obchodami 45. rocznicy Porozumień Sierpniowych. Związek proponował stacji udostępnienie sygnału Telewizji Republika, która realizowała i bezpłatnie udostępniała wszystkim chętnym transmisję z obchodów 45-lecia Solidarności.

Niemcy przerażeni. Niebezpieczny trend wśród młodych z ostatniej chwili
Niemcy przerażeni. Niebezpieczny trend wśród młodych

W Niemczech rośnie liczba zatruć gazem rozweselającym. W 2024 roku otrzymano w tej sprawie dwa razy więcej telefonów niż w 2023 roku.

Prezydent nie przeszedł obojętnie wobec łez młodej damy na obchodach 45-lecia NSZZ Solidarność z ostatniej chwili
Prezydent nie przeszedł obojętnie wobec łez młodej damy na obchodach 45-lecia NSZZ Solidarność

Prezydent Karol Nawrocki gościł dzisiaj w historycznej Sali BHP Stoczni Gdańskiej na uroczystościach 45. rocznicy powstania NSZZ "Solidarność" i podpisania Porozumień Gdańskich.

Gdańsk: Już jutro Msza Święta w 86. rocznicę wybuchu II wojny światowej z ostatniej chwili
Gdańsk: Już jutro Msza Święta w 86. rocznicę wybuchu II wojny światowej

W najbliższy poniedziałek 1 września 2025 r. o godz. 13:30 w Gdańsku na Placu Obrońców Poczty Polskiej odbędzie się Msza Święta w 86. rocznicę wybuchu II wojny światowej.

Szokująca relacja z meczu Polska–Izrael. Za flagę Palestyny na policję? z ostatniej chwili
Szokująca relacja z meczu Polska–Izrael. Za flagę Palestyny na policję?

Ochroniarze zagrozili mi zatrzymaniem za podżeganie do nienawiści na tle rasowym i narodowościowym za namalowaną na twarzy flagę Palestyny – relacjonuje kibic, który był na sobotnim meczu Polska–Izrael w Eurobaskecie.

Nowy problem Waldemara Żurka. Sędziowie na gapę nie uzyskali pozwolenia KRS na orzekanie z ostatniej chwili
Nowy problem Waldemara Żurka. Sędziowie "na gapę" nie uzyskali pozwolenia KRS na orzekanie

Sędziowie po 65. roku życia orzekają mimo formalnego zakazu. "Ogromny problem mają strony, których orzeczenia będą uchylane, a sprawy przekazywane do ponownego rozpoznania - komentuje niepokojące zjawisko mec. dr Bartosz Lewandowski. Nowy problem prawny ma też minister Waldemar Żurek.

Komunikat dla mieszkańców Lublina z ostatniej chwili
Komunikat dla mieszkańców Lublina

12 sierpnia 2025 roku w Urzędzie Marszałkowskim Województwa Lubelskiego stwierdzono naruszenie ochrony danych osobowych, polegające na nieuprawnionym skopiowaniu danych kadrowych przez pracownika Urzędu, który nie posiadał stosownego upoważnienia do ich przetwarzania.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane
Emerytury
Stażowe