Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
ONZ grozi bankructwo z ostatniej chwili
ONZ grozi bankructwo

Cytowany przez BBC szef organu ostrzegł, że Organizacji Narodów Zjednoczonych grozi „bezpośrednie załamanie finansowe" z powodu niepłacenia przez państwa członkowskie składek.

Premier Belgii wezwał przywódców UE do “rozprawienia się” z Komisją Europejską z ostatniej chwili
Premier Belgii wezwał przywódców UE do “rozprawienia się” z Komisją Europejską

Jak poinformował portal brusselsreport.eu. przemawiając na noworocznym wydarzeniu „Przyszłość Europy” belgijskiego dziennika De Tijd, premier Belgii Bart De Wever oświadczył, że europejscy przywódcy muszą podjąć „represje” wobec Komisji Europejskiej.

Tragedia w Hamburgu. Imigrant z Sudanu wciągnął pod pociąg metra przypadkową dziewczynę z ostatniej chwili
Tragedia w Hamburgu. Imigrant z Sudanu wciągnął pod pociąg metra przypadkową dziewczynę

W czwartek wieczorem na stacji metra Wandsbek Markt w Hamburgu imigrant z Sudanu wciągnął pod nadjeżdżający pociąg przypadkową dziewczynę. Zginęli oboje. Wydział zabójstw (LKA 41) przejął śledztwo w sprawie podejrzenia zabójstwa.

Tȟašúŋke Witkó: O Europie bez Europy tylko u nas
Tȟašúŋke Witkó: O Europie bez Europy

Czy ja kiedykolwiek pisałem Państwu, że Europa jest rządzona przez osobników, których charakteryzuje skrajny infantylizm? Pewnie pisałem i to wielokrotnie, ale dopiero wtedy, kiedy człowiek uświadomi sobie, że taka Francja – kraj zamieszkiwany przez niemalże 70 mln ludzi – kierowana jest batutą Emmanuela Macrona, człeka o intelekcie pośledniejszym, niż rozum Ewy Kopacz, może ogarnąć autentyczne przerażenie.

Zmarła znana hollywoodzka aktorka z ostatniej chwili
Zmarła znana hollywoodzka aktorka

Aktorka Catherine O'Hara zmarła w piątek w swoim domu w Los Angeles - poinformowała agencja reprezentująca artystkę. Urodzona w Kanadzie O'Hara miała 71 lat. Była znana m.in. z roli w filmie „Kevin sam w domu”, gdzie wcieliła się w matkę tytułowego chłopca czy kreacji w „Soku z żuka”.

Zdrowe państwo strzela do najeźdźców. Upadające – atakuje obrońców granic tylko u nas
Zdrowe państwo strzela do najeźdźców. Upadające – atakuje obrońców granic

Prokuratura postawiła żołnierzowi broniącemu granic zarzuty, a nielegalny imigrant domaga się odszkodowania. Agresor jest chroniony, a obrońca granic atakowany z urzędu. Ten scenariusz znamy z krajów Zachodu, a jest on elementem głębokiej inżynierii społecznej mającej na celu uczynienie wojska i obywateli niezdolnymi do obrony granic.

Rada Europy nie uderza w terapie konwersyjne tylko w wolność tylko u nas
Rada Europy nie uderza w "terapie konwersyjne" tylko w wolność

Rada Europy przyjęła właśnie rezolucję, która zakazuje „terapii konwersyjnych”. Nawet na Zachodzie Europy, gdzie było to częstą praktyką nie stosuje się od dawna niebezpiecznych praktyk "konwersyjnych", za to Rada Europy wrzuca nieszkodliwe praktyki religijne do jednego worka z torturami. Nowa rezolucja wspiera też ideologię gender, zaprzeczając ludzkiej biologii.

Sąd Najwyższy: legitymowanie nie jest dowolną władzą Policji tylko u nas
Sąd Najwyższy: legitymowanie nie jest dowolną władzą Policji

Czy obywatel ma obowiązek podać swoje dane osobowe zawsze, gdy funkcjonariusz tego zażąda? Sąd Najwyższy w wyroku z 17 grudnia 2025 r. (II KK 473/25) odpowiada jednoznacznie: nie.

Byłem na obchodach wyzwolenia Auschwitz. Karol Nawrocki stanął na wysokości zadania tylko u nas
Byłem na obchodach "wyzwolenia" Auschwitz. Karol Nawrocki stanął na wysokości zadania

Jak co roku 27 stycznia, pragniemy uczcić pamięć naszych Przodków w Muzeum Auschwitz-Birkenau. Jak co roku, towarzyszą nam te same procedury. Nikt bez zgody muzeum nie zostaje wpuszczony, by oddać hołd wszystkim ofiarom niemieckich zbrodni, w tym także Polakom. Świadczy temu szereg procedur, które działają tam od dłuższego już czasu. Procedur, które w żadnym innym byłym obozie czy to w Polsce czy na zachodzie, nie są praktykowane.

Mjr Rocco Spencer o zarzutach dla żołnierza: Wojsko musi stanąć i dać tym kretynom znać, że to oni dowodzą tylko u nas
Mjr Rocco Spencer o zarzutach dla żołnierza: Wojsko musi stanąć i dać tym kretynom znać, że to oni dowodzą

„Jeśli podążał za ROE (zasady użycia siły), to potknięcie się nie ma z tym nic wspólnego. Jeśli takie ściganie zostanie dopuszczone, podważy to morale żołnierzy i poczucie obowiązku” - skomentował mjr Rocco Spencer, były oficer US Army, zarzuty wobec broniącego granicy żołnierza, który od prokuratury Waldemara Żurka usłyszał zarzuty.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane