Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
J.D. Vance: Europejczycy robią wiele rzeczy, by sabotować samych siebie z ostatniej chwili
J.D. Vance: Europejczycy robią wiele rzeczy, by sabotować samych siebie

To nie jest tak, że nie szanujemy naszych sojuszników, lecz Europejczycy robią wiele rzeczy, by sabotować samych siebie - powiedział we wtorek w telewizji Fox News wiceprezydent USA J.D. Vance. Pochwalił sobotnie przemówienie sekretarza stanu USA Marco Rubio na Monachijskiej Konferencji Bezpieczeństwa.

Ostry spór po odejściu z Kanału Zero. Stanowski nazwał Wolskiego „dezerterem” z ostatniej chwili
Ostry spór po odejściu z Kanału Zero. Stanowski nazwał Wolskiego „dezerterem”

Między twórcą Kanału Zero Krzysztofem Stanowskim a zajmującym się wojskowością youtuberem Jarosławem Wolskim wybuchł konflikt po odejściu Wolskiego z projektu. Stanowski określił go jako „dezertera”.

Prof. Boštjan Marko Turk: Zanikają sprzeczności pomiędzy wiarą a nauką. Wszechświat wydaje się dostrojony do życia tylko u nas
Prof. Boštjan Marko Turk: Zanikają sprzeczności pomiędzy wiarą a nauką. Wszechświat wydaje się dostrojony do życia

Ludzkość przekracza dziś próg nowej epoki, bez wątpienia najbardziej decydującej od czasów rewolucji przemysłowej. O ile ta ostatnia oznaczała przede wszystkim zerwanie natury technologicznej — przemianę, którą sztuczna inteligencja dziś przedłuża i intensyfikuje — o tyle to, co obecnie się wyłania, wykracza daleko poza sam obszar narzędzi i maszyn: chodzi o radykalne transformacje, dotykające samej istoty istnienia.

Tragiczny wypadek w Alpach. Nie żyje narciarz z Polski z ostatniej chwili
Tragiczny wypadek w Alpach. Nie żyje narciarz z Polski

Trzy osoby, w tym Polak i Brytyjczyk polskiego pochodzenia, zginęły we wtorek w lawinach we francuskich Alpach - poinformowała miejscowa prokuratura. Dwaj narciarze zginęli, gdy zjeżdżali poza wyznaczonymi trasami w departamencie Alpy Wysokie, a jeden turysta został porwany przez lawinę w Sabaudii.

Kucharz Putina wiecznie żywy. Nowe zadania wagnerowców - sabotaż w Europie tylko u nas
Kucharz Putina wiecznie żywy. Nowe zadania wagnerowców - sabotaż w Europie

Według danych zachodnich służb wywiadowczych, zasoby rekrutacyjne dawnej Grupy Wagnera pozostałe po czasach Prigożyna, zostały przeniesione na obszar Europy. Kiedyś werbowali najemników na wojnę z Ukrainą i na misje wojskowe w Afryce czy na Bliskim Wschodzie, teraz dostali nowe zadanie. Jak ustalił „Financial Times”, chodzi o „rekrutowanie osób w trudnej sytuacji ekonomicznej z Europy do popełniania przestępstw w krajach NATO”. Byli wagnerowcy są też wykorzystywania na innych frontach walki Rosji z Zachodem, w mniej lub bardziej bezpośredni sposób.

Burza w Polsce 2050. Wiceszef MON opuszcza partię z ostatniej chwili
Burza w Polsce 2050. Wiceszef MON opuszcza partię

Jestem wierny obietnicom z 2023 r. Niestety po odejściu Polski 2050 od wartości, które głosiliśmy w Trzeciej Drodze, nie jestem w stanie ich wypełniać - napisał na X wiceszef MON Paweł Zalewski. Zapowiedział, że „pozostanie niezrzeszonym”.

Radni odwołali starostę z KO w Karkonoszach. W tle śledztwo ws... sfałszowanej matury polityka z ostatniej chwili
Radni odwołali starostę z KO w Karkonoszach. W tle śledztwo ws... sfałszowanej matury polityka

Mirosław Górecki (KO) został nowym starostą karkonoskim. Decyzję w tej sprawie podjęli radni powiatu we wtorek. Wcześniej odwołali z tej funkcji Krzysztofa Wiśniewskiego (KO). Powodem była utrata zaufania po podejrzeniach, że posługuje się sfałszowanym świadectwem dojrzałości.

Komunikat dla mieszkańców woj. podkarpackiego z ostatniej chwili
Komunikat dla mieszkańców woj. podkarpackiego

W styczniu 2026 lotnisko Rzeszów-Jasionka obsłużyło 69 543 pasażerów. To wzrost rok do roku – podkreślono w komunikacie Rzeszów Airport i przypomniano, że lotnisko zakończyło rok 2025 z najlepszym wynikiem w swojej historii.

Incydent na kolei w Puławach. Są nowe informacje z ostatniej chwili
Incydent na kolei w Puławach. Są nowe informacje

Prokuratura Okręgowa w Lublinie prowadzi postępowanie w sprawie Mołdawianina zatrzymanego na stacji kolejowej w Puławach po tym, jak uruchomił hamulec ręczny w trzech wagonach pociągu towarowego. Mężczyzna miał przy sobie m.in. telefony komórkowe, sprzęt elektroniczny i karty SIM.

Spada liczba euroentuzjastów. Nowy sondaż o nastrojach Polaków wobec UE z ostatniej chwili
Spada liczba euroentuzjastów. Nowy sondaż o nastrojach Polaków wobec UE

Poparcie dla członkostwa w Unii Europejskiej pozostaje w Polsce wysokie, ale najnowszy sondaż pokazuje wyraźną zmianę nastrojów. Ubywa osób chcących pogłębiania integracji, a rośnie grupa zwolenników silniejszej roli państw narodowych.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane