Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Tragiczny wypadek z bronią. 2-letnia dziewczynka w szpitalu z ostatniej chwili
Tragiczny wypadek z bronią. 2-letnia dziewczynka w szpitalu

W jednym z mieszkań w gminie Pasym (woj. warmińsko-mazurski) doszło prawdopodobnie do niekontrolowanego strzału z broni myśliwskiej, wskutek czego około dwuletnia dziewczynka została zraniona w stopę - podała w niedzielę policja.

Ten serial zabierze widzów w niesamowitą podróż. Odcinki już dostępne Wiadomości
Ten serial zabierze widzów w niesamowitą podróż. Odcinki już dostępne

Nowy serial dokumentalny z Willem Smithem to prawdziwa gratka dla fanów przygód. Produkcja zatytułowana „Will Smith: Wielka wyprawa” pokazuje aktora podczas 100-dniowego wyzwania inspirowanego słowami jego zmarłego mentora i poszukiwania odpowiedzi na wiele ważnych pytań.

Bez medalu dla Polski w Oberstdorfie. Triumf Japończyków Wiadomości
Bez medalu dla Polski w Oberstdorfie. Triumf Japończyków

Polacy zajęli ósme miejsce w drużynowym konkursie mistrzostw świata w lotach narciarskich w niemieckim Oberstdorfie. Złote medale zdobyli Japończycy. Srebro wywalczyli Austriacy, a brąz - Norwegowie. Słoweńcy byli na szóstej pozycji, gdyż Domen Prevc nie oddał pierwszego skoku.

Nie żyje 26-letnia influencerka. Ta wiadomość wstrząsnęła fanami Wiadomości
Nie żyje 26-letnia influencerka. Ta wiadomość wstrząsnęła fanami

Świat obiegła tragiczna wiadomość o śmierci Luli Lahfah, 26-letniej influencerki z Indonezji. Jej ciało znaleziono w apartamentowcu w prestiżowej dzielnicy Dharmawangsa w południowej Dżakarcie wieczorem 23 stycznia 2026 roku. Jak poinformowała lokalna policja, funkcjonariusze współpracują z rodziną, by ustalić dokładne okoliczności tragedii.

Czołowe zderzenie pod Grudziądzem. Są ranni, w tym troje dzieci z ostatniej chwili
Czołowe zderzenie pod Grudziądzem. Są ranni, w tym troje dzieci

Media obiegła informacja o tragicznym wypadku, do którego doszło w miejscowości Kłódka koło Grudziądza (woj. kujawsko-pomorskie). Droga jest zablokowana.

Prezydent: Polska, Litwa i Ukraina mierzą się z tym samym problemem Wiadomości
Prezydent: Polska, Litwa i Ukraina mierzą się z tym samym problemem

Niezależnie od ustroju jaki panuje w Rosji, to jest ona wciąż zagrożeniem dla regionu Europy Środkowej i Europy Wschodniej - podkreślił w niedzielę w Wilnie prezydent Karol Nawrocki podczas konferencji z przywódcami Litwy i Ukrainy.

Warszawskie zoo ma nowego mieszkańca Wiadomości
Warszawskie zoo ma nowego mieszkańca

Warszawskie zoo może pochwalić się nowym, wyjątkowym mieszkańcem. Półtora tygodnia temu na świat przyszedł tam kanczyl jawajski - niewielkie i bardzo rzadkie zwierzę pochodzące z Azji.

Erika Steinbach znów domaga się od Polski odszkodowań: To gigantyczny dług do spłacenia z ostatniej chwili
Erika Steinbach znów domaga się od Polski odszkodowań: To gigantyczny dług do spłacenia

Po tym, jak jeden z wiceszefów Alternatywy dla Niemiec (AfD) Kay Gottschalk zasugerował na platformie X, że Polska powinna zapłacić Niemcom 1,3 bln euro „odszkodowania” za rzekomy współudział w sabotażu Nord Stream, była szefowa niemieckiego Związku Wypędzonych powróciła z tematem odszkodowań za „wypędzenia” Niemców z tzw. Ziem Odzyskanych.

Nowy rozdział w astronomii. Ruszył gigantyczny projekt w Chile Wiadomości
Nowy rozdział w astronomii. Ruszył gigantyczny projekt w Chile

W sercu pustyni Atakama w Chile rusza budowa CTAO - nowoczesnego obserwatorium, które pozwoli zgłębiać promieniowanie gamma i odkrywać największe tajemnice Wszechświata.

Polacy na podium Pucharu Świata w Inzell Wiadomości
Polacy na podium Pucharu Świata w Inzell

Panczenista Damian Żurek powtórzył osiągnięcie z piątku i wygrał rywalizację Pucharu Świata w Inzell na 500 m. Polak czasem 34,06 ustanowił rekord toru, wyprzedził o 0,06 s Amerykanina Jordana Stolza. Trzeci był Marek Kania, który stracił 0,23 s.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane