Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
USA wskazuje Polskę jako wzór. Rose: Nie możemy być wszędzie, potrzebujemy was z ostatniej chwili
USA wskazuje Polskę jako wzór. Rose: Nie możemy być wszędzie, potrzebujemy was

Im silniejsza Polska, tym silniejsza Ameryka - podkreślił we wtorek ambasador USA w Polsce Thomas Rose. Jak dodał, wszystkie kraje w Europie muszą podążyć za przykładem Polski, zwiększając swoje zaangażowanie w obronność, by chronić rolę USA jako nieodłącznego partnera w NATO.

Pożar na terenie Portu Wojennego w Gdyni. Wojsko wydało komunikat z ostatniej chwili
Pożar na terenie Portu Wojennego w Gdyni. Wojsko wydało komunikat

We wtorkowy wieczór w gdyńskim Porcie Wojennym doszło do pożaru. Nad Oksywiem uniósł się gęsty dym, a na miejsce natychmiast skierowano kilka zastępów straży pożarnej. Marynarka Wojenna RP wydała komunikat.

Polskie MIGi w zamian za dostęp do ukraińskich technologii dronowych i rakietowych? z ostatniej chwili
Polskie MIGi w zamian za dostęp do ukraińskich technologii dronowych i rakietowych?

Polska rozważa przekazanie Ukrainie wycofywanych ze służby samolotów MIG-29 – wynika z komunikatu Sztab Generalnego Wojska Polskiego, opublikowanego na X. Jak podkreślono, decyzja nie została jeszcze podjęta, a operacja ma wzmocnić wsparcie Ukrainy i bezpieczeństwo wschodniej flanki NATO. "W związku z planowanym przekazaniem MIG-29 prowadzone są także rozmowy z Ukrainą w zakresie udostępnienia wybranych technologii dronowych i rakietowych" - czytamy w komunikacie 

Zełenski gotów przeprowadzić wybory na Ukrainie. Postawił jeden warunek z ostatniej chwili
Zełenski gotów przeprowadzić wybory na Ukrainie. Postawił jeden warunek

Prezydent Ukrainy Wołodymyr Zełenski oświadczył, że wybory na Ukrainie mogłyby odbyć się w ciągu 60–90 dni, jeśli USA i Europa zagwarantują bezpieczeństwo podczas głosowania.

Delhi coraz bliżej Moskwy. Co na to Donald Trump? tylko u nas
Delhi coraz bliżej Moskwy. Co na to Donald Trump?

Wizyta Władimira Putina w Indiach pokazała, że Delhi coraz odważniej zbliża się do Moskwy – mimo presji USA i globalnych sankcji. Rosnące interesy energetyczne i militarne łączą oba kraje, a świat czeka na reakcję Donalda Trumpa, który musi zdecydować, jak odpowiedzieć na ten geopolityczny zwrot.

PKO BP wydał pilny komunikat dla swoich klientów Wiadomości
PKO BP wydał pilny komunikat dla swoich klientów

Przestępcy sięgają po narzędzia sztucznej inteligencji, aby tworzyć przekonujące fałszywe legitymacje bankowe. Dzięki nim podszywają się pod pracowników instytucji finansowych i próbują wyłudzić pieniądze od klientów. Bank ostrzega: żadnych legitymacji ani wizytówek nie wysyłamy SMS-em ani mailem.

Gizela Jagielska już poza szpitalem w Oleśnicy z ostatniej chwili
Gizela Jagielska już poza szpitalem w Oleśnicy

Gizela Jagielska – jedna z najbardziej rozpoznawalnych w Polsce aborcjonistek – poinformowała, że z końcem roku przestaje pracować w szpitalu w Oleśnicy. Jak podkreśliła w nagraniu opublikowanym w mediach społecznościowych, to nie była jej decyzja. 

Ceny gazu spadają. To świetna wiadomość dla Polski i fatalna dla Rosji  Wiadomości
Ceny gazu spadają. To świetna wiadomość dla Polski i fatalna dla Rosji 

Ceny gazu w Europie spadają do poziomów niewidzianych od 2024 roku, co poprawia sytuację polskich importerów i producentów nawozów, a jednocześnie ogranicza dochody Rosji z eksportu surowca. Niższe ceny kontraktów holenderskich dają ulgę sektorowi chemicznemu i przemysłowi nawozowemu, choć konsumenci w domach będą musieli poczekać na tańszy gaz do połowy 2026 roku.

Zamieszanie wokół decyzji Wilna. Litwa dementuje informacje o „stanie wyjątkowym” z ostatniej chwili
Zamieszanie wokół decyzji Wilna. Litwa dementuje informacje o „stanie wyjątkowym”

Na Litwie nie wprowadzono stanu wyjątkowego, tylko stan sytuacji ekstremalnej, to dwie różne formuły prawne, inne są też procedury ich wprowadzania – wyjaśniła we wtorek ambasada Litwy w Warszawie, gdy w mediach pojawiły się informacje o wprowadzeniu przez Wilno stanu wyjątkowego.

Nie żyje reżyser kultowych polskich bajek z ostatniej chwili
Nie żyje reżyser kultowych polskich bajek

Zofia Ołdak, wybitna reżyser i autorka kultowych serii animowanych „Plastuś” i „Piesek w kratkę”, zmarła w wieku 95 lat. Artystka pozostawiła po sobie dorobek kilkudziesięciu filmów krótkometrażowych, które na trwałe wpisały się w historię polskiej animacji.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane