Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Doda podzieliła się radosną nowiną.  Ale się cieszę z ostatniej chwili
Doda podzieliła się radosną nowiną. "Ale się cieszę"

Doda podzieliła się radosną nowiną – zagra koncert na PGE Narodowym w Warszawie. Wydarzenie zaplanowano na 2027 rok.

Wyłączenia prądu w Katowicach. Ważny komunikat dla mieszkańców z ostatniej chwili
Wyłączenia prądu w Katowicach. Ważny komunikat dla mieszkańców

Mieszkańcy Katowic muszą przygotować się na planowane przerwy w dostawie prądu. Sprawdź, gdzie nastąpią wyłączenia.

Sikorski otwarcie poparł ograniczanie wolności słowa? Szokujące słowa w Monachium pilne
Sikorski otwarcie poparł ograniczanie wolności słowa? Szokujące słowa w Monachium

Debata o granicach wolności słowa wraca z nową siłą. Po prezydenckim wecie wobec ustawy wdrażającej DSA głos zabrał podczas konferencji w Monachium Radosław Sikorski, wskazując na „cywilizacyjne różnice” między Europą a Stanami Zjednoczonymi.

Władimir Siemirunnij zdobył srebrny medal. Rosja nam tego nie wybaczy tylko u nas
Władimir Siemirunnij zdobył srebrny medal. Rosja nam tego nie wybaczy

Srebrny medal zdobyty przez Władimir Siemirunnij na Zimowe Igrzyska Olimpijskie 2026 to nie tylko sportowy sukces. Urodzony w Rosji panczenista, który otrzymał polskie obywatelstwo i trenuje w Tomaszowie Mazowieckim, stał się symbolem szerszej dyskusji o polityce, migracji i znaczeniu sportu w relacjach międzynarodowych. Czy jeden medal może mieć geopolityczne konsekwencje?

Ostrzeżenie dla mieszkańców woj. podkarpackiego z ostatniej chwili
Ostrzeżenie dla mieszkańców woj. podkarpackiego

Wojewódzkie Centrum Zarządzania Kryzysowego opublikowało ostrzeżenia dla 16 powiatów w woj. podkarpackim. Dotyczą intensywnych opadów śniegu.

Skandal w ukraińskiej energetyce. Polityk zatrzymany przez NABU za korupcję z ostatniej chwili
Skandal w ukraińskiej energetyce. Polityk zatrzymany przez NABU za korupcję

Były minister energetyki Ukrainy został zatrzymany podczas próby opuszczenia kraju. Narodowe Biuro Antykorupcyjne Ukrainy potwierdziło, że chodzi o Hermana Hałuszczenkę, który figuruje w śledztwie dotyczącym wielomilionowej afery korupcyjnej w sektorze energetycznym.

Szokujące słowa europoseł Lewicy. Nagranie wywołało burzę w sieci z ostatniej chwili
Szokujące słowa europoseł Lewicy. Nagranie wywołało burzę w sieci

W studiu Radia ZET padły słowa, które oburzenie w sieci. Joanna Scheuring-Wielgus w szokujący sposób odpowiedziała na uwagę o możliwym zastępstwie prezydenta przez marszałka Włodzimierza Czarzastego.

USA wycofują się z polityki klimatycznej. Berlin mówi o „ideologicznej” motywacji pilne
USA wycofują się z polityki klimatycznej. Berlin mówi o „ideologicznej” motywacji

Administracja USA usunęła prawną podstawę niemal wszystkich federalnych regulacji klimatycznych. Decyzja prezydenta Donalda Trumpa i szefa EPA oznacza, że gazy cieplarniane nie są już uznawane za zagrożenie dla zdrowia publicznego i dobrobytu.

Najpierw śnieg, potem siarczysty mróz. W tych regionach będzie najtrudniej z ostatniej chwili
Najpierw śnieg, potem siarczysty mróz. W tych regionach będzie najtrudniej

Arktyczne powietrze wchodzi do Polski. W niedzielę śnieg na południu, w centrum i na wschodzie, a w nocy spadki temperatury nawet do minus 22 st. C – informuje w niedzielnym komunikacie IMGW.

Wysokie ceny prądu. Prezydent: Ludzie powinni pytać marszałka Czarzastego z ostatniej chwili
Wysokie ceny prądu. Prezydent: Ludzie powinni pytać marszałka Czarzastego

– Ludzie powinni być zawiedzeni tym, jak kwestia cen prądu jest upolityczniona przez polski parlament i pytać marszałka Sejmu, dlaczego mrozi najlepszą gotową ustawę do obniżenia cen energii elektrycznej o 33 proc. – powiedział w niedzielę prezydent Karol Nawrocki.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane