Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Polacy ewakuowani z Bliskiego Wschodu wrócili do kraju z ostatniej chwili
Polacy ewakuowani z Bliskiego Wschodu wrócili do kraju

W sobotę o godz. 20.16 w Warszawie wylądował pierwszy z dwóch samolotów wojskowych wracających z Rijadu; na pokładach dwóch samolotów do kraju wraca 106 ewakuowanych z rejonu Bliskiego Wschodu - przekazało Dowództwo Operacyjne RSZ.

Tragiczny wypadek w Tatrach. Turysta spadł ze stromego zbocza z ostatniej chwili
Tragiczny wypadek w Tatrach. Turysta spadł ze stromego zbocza

Turysta zginął w sobotę w Tatrach Zachodnich po upadku stromym, ośnieżonym zboczem w rejonie Starorobociańskiego Wierchu. Mimo szybkiej akcji ratowników TOPR i ponad półgodzinnej reanimacji życia mężczyzny nie udało się uratować.

Będę mieć święty spokój. Szczere wyznanie znanego aktora Wiadomości
"Będę mieć święty spokój". Szczere wyznanie znanego aktora

Cezary Żak coraz częściej mówi o tym, że zbliża się moment zakończenia jego wieloletniej kariery aktorskiej. Artysta, znany m.in. z roli w serialu „Ranczo”, podkreśla, że w życiu zaczynają być dla niego ważne inne rzeczy niż praca zawodowa.

Tomasiak w TOP 10 w Lahti. Trzech Polaków odpadło po pierwszej serii Wiadomości
Tomasiak w TOP 10 w Lahti. Trzech Polaków odpadło po pierwszej serii

Kacper Tomasiak zajął 10. miejsce, Piotr Żyła był 22., a Maciej Kot - 28. w sobotnim konkursie Pucharu Świata w skokach narciarskich w fińskim Lahti. Po pierwszej serii odpadli 34. Kamil Stoch, 41. Dawid Kubacki i 47. Paweł Wąsek. Wygrał Austriak Daniel Tschofenig.

Ukrywał się 16 lat. Policja znalazła go w nietypowym miejscu Wiadomości
Ukrywał się 16 lat. Policja znalazła go w nietypowym miejscu

Policjanci z Radomia zatrzymali 65-letniego mężczyznę, który przez wiele lat unikał odpowiedzialności karnej. Poszukiwany ukrywał się przed wymiarem sprawiedliwości aż 16 lat.

Tajemnicza śmierć aktorki. Nowe informacje w sprawie Magdaleny Majtyki Wiadomości
Tajemnicza śmierć aktorki. Nowe informacje w sprawie Magdaleny Majtyki

Śledczy wyjaśniają okoliczności śmierci aktorki Magdaleny Majtyki. Ciało 41-letniej artystki odnaleziono w piątek w Biskupicach Oławskich. Prokuratura prowadzi postępowanie w tej sprawie, a sekcja zwłok ma zostać przeprowadzona najwcześniej w poniedziałek. Na tym etapie śledztwa nie wiadomo jeszcze, czy w zdarzeniu brały udział osoby trzecie.

IMGW wydał nowy komunikat. Prognoza pogody na najbliższe dni Wiadomości
IMGW wydał nowy komunikat. Prognoza pogody na najbliższe dni

Jak informuje Instytut Meteorologii i Gospodarki Wodnej, nad Europą dominować będą układy wysokiego ciśnienia, jedynie częściowo Skandynawia oraz Wyspy Brytyjskie znajdą się pod wpływem niżów. Polska będzie w zasięgu rozległego wyżu z centrum nad Białorusią, w ciepłym i dość suchym powietrzu polarnym.

Przemysław Czarnek kandydatem na premiera. Jest decyzja Komitetu Politycznego PiS z ostatniej chwili
Przemysław Czarnek kandydatem na premiera. Jest decyzja Komitetu Politycznego PiS

Po zakończeniu konwencji PiS w Krakowie Komitet Polityczny partii jednogłośnie udzielił poparcia wiceprezesowi ugrupowania Przemysławowi Czarnkowi jako kandydatowi na premiera - przekazał poseł PiS Jacek Sasin.

Sześciu Polaków w konkursie PŚ w Lahti. Stoch najlepszy w kwalifikacjach Wiadomości
Sześciu Polaków w konkursie PŚ w Lahti. Stoch najlepszy w kwalifikacjach

Sześciu polskich skoczków narciarskich awansowało do sobotniego konkursu Pucharu Świata w fińskim Lahti. W kwalifikacjach Kamil Stoch zajął 15. miejsce, Paweł Wąsek był 23., Dawid Kubacki - 29., Maciej Kot - 31., Kacper Tomasiak - 42., a Piotr Żyła - 47.

Kryształ czasu naprawdę istnieje. Naukowcy po raz pierwszy mogli go zobaczyć tylko u nas
Kryształ czasu naprawdę istnieje. Naukowcy po raz pierwszy mogli go zobaczyć

Naukowcy po raz pierwszy mogli bezpośrednio zobaczyć tzw. kryształ czasu – niezwykły stan materii, który przez lata uznawano za czysto teoretyczny. Struktura ta powtarza swój wzór nie tylko w przestrzeni, ale także w czasie. Odkrycie może mieć znaczenie dla komputerów kwantowych i nowych technologii optycznych.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane