Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Wykryto nowy sabotaż na kolei. Tym razem w okolicy Azotów Puławy z ostatniej chwili
Wykryto nowy sabotaż na kolei. Tym razem w okolicy Azotów Puławy

W rejonie stacji kolejowej w Puławach ktoś zarzucił łańcuch na sieć energetyczną, co doprowadziło do zwarcia i wybicia szyb w jednym z wagonów pociągu relacji Świnoujście-Rzeszów. Chwilę później skład przeciął przykręconą do szyn blaszkę w kształcie litery V, która mogła doprowadzić do wykolejenia pociągu – informują reporterzy RMF FM.

Podczas wojny 54 proc. mieszkańców polskich miast znajdzie się w strefie zagrożeń. Raport pilne
Podczas wojny 54 proc. mieszkańców polskich miast znajdzie się w strefie zagrożeń. Raport

Najnowszy raport BGK pokazuje, że ponad połowa mieszkańców dużych miast żyje na obszarach uznanych za zagrożone, choć wciąż stosunkowo odporne. Ryzyka dotyczą zarówno klimatu, jak i zdrowia, sytuacji humanitarnej oraz bezpieczeństwa militarnego.

Niemcy w strachu odwołują jarmarki świąteczne lub nadają im inne nazwy Wiadomości
Niemcy w strachu odwołują jarmarki świąteczne lub nadają im inne nazwy

Magdeburg jest kolejnym niemieckim miastem, które odwołało jarmark bożonarodzeniowy z powodu obaw o bezpieczeństwo. Wszyscy pamiętają sceny, gdy w grudniu ubiegłego roku saudyjski psychiatra i uchodźca, Taleb al-Abdulmohsen, wjechał samochodem w tłum podczas miejskich obchodów, zabijając sześć osób. Teraz istnieją obawy, że podobny atak może się powtórzyć, a nikt nie potrafi zapewnić odpowiednich środków bezpieczeństwa. Portal European Conservative zastanawia się, czy jarmark bożonarodzeniowy w Niemczech umiera. A niemieckie media cytują dane o lęku przed atakami terrorystycznymi na jarmarkach.

Oprawa polskich kibiców zakazana, ukraińskich nie. Politycy pytają o decyzje służb z ostatniej chwili
Oprawa polskich kibiców zakazana, ukraińskich nie. Politycy pytają o decyzje służb

Po meczu reprezentacji Ukrainy w Warszawie ponownie rozgorzała dyskusja o decyzjach służb. Ukraińscy kibice pokazali własną, wyrazistą oprawę, choć dwa dni wcześniej polskim fanom odmówiono wniesienia patriotycznego baneru.

Kaczyński zostanie przesłuchany? Chodzi o słowa ws. śmierci Leppera z ostatniej chwili
Kaczyński zostanie przesłuchany? Chodzi o słowa ws. śmierci Leppera

Jarosław Kaczyński mówił w sobotę o "zamordowaniu" Andrzeja Leppera. Minister sprawiedliwości odpowiedział, że takie słowa wymagają wyjaśnień i zapowiedział możliwe przesłuchanie prezesa PiS.

Była premier skazana na karę śmierci z ostatniej chwili
Była premier skazana na karę śmierci

Była premier Bangladeszu, Sheikh Hasina Wajed, została skazana na karę śmierci za wydanie rozkazu brutalnego stłumienia protestów studenckich z 2024 roku. Decyzja sądu zapadła podczas jej nieobecności i wywołała globalne poruszenie, ponieważ sprawa dotyczy jednej z najważniejszych postaci politycznych współczesnego Bangladeszu.

Atak dywersyjny na kolej. Tusk: Celem był prawdopodobnie pociąg z ostatniej chwili
Atak dywersyjny na kolej. Tusk: Celem był prawdopodobnie pociąg

Premier Donald Tusk potwierdził dwa poważne incydenty na trasie Warszawa–Lublin. W jednym miejscu doszło do eksplozji ładunku wybuchowego, w innym pociąg z 475 osobami musiał gwałtownie hamować przez uszkodzone tory.

Stadler składa skargę na PKP Intercity z ostatniej chwili
Stadler składa skargę na PKP Intercity

Stadler Polska zapowiadział na dziś złożenie skargi do sądu w związku z rozstrzygnięciem jednego z największych przetargów taborowych w historii PKP Intercity. Producent twierdzi, że kluczowym elementem, który przesądził o wyborze konkurencyjnej oferty Alstomu, nie były koszty, lecz sposób punktowania terminów dostawy. Stawką jest kontrakt wart ok. 7 mld zł.

Eksplozja na torach. Są nowe informacje z ostatniej chwili
Eksplozja na torach. Są nowe informacje

Na trasie Warszawa-Lublin między miejscowościami Życzyn i Mika doszło do aktu dywersji. Premier Donald Tusk zapowiedział, że Polska "dopadnie sprawców". Komunikat wydało także Biuro Bezpieczeństwa Narodowego.

Niepokojące informacje z granicy. Komunikat Straży Granicznej z ostatniej chwili
Niepokojące informacje z granicy. Komunikat Straży Granicznej

Straż Graniczna publikuje raporty dotyczące wydarzeń na polskiej granicy zarówno ze strony Białorusi, Litwy jak i Niemiec.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane
Emerytury
Stażowe