Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Politico o wojnie w Brukseli. Kallas miała nazwać von der Leyen „dyktatorem” z ostatniej chwili
Politico o wojnie w Brukseli. Kallas miała nazwać von der Leyen „dyktatorem”

Nieoficjalne doniesienia z Brukseli ujawniają narastające napięcia na samym szczycie Unii Europejskiej. Według ustaleń serwisu „Politico” relacje między szefową unijnej dyplomacji Kają Kallas, a przewodniczącą Komisji Europejskiej Ursulą von der Leyen są wyjątkowo złe. 

Paweł Jędrzejewski: Wielki Kalifat Europy? z ostatniej chwili
Paweł Jędrzejewski: Wielki Kalifat Europy?

Czy Europa stworzy nowe groźne fanatyzmy i mordercze idee? Nie "gabinetowe", jak klimatyzm, czy multikulturalizm, niszczące Europę dzień po dniu, ale prawdziwie "uliczne" - takie, jakimi były komunizm, faszyzm, nazizm - porywające masy i mordujące otwarcie wrogów (klasowych, rasowych, etnicznych). Pamiętamy z kronik tłumy wiwatujące na cześć Hitlera na niemieckich, nazistowskich parteitagach. Tysiące Włochów pod balkonem Mussoliniego. Falujące morze ludzi na bolszewickich wiecach, gdy przemawiał Lenin, Trocki lub Stalin. Do takiego zjednoczenia i wspólnoty zawsze potrzebny jest wspólny wróg i jednocząca nienawiść. Czy pojawią się ich nowe, współczesne odpowiedniki?

Trump stawia Iran pod presją. „Wysłałem do regionu dużą armadę” z ostatniej chwili
Trump stawia Iran pod presją. „Wysłałem do regionu dużą armadę”

Prezydent USA Donald Trump powiedział w poniedziałek portalowi Axios, że sytuacja wokół Iranu „jest zmienna”, bo wysłał na Bliski Wschód „dużą armadę”. Ocenił jednocześnie, że Teheran chciałby zawrzeć porozumienie.

„Wbrew rządowej propagandzie...”. Mariusz Błaszczak studzi emocje ws. pieniędzy z programu SAFE z ostatniej chwili
„Wbrew rządowej propagandzie...”. Mariusz Błaszczak studzi emocje ws. pieniędzy z programu SAFE

W poniedziałek MON poinformował, że Komisja Europejska pozytywnie zaopiniowała dokumenty złożone przez Polskę, które dotyczą pozyskania funduszy w wysokości blisko 44 mld euro z programu SAFE. Narrację rządu krytycznie skomentował były szef MON, Mariusz Błaszczak.

IMGW wydał pilny komunikat. Oto co nas czeka w najbliższych dniach z ostatniej chwili
IMGW wydał pilny komunikat. Oto co nas czeka w najbliższych dniach

Instytut Meteorologii i Gospodarki Wodnej przedłużył ostrzeżenia pogodowe dla dużej części kraju. W najbliższych godzinach i dniach Polacy muszą liczyć się z marznącymi opadami, gęstą mgłą, oblodzeniem oraz roztopami. Przed niebezpieczną sytuacją na drogach ostrzega także Rządowe Centrum Bezpieczeństwa.

Jest apel do Rzecznika Praw Obywatelskich ws. Adama Borowskiego z ostatniej chwili
Jest apel do Rzecznika Praw Obywatelskich ws. Adama Borowskiego

Byli działacze opozycji demokratycznej z czasów PRL zwrócili się z pilnym apelem do Rzecznika Praw Obywatelskich w sprawie prawomocnego wyroku sądu wobec Adama Borowskiego. W liście, podpisanym przez blisko sto osób, domagają się interwencji i podnoszą argumenty dotyczące wolności słowa oraz kontrowersyjnego charakteru przepisów, na podstawie których zapadł wyrok.

Karol Nawrocki: Polska nieustannie wspiera Mołdawię w jej drodze do Unii Europejskiej z ostatniej chwili
Karol Nawrocki: Polska nieustannie wspiera Mołdawię w jej drodze do Unii Europejskiej

Polska nieustannie wspiera Mołdawię w jej drodze do członkostwa w UE – powiedział prezydent Karol Nawrocki po spotkaniu z prezydentką Mołdawii. Maia Sandu, dziękując Polsce za bycie adwokatem Kiszyniowa w Europie, podkreśliła zaś, że jej kraj chce m.in. przyciągać więcej polskich inwestycji.

KE podjęła decyzję ws. środków dla Polski z instrumentu SAFE. Kosiniak-Kamysz zabiera głos z ostatniej chwili
KE podjęła decyzję ws. środków dla Polski z instrumentu SAFE. Kosiniak-Kamysz zabiera głos

Jesteśmy coraz bliżej otrzymania prawie 44 mld euro na inwestycje w bezpieczeństwo - przekazał wicepremier, szef MON Władysław Kosiniak-Kamysz po decyzji KE ws. środków dla Polski z instrumentu SAFE. Jak wskazał, kolejnym krokiem będzie decyzja wykonawcza Rady Europejskiej i finalne podpisanie umów.

Michael Schumacher wreszcie wstał z łóżka! Nowe informacje po 12 latach z ostatniej chwili
Michael Schumacher wreszcie wstał z łóżka! Nowe informacje po 12 latach

Przez lata panowała cisza i ścisła tajemnica. Teraz brytyjskie media ujawniają nowe szczegóły dotyczące zdrowia Michaela Schumachera. Legenda Formuły 1 nie jest już przykuta do łóżka i porusza się na wózku inwalidzkim w swoim domu nad Jeziorem Genewskim. To pierwsze tak konkretne doniesienia od lat.

KRS odpowiada na wtargnięcie służb do siedziby. Będzie zawiadomienie do prokuratury z ostatniej chwili
KRS odpowiada na wtargnięcie służb do siedziby. Będzie zawiadomienie do prokuratury

Prezydium Krajowej Rady Sądownictwa upoważniło szefową KRS do złożenia zażalenia na niedawne przeszukanie biur w siedzibie Rady. Złożone ma zostać też w prokuraturze zawiadomienie w związku z tym, że według prezydium KRS, działania policji i prokuratury uniemożliwiły członkom Rady podjęcie pracy.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane