Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Sąd postanowił o areszcie Ziobry. Lewandowski komentuje: „zaskarżymy to orzeczenie” z ostatniej chwili
Sąd postanowił o areszcie Ziobry. Lewandowski komentuje: „zaskarżymy to orzeczenie”

Sąd Rejonowy dla Warszawy-Mokotowa zdecydował w czwartek wieczorem o tymczasowym aresztowaniu byłego ministra sprawiedliwości Zbigniewa Ziobry. Jak poinformował jego obrońca Bartosz Lewandowski, decyzja zostanie natychmiast zaskarżona, a obrona wskazuje na poważne zastrzeżenia wobec przebiegu postępowania i argumentacji sądu.

Dzieci zatruły się trutką w przedszkolu. Dramatyczne zdarzenie na Pomorzu Wiadomości
Dzieci zatruły się trutką w przedszkolu. Dramatyczne zdarzenie na Pomorzu

Dwoje sześcioletnich dzieci trafiło do szpitala po spożyciu trutki na gryzonie w przedszkolu w Krokowej. Służby natychmiast podjęły interwencję, a sprawą zajęła się policja.

Szef CPAC Matt Schlapp do Tuska: Zadzierasz z nami wszystkimi z ostatniej chwili
Szef CPAC Matt Schlapp do Tuska: Zadzierasz z nami wszystkimi

Spór wokół zerwania kontaktów USA z marszałkiem Sejmu Włodzimierzem Czarzastym wychodzi poza relacje dyplomatyczne. Po reakcji Donalda Tuska głos zabrał Matt Schlapp, szef CPAC, kierując do premiera Polski jednoznaczne ostrzeżenie.

Prokuratura uderza w wiceszefa Kancelarii Prezydenta. Karol Nawrocki reaguje pilne
Prokuratura uderza w wiceszefa Kancelarii Prezydenta. Karol Nawrocki reaguje

Po latach śledztwa bez zarzutów i mimo jednoznacznych opinii grafologicznych prokuratura wzywa wiceszefa KPRP Adama Andruszkiewicza w charakterze podejrzanego. Sprawa wywołała ostrą reakcję prezydenta Karola Nawrockiego.

Ambasador USA studzi Tuska: Pańska wiadomość trafiła do mnie chyba przez pomyłkę z ostatniej chwili
Ambasador USA studzi Tuska: Pańska wiadomość trafiła do mnie chyba przez pomyłkę

Decyzja Stanów Zjednoczonych o zerwaniu kontaktów z marszałkiem Sejmu Włodzimierzem Czarzastym wywołała polityczną burzę. Po wpisie Donalda Tuska głos zabrał ambasador USA Tom Rose, odpowiadając premierowi w zdecydowanym tonie.

MKOl dopuścił Rosjan do zimowej olimpiady. Politycy alarmują: weryfikacja była fikcją z ostatniej chwili
MKOl dopuścił Rosjan do zimowej olimpiady. Politycy alarmują: weryfikacja była fikcją

Dwudziestu sportowców z Rosji i Białorusi wystąpi w igrzyskach olimpijskich Mediolan–Cortina d’Ampezzo 2026 jako zawodnicy neutralni. Decyzja MKOl wywołała spór - część polityków uważa, że weryfikacja była zbyt pobieżna, inni przekonują, że obecne zasady są wystarczająco restrykcyjne.

Tusk staje murem za Czarzastym po decyzji ambasadora USA z ostatniej chwili
Tusk staje murem za Czarzastym po decyzji ambasadora USA

Po zerwaniu kontaktów przez stronę amerykańską z marszałkiem Sejmu Włodzimierzem Czarzastym głos zabrał Donald Tusk. Premier publicznie skomentował decyzję ambasadora USA, stając w obronie polityka Lewicy.

Sytuacja niemieckiej gospodarki w niektórych sektorach krytyczna. Analiza Bundestagu tylko u nas
Sytuacja niemieckiej gospodarki w niektórych sektorach krytyczna. Analiza Bundestagu

Wysokie ceny energii, spadające inwestycje i rosnące koszty pracy coraz mocniej uderzają w niemiecką gospodarkę. Najnowsza analiza Bundestagu pokazuje, że w kluczowych sektorach Niemcy tracą konkurencyjność na tle USA, Chin i innych państw G7, a część problemów ma już charakter strukturalny.

Pouczał Polskę o praworządności, a sam miał brać pieniądze od Epsteina i utrzymywać z nim kontakty gorące
Pouczał Polskę o praworządności, a sam miał brać pieniądze od Epsteina i utrzymywać z nim kontakty

Mowa o byłym premierze Norwegii i byłym przewodniczącym Rady Europy Thorbjornie Jaglandzie. Jak poinformowała norweska gazeta VG, Jagland nie tylko że miał intensywne kontakty z Jeffreyem Epsteinem, ale... miał wziąć od niego pieniądze na kupno mieszkania. Polityk nie odniósł się jeszcze do stawianych mu zarzutów.

Rekordowa liczba cudzoziemców na polskim rynku pracy. ZUS podaje liczby Wiadomości
Rekordowa liczba cudzoziemców na polskim rynku pracy. ZUS podaje liczby

Mimo pogorszenia sytuacji na rynku pracy i wzrostu bezrobocia, liczba cudzoziemców legalnie zatrudnionych w Polsce osiągnęła historyczny rekord. Dane ZUS pokazują wyraźny trend, który zmienia strukturę zatrudnienia w kluczowych branżach.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane