Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Instrukcja zabicia dziecka społecznie nieszkodliwa? Postępowanie przeciwko proaborcyjnej lekarce umorzone gorące
Instrukcja zabicia dziecka społecznie nieszkodliwa? Postępowanie przeciwko proaborcyjnej lekarce umorzone

Czyn zabroniony polegać miał na udzieleniu ciężarnej kobiecie pomocy w nielegalnej aborcji poprzez instrukcje, w jaki sposób i z użyciem jakiego leku ma wykonać aborcję farmakologiczną oraz poprzez oferowanie pomocy w szpitalu, w którym pracuje, w razie gdyby doszło do komplikacji medycznych.

Nie żyje słynny architekt Wiadomości
Nie żyje słynny architekt

W wieku 96 lat zmarł w piątek Frank Gehry, jeden z najsłynniejszych współczesnych architektów - poinformowała Meaghan Lloyd z jego pracowni architektonicznej Gehry Partners. Najbardziej znanym dziełem zmarłego twórcy jest Muzeum Guggenheima w Bilbao na północy Hiszpanii.

USA zapowiadają ingerencję w Europie. W niemieckich mediach płacz tylko u nas
USA zapowiadają ingerencję w Europie. W niemieckich mediach płacz

Stany Zjednoczone przedstawiły nową strategię bezpieczeństwa narodowego. Jej mocnym akcentem jest krytyka Unii Europejskiej. Niemieckie media już zdążyły to odnotować.

Szykuje się wielki protest rolników w Brukseli Wiadomości
Szykuje się wielki protest rolników w Brukseli

Na 18 grudnia organizacje rolnicze funkcjonujące w krajach UE zapowiedziały wielki protest w Brukseli. Zaledwie kilka godzin później wizytę w Brazylii w celu podpisania kontrowersyjnej umowy UE–Mercosur planuje odbyć Ursula von der Leyen.

Bogucki w Sejmie: „Chciałbym mieć premiera polskiego rządu”. Tusk: „Ale nie masz chłopie” wideo
Bogucki w Sejmie: „Chciałbym mieć premiera polskiego rządu”. Tusk: „Ale nie masz chłopie”

Donald Tusk przyznał podczas posiedzenia Sejmu, że nie jest „premierem polskiego rządu”. Szokujące słowa padły przy okazji orki, jaką Tuskowi zafundował szef Kancelarii Prezydenta Zbigniew Bogucki.

Pałac Buckingham potwierdza: te święta króla Karola III będą zupełnie inne Wiadomości
Pałac Buckingham potwierdza: te święta króla Karola III będą zupełnie inne

Król Karol III od prawie dwóch lat zmaga się z ciężką chorobą. Wie, że czasu może mu zostać już niewiele, dlatego bardzo chce, by tegoroczne Boże Narodzenie było inne niż wszystkie poprzednie. Święta odbędą się tradycyjnie w rezydencji Sandringham w hrabstwie Norfolk. Tym razem grono gości będzie bardzo wąskie. Zaproszenie dostali tylko naprawdę najbliżsi.

Tȟašúŋke Witkó: Waszyngtoński dżin z samowaru tylko u nas
Tȟašúŋke Witkó: Waszyngtoński dżin z samowaru

Jeśli Marco Antonio Rubio, 72. sekretarz stanu USA, spędził weekend na Florydzie, by tam osobiście debatować z delegatami ukraińskimi o kształcie rozejmu z Rosją, to – w opinii mej – sprawa uspokojenia fermentu w moskiewsko-kijowskim kotle stała się dla Waszyngtonu priorytetowa.

Przyszłość Lewandowskiego w Barcelonie. Nowe ustalenia mediów Wiadomości
Przyszłość Lewandowskiego w Barcelonie. Nowe ustalenia mediów

Według najnowszych doniesień hiszpańskich mediów Robert Lewandowski nie zamierza opuszczać Barcelony po zakończeniu sezonu, mimo że klub - jak informowało The Athletic - ma nie planować przedłużenia jego kontraktu wygasającego w czerwcu 2026 roku. To właśnie te wcześniejsze rewelacje wywołały serię spekulacji o rozstaniu Polaka z Camp Nou.

Marco Rubio o grzywnie dla Muska: Atak rządów innych państw na amerykańskich obywateli gorące
Marco Rubio o grzywnie dla Muska: Atak rządów innych państw na amerykańskich obywateli

Amerykański sekretarz stanu Marco Rubio w ostrych słowach skrytykował nałożenie przez Komisję Europejską grzywny na należącą do Elona Muska platformę X.

Polska poznała potencjalnych rywali na MŚ 2026 z ostatniej chwili
Polska poznała potencjalnych rywali na MŚ 2026

Holandia, Japonia i Tunezja to potencjalni rywale piłkarskiej reprezentacji Polski w grupie F przyszłorocznych mistrzostw świata. Losowanie odbyło się w Waszyngtonie. Biało-czerwoni, aby dostać się na mundial, muszą najpierw poradzić sobie w marcowych barażach.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane