Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Dyrektor generalny BBC podał się do dymisji po zmanipulowaniu słów Donalda Trumpa z ostatniej chwili
Dyrektor generalny BBC podał się do dymisji po zmanipulowaniu słów Donalda Trumpa

Dyrektor generalny BBC Tim Davie i dyrektor wykonawcza działu wiadomości Deborah Turness podali się do dymisji z powodu krytykowanego sposobu zmontowania wypowiedzi prezydenta Donalda Trumpa w filmie dokumentalnym – poinformowała w niedzielę wieczorem BBC.

Ziobro oskarża Tuska o sądową ustawkę: Decyzję o areszcie miał podjąć dyżurny sędzia z ostatniej chwili
Ziobro oskarża Tuska o sądową ustawkę: Decyzję o areszcie miał podjąć "dyżurny" sędzia

Zbigniew Ziobro ostro uderzył w Donalda Tuska, zarzucając mu próbę bezprawnego pozbawienia wolności i ustawienie sądu pod polityczne zamówienie. Były minister sprawiedliwości stwierdził, że decyzja o jego aresztowaniu była przygotowana z góry, a system losowego przydziału spraw został skasowany, by umożliwić kontrolę nad sądami.

Komunikat dla mieszkańców Podhala z ostatniej chwili
Komunikat dla mieszkańców Podhala

W Tatrach panują trudne warunki turystyczne - szlaki są mokre i śliskie, a powyżej górnej granicy lasu zalega śnieg. Tatrzańskie jeziora, w tym Morskie Oko, zaczęły zamarzać. Część schronisk jest czasowo zamknięta z powodu remontów – poinformował Tatrzański Park Narodowy.

Poseł PiS interweniuje: czy Żurek kontaktował się z rosyjskim agentem Rubcowem? pilne
Poseł PiS interweniuje: czy Żurek kontaktował się z rosyjskim agentem Rubcowem?

W sieci krąży fragment wywiadu Waldemara Żurka z 2016 roku, w którym wówczas jeszcze sędzia mówi o rozmowie z „hiszpańskim dziennikarzem”. Coraz więcej wskazuje, że mógł to być Paweł Rubcow – agent rosyjskiego wywiadu. Sprawą zainteresował się poseł PiS Paweł Jabłoński, który złożył oficjalne zapytanie w tej sprawie.

Rzecznik prezydenta: Premier ujawnił niejawne informacje. Skandal wokół awansu w służbach pilne
Rzecznik prezydenta: "Premier ujawnił niejawne informacje". Skandal wokół awansu w służbach

Rzecznik prezydenta Rafał Leśkiewicz w rozmowie w Radiu ZET powiedział, że to Donald Tusk ponosi odpowiedzialność za kryzys wokół awansów w służbach specjalnych. Według Leśkiewicza to ujawnienie nazwisk i zakaz spotkań z prezydentem wywołały skandaliczną awanturę.

Start polskich satelitów przesunięty. Falcon 9 nie poleci w Święto Niepodległości z ostatniej chwili
Start polskich satelitów przesunięty. Falcon 9 nie poleci w Święto Niepodległości

Planowany na 11 listopada start rakiety Falcon 9 z satelitami ICEYE i PIAST nie odbędzie się w Święto Niepodległości. SpaceX poinformowało polską stronę o przesunięciu lotu na 22 listopada. Rakieta wyniesie na orbitę urządzenia o kluczowym znaczeniu dla obronności i bezpieczeństwa kraju.

Złe wieści przed meczem Polska - Holandia. Kadra bez kluczowych graczy z ostatniej chwili
Złe wieści przed meczem Polska - Holandia. Kadra bez kluczowych graczy

Fatalne wieści przed zgrupowaniem reprezentacji Polski. Jak podaje Robert Błoński z TVP Sport, Jan Urban nie skorzysta z trzech zawodników na mecze z Holandią i Maltą – wypadli Łukasz Skorupski, Jan Bednarek i Krzysztof Piątek.

Niepokojące informacje z granicy. Komunikat Straży Granicznej z ostatniej chwili
Niepokojące informacje z granicy. Komunikat Straży Granicznej

Straż Graniczna publikuje raporty dotyczące wydarzeń na polskiej granicy zarówno ze strony Białorusi, Litwy jak i Niemiec.

Kaczyński: Prawo w dzisiejszej Polsce nie obowiązuje z ostatniej chwili
Kaczyński: Prawo w dzisiejszej Polsce nie obowiązuje

– Prawo w dzisiejszej Polsce nie obowiązuje, zostało zniesione. Działalność ministra Waldemara Żurka oraz premiera Donalda Tuska to drwiny ze społeczeństwa – ocenił w poniedziałek prezes PiS Jarosław Kaczyński podczas obchodów miesięcznicy katastrofy smoleńskiej.

Mazurek ujawnia całą prawdę o Kanale Zero z ostatniej chwili
Mazurek ujawnia "całą prawdę o Kanale Zero"

"Chcecie "CAŁEJ PRAWDY O KANALE ZERO"? Nie uwierzycie w nią, bo jest zbyt banalna, ale trudno" – napisał Robert Mazurek i opublikował serię wpisów na platformie X.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane
Emerytury
Stażowe