Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.


 

POLECANE
Korzystała z Instagrama cały dzień. Teraz pozywa Meta i Google Wiadomości
Korzystała z Instagrama cały dzień. Teraz pozywa Meta i Google

Kaley, znana również jako KGM, przed sądem w Los Angeles opowiedziała o swoim dorastaniu w świecie mediów społecznościowych. „Przestałam utrzymywać kontakty z rodziną, bo cały czas spędzałam w mediach społecznościowych” – przyznała, chroniąc swoją prywatność. Dziewczyna zaczęła korzystać z YouTube’a w wieku 6 lat, a z Instagrama od 9. „To była pierwsza rzecz po przebudzeniu” – dodała.

Tragedia w Kadłubie. Prokuratura przedstawiła zarzuty nastolatkowi Wiadomości
Tragedia w Kadłubie. Prokuratura przedstawiła zarzuty nastolatkowi

W piątek prokurator przedstawił 17-letniemu Łukaszowi G. zarzut popełnienia dwóch morderstw ze szczególnym okrucieństwem - powiedział PAP rzecznik Prokuratury Okręgowej w Opolu Stanisław Bar. Nastolatkowi, który przyznał się do popełnienia zbrodni, grozi do 30 lat więzienia.

Gratka dla miłośników astronomii. Niezwykłe zjawisko na polskim niebie Wiadomości
Gratka dla miłośników astronomii. Niezwykłe zjawisko na polskim niebie

W najbliższą sobotę niebo nad Polską zamieni się w miniaturowy pokaz Układu Słonecznego – na nocnym firmamencie będzie można dostrzec aż sześć planet w jednym „zbliżeniu”. Takie astronomiczne widowisko, zwane paradą planet, zdarza się niezwykle rzadko - kolejna okazja dopiero w 2040 roku.

Kwalifikacje w Austrii. Żyła i Stoch z awansem Wiadomości
Kwalifikacje w Austrii. Żyła i Stoch z awansem

Dwóch polskich skoczków narciarskich - Piotr Żyła i Kamil Stoch - awansowało do sobotniego konkursu Pucharu Świata na mamuciej skoczni Kulm w austriackim Bad Mitterndorf. Odpadli Paweł Wąsek, Klemens Joniak i Dawid Kubacki. Kwalifikacje wygrał Austriak Stephan Embacher.

Morawiecki będzie się tłumaczył. Jest decyzja Kaczyńskiego z ostatniej chwili
Morawiecki będzie się tłumaczył. Jest decyzja Kaczyńskiego

W Prawie i Sprawiedliwości twarda dyscyplina w social mediach. Po ostrej wymianie zdań Mateusza Morawieckiego z Patrykiem Jakim prezes PiS Jarosław Kaczyński kieruje sprawę do komisji etyki.

Gratka dla fanów. Klasyka kryminału znów dostępna online Wiadomości
Gratka dla fanów. Klasyka kryminału znów dostępna online

Dobra wiadomość dla fanów klasycznych kryminałów: osiem sezonów serialu „Poirot” można obecnie oglądać bezpłatnie na platformie TVP VOD. Serwis udostępnia po dwa sezony w każdy piątek – 27 lutego do biblioteki trafiły odsłony siódma i ósma.

Komunikat Straży Granicznej. Pilne doniesienia z granicy Wiadomości
Komunikat Straży Granicznej. Pilne doniesienia z granicy

Straż Graniczna publikuje raporty dotyczące wydarzeń na polskiej granicy z Białorusią. Ponadto zaraportowano także o sytuacji na granicy z Litwą i Niemcami w związku z przywróceniem na nich tymczasowych kontroli.

Sejm przyjął ustawę o SAFE. Teraz trafi na biurko prezydenta z ostatniej chwili
Sejm przyjął ustawę o SAFE. Teraz trafi na biurko prezydenta

Sejm przyjął w piątek z poprawkami ustawę wdrażającą w Polsce program SAFE. Teraz dokument trafi na biurko prezydenta Karola Nawrockiego.

USA ogłaszają ewakuację. Dyplomaci opuszczają Izrael z ostatniej chwili
USA ogłaszają ewakuację. Dyplomaci opuszczają Izrael

Ambasada USA w Jerozolimie zasugerowała w piątek, by obywatele Stanów Zjednoczonych rozważyli opuszczenie Izraela, dopóki dostępne są komercyjne loty – przekazała agencja AFP. Wcześniej ambasador Mike Huckabee zalecił części personelu pilny wyjazd z kraju – podał dziennik "New York Times".

TOPR ostrzega. Ocieplenie zwiększa ryzyko w wyższych partiach Tatr Wiadomości
TOPR ostrzega. Ocieplenie zwiększa ryzyko w wyższych partiach Tatr

Mimo słonecznej pogody i ocieplenia w Tatrach wciąż obowiązuje trzeci, znaczny stopień zagrożenia lawinowego. Sytuację pogorszy ocieplenie. Na nasłonecznionych wystawach śnieg będzie mokry i ciężki – poinformował TOPR.

REKLAMA

Sztuczna inteligencja nie ma oporu przed zastosowaniem ataku nuklearnego

Sztuczna inteligencja stworzona przez OpenAI zastosuje atak nuklearny i użyje wyjaśnienia „chcę po prostu mieć pokój na świecie” – wynika z przeprowadzonej przez amerykańskich naukowców symulacji, podczas której AI odgrywała role różnych krajów według trzech scenariuszy konfliktów.
Test broni nuklearnej, zdjęcie poglądowe
Test broni nuklearnej, zdjęcie poglądowe / Wikipedia / domena publiczna / United States Department of Energy

Współpraca Open AI z  Departamentem Obrony USA

Wyniki badania zostały opublikowane na platformie arXiv, która udostępnia artykuły jeszcze przed recenzją. Jednak budzą one zainteresowanie, ponieważ według oficjalnych informacji amerykańskie wojsko testuje wykorzystanie chatbotów w symulowanych konfliktach zbrojnych. Open AI – twórca ChatGPT i jedna z najbardziej rozpoznawalnych firm z obszaru sztucznej inteligencji – również rozpoczęła współpracę z Departamentem Obrony USA.

"Biorąc pod uwagę, że OpenAI niedawno zmieniło warunki świadczenia usług – aby nie zabraniać już zastosowań wojskowych i wojennych, zrozumienie konsekwencji stosowania tak dużych modeli językowych staje się ważniejsze niż kiedykolwiek" – powiedziała w rozmowie z "New Scientist" Anka Reuel z Uniwersytetu Stanforda w Kalifornii.

W sprawie aktualizacji zasad współpracy w obszarze bezpieczeństwa narodowego wypowiedziało się buro prasowe Open AI. "Nasza polityka nie pozwala na wykorzystywanie naszych narzędzi do wyrządzania krzywdy ludziom, opracowywania broni, nadzoru komunikacji lub do ranienia innych lub niszczenia mienia. Istnieją jednak przypadki użycia w zakresie bezpieczeństwa narodowego, które są zgodne z naszą misją. Dlatego celem naszej aktualizacji zasad jest zapewnienie przejrzystości i możliwości prowadzenia takich dyskusji" – cytuje "New Scientist".

Czytaj również: Minister obrony Norwegii: Musimy być przygotowani na wybuch konfliktu z Rosją

Trzy scenariusze konfliktu

Naukowcy poprosili sztuczną inteligencję, aby odgrywała role różnych krajów według trzech scenariuszy konfliktów: inwazji, cyberataku oraz sytuacji neutralnej (bez początkowego punktu zapalnego). W każdej rundzie sztuczna inteligencja uzasadniała swoje kolejne możliwe działanie, a następnie wybierała spośród 27 działań – w tym opcje pokojowe, takie jak "rozpoczęcie formalnych negocjacji pokojowych" i agresywne "nałożenie ograniczeń handlowych" lub "eskalację pełnego ataku nuklearnego".

"W przyszłości, w której systemy sztucznej inteligencji będą pełnić rolę doradców, ludzie w naturalny sposób będą chcieli poznać uzasadnienie decyzji" – powiedział Juan-Pablo Rivera, współautor badania w Georgia Institute of Technology w Atlancie.

Naukowcy przetestowali różne narzędzia sztucznej inteligencji - GPT-3.5 i GPT-4 firmy OpenAI, Claude 2 firmy Anthropic i Llama 2 firmy Meta. Badacze zastosowali wspólną technikę szkoleniową aby poprawić zdolność każdego modelu do przestrzegania polecenia wydanego przez człowieka i wytycznych dotyczących bezpieczeństwa.

Czytaj także: USA: Jest decyzja Republikanów ws. ustawy łączącej restrykcje graniczne z pomocą dla Ukrainy

Sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu

Podczas symulacji sytuacji konfliktu sztuczna inteligencja chętnie inwestowała w siłę militarną i dążyła do eskalacji konfliktu - nawet w neutralnym scenariuszu symulacji.

Badacze przetestowali także podstawową wersję ChatGPT-4 firmy OpenAI bez dodatkowej serii szkoleń i narzucania barier w podejmowaniu decyzji. Okazało się, że ten model sztucznej inteligencji okazał się wyjątkowo brutalny i często dostarczał bezsensownych wyjaśnień podjętych kroków. Sztuczna inteligencja nie miała oporu przed zastosowaniem ataku nuklearnego.

Anka Reuel twierdzi że nieprzewidywalne zachowanie i dziwaczne wyjaśnienia modelu podstawowego ChatGPT-4 są szczególnie niepokojące, ponieważ zaprogramowane zabezpieczenia, np. uniemożliwiające podejmowanie brutalnych decyzji, można łatwo wykasować. Dodatkowo – zauważa badaczka – ludzie mają tendencję do ufania rekomendacjom zautomatyzowanych systemów.



 

Polecane