Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.


 

POLECANE
Teheran spodziewał się wojny z Izraelem? Jest oświadczenie irańskiego generała Wiadomości
Teheran spodziewał się wojny z Izraelem? Jest oświadczenie irańskiego generała

- Wszystkie materiały są teraz w naszych rękach – podkreślił irański gen. Mohsen Rezai, twierdząc, że Teheran spodziewał się ataku ze strony Izraela.

Odwołano start kosmicznej misji z polskim astronautą. Podano powód Wiadomości
Odwołano start kosmicznej misji z polskim astronautą. Podano powód

Start misji Ax-4 z udziałem Polaka Sławosza Uznańskiego-Wiśniewskiego został odwołany z powodu wycieku w rosyjskim module ISS. NASA analizuje sytuację.

LGB kontra T. Lesbijka pójdzie do więzienia na transfobię? tylko u nas
LGB kontra T. Lesbijka pójdzie do więzienia na "transfobię"?

Ideologia gender nie może istnieć bez cenzury i karania za biologiczne fakty. Dlatego w Brazylii działaczka walcząca o prawa kobiet musi liczyć się teraz z więzieniem, ponieważ zamieściła w Internecie komentarz o jednym pradawnym szkielecie. Jej opinia nie spodobała się jednak aktywistom gender!

Zełenski mianował nowego dowódcę wojsk lądowych Ukrainy Wiadomości
Zełenski mianował nowego dowódcę wojsk lądowych Ukrainy

Prezydent Ukrainy Wołodymyr Zełenski mianował Hennadija Szapowałowa dowódcą Wojsk Lądowych Sił Zbrojnych Ukrainy - dekret został opublikowany w czwartek na stronie Kancelarii Prezydenta. Wcześniej to stanowisko zajmował Mychajło Drapaty, który podał się do dymisji po rosyjskim ataku na poligon wojskowy.

Pod Waszyngtonem wylądował samolot zagłady, latający punkt dowodzenia na wypadek wojny nuklearnej z ostatniej chwili
Pod Waszyngtonem wylądował "samolot zagłady", latający punkt dowodzenia na wypadek wojny nuklearnej

We wtorek wieczorem w bazie lotniczej Andrews w stanie Maryland wylądował amerykański „samolot zagłady” – E-4B Nightwatch. Jego pojawienie się w pobliżu stolicy USA wywołało falę spekulacji na temat możliwego zaostrzenia działań militarnych wobec Iranu.

Sąd odebrał Polce dziecko, bo porusza się na wózku gorące
Sąd odebrał Polce dziecko, bo porusza się na wózku

Sprawę dramatycznego odebrania nowo narodzonego dziecka poruszyła m.in. redakcja wpolsce24.tv, powołując się na relację posła Nowej Lewicy Łukasza Litewki. Według jego doniesień w jednym z polskich szpitali noworodek został rozdzielony z rodzicami już dobę po porodzie. Powodem miała być niepełnosprawność ruchowa matki, pani Patrycji.

Poznań: Bójka przy dworcu PKP zakończona atakiem nożem Wiadomości
Poznań: Bójka przy dworcu PKP zakończona atakiem nożem

Do groźnej sytuacji doszło w czwartek około godziny 12:35 przy ul. Dworcowej w Poznaniu, tuż obok głównego dworca PKP. Policja otrzymała zgłoszenie o bójce z udziałem trzech mężczyzn, w której trakcie użyto noża. Dwóch uczestników starcia zostało rannych i trafiło do szpitala.

Zaginęła 13-letnia Nadia. Komunikat policji Wiadomości
Zaginęła 13-letnia Nadia. Komunikat policji

Funkcjonariusze z Komisariatu Policji Wrocław-Rakowiec prowadzą poszukiwania 13-letniej Nadii Fehr, która 18 czerwca około godziny 10:00 wyszła z domu i do tej pory nie wróciła. Rodzina nastolatki nie ma z nią kontaktu, a dziewczynka nie posiada przy sobie telefonu komórkowego.

Niemcy namawiają Polaków żeby zostawili Jankesów tylko u nas
Niemcy namawiają Polaków żeby "zostawili Jankesów"

Kilkanaście dni temu Polscy dokonali wyboru nowego Prezydenta kraju – wiemy, został nim Karol Nawrocki. Wywołało to natychmiastowe i liczne reakcje w Niemczech. Jednym z wypowiadających się na temat konsekwencji „polskiego wyboru” był analityk Kai Olaf Lang przedstawiciel SWP (Stiftung Wissenschaft Und Politik - Fundacja Nauka i Polityka) będącej trustem mózgów pracującym dla rządu federalnego

Niepokojące wieści z Realu Madryt. Legendarny piłkarz hospitalizowany Wiadomości
Niepokojące wieści z Realu Madryt. Legendarny piłkarz hospitalizowany

Piłkarz Realu Madryt Kylian Mbappe, który uczestniczy w klubowych mistrzostwach świata w USA, trafił do szpitala z powodu problemów z układem pokarmowym. Francuz nie zagrał w pierwszym meczu "Królewskich" w tym turnieju, w środę z Al-Hilal (1:1).

REKLAMA

Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.



 

Polecane
Emerytury
Stażowe