Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.


 

POLECANE
Raport z kontroli granicznych. Straż wydała komunikat pilne
Raport z kontroli granicznych. Straż wydała komunikat

7 lipca zostały tymczasowo przywrócone kontrole na granicy z Niemcami i Litwą. Straż Graniczna w specjalnym raporcie podsumowała pierwszy dzień obowiązywania obostrzeń.

Przejmują Łódź!. Komunikat łódzkiego zoo z ostatniej chwili
"Przejmują Łódź!". Komunikat łódzkiego zoo

Łódzkie zoo chętnie dzieli się informacjami o swoich podopiecznych, licząc, że zainteresuje ich losem jak największą rzeszę ludzi, którym na sercu leży ich dobro.

z ostatniej chwili
Chińska armia skierowała laser na niemiecki samolot. Berlin wściekły

Armia chińska skierowała laser na niemiecki samolot uczestniczący w unijnej operacji o nawie ASPIDES na Morzu Czerwonym, mającej na celu ochronę bezpieczeństwa żeglugi – poinformowało we wtorek ministerstwo spraw zagranicznych Niemiec. W związku z incydentem do siedziby resortu wezwano chińskiego ambasadora.

Rząd techniczny PiS i Polski 2050? Przemysław Czarnek zabiera głos z ostatniej chwili
Rząd techniczny PiS i Polski 2050? Przemysław Czarnek zabiera głos

Po nocnym spotkaniu Szymona Hołowni z politykami Prawa i Sprawiedliwości pojawiły się spekulacje o możliwym sojuszu Polski 2050 i PiS-u. Głos w sprawie zabrał wiceprezes PiS Przemysław Czarnek, sugerując, że… rozmowy już trwają – i to od dawna.

Bodnar: Niebawem ruszy przeliczanie głosów w 296 komisjach wyborczych z ostatniej chwili
Bodnar: Niebawem ruszy przeliczanie głosów w 296 komisjach wyborczych

Minister sprawiedliwości, prokurator generalny Adam Bodnar ocenił, że na początku przyszłego tygodnia może ruszyć przeliczanie głosów w 296 wytypowanych komisjach wyborczych. Dodał, że jest konstytucyjna zasada domniemania ważności wyborów i to domniemanie nie zostało obalone.

Francja ugina się pod presją intruzów. Są nowe ofiary i potężne straty gorące
Francja ugina się pod presją intruzów. Są nowe ofiary i potężne straty

Do dramatycznej sytuacji doszło w Aurillac w departamencie Cantal we Francji. W centrum miasta nastąpił atak, w którym ucierpiały 24 osoby, trzy z nich znalazły się w stanie krytycznym. Sprawcą tragedii był rój pszczół, które stają się coraz bardziej nieprzewidywalne z powodu inwazji obcego gatunku owada – czarnego szerszenia.

Niepokojące informacje z granicy. Komunikat Straży Granicznej pilne
Niepokojące informacje z granicy. Komunikat Straży Granicznej

Straż Graniczna regularnie publikuje raporty dotyczące wydarzeń na polskiej granicy, która znajduje się pod naciskiem ataku hybrydowego.

Ważny komunikat dla mieszkańców Gdańska z ostatniej chwili
Ważny komunikat dla mieszkańców Gdańska

Mieszkańcy Gdańska muszą przygotować się na spore utrudnienia drogowe. Już od poniedziałku, 14 lipca, rozpocznie się kolejny etap przebudowy dróg w rejonie ulic Kartuskiej i Goszczyńskiego. W związku z tym wprowadzona zostanie nowa organizacja ruchu.

Alarmujący komunikat IMGW. Oto co nas czeka pilne
Alarmujący komunikat IMGW. Oto co nas czeka

Ze względu na prognozowane opady deszczu i burze osoby przebywające we wschodniej połowie kraju aktywność na zewnątrz powinny zaplanować na pierwszą połowę dnia. Niżowa pogoda z ograniczonym dopływem bezpośredniego promieniowania słonecznego będzie sprzyjała pobytowi w domu. W 13 województwach obowiązują alerty, nawet III stopnia. Sprawdź, jak jest w Twoim regionie.

Potężne nawałnice nad Polską. Strażacy interweniowali tysiące razy z ostatniej chwili
Potężne nawałnice nad Polską. Strażacy interweniowali tysiące razy

W związku z przechodzącym przez Polskę frontem atmosferycznym PSP odnotowała 2200 interwencji związanych głównie z usuwaniem skutków intensywnych opadów, lokalnych podtopień i silnego wiatru – poinformował rzecznik prasowy komendanta głównego Państwowej Straży Pożarnej st. bryg. Karol Kierzkowski.

REKLAMA

Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.



 

Polecane
Emerytury
Stażowe