Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.


 

POLECANE
Tadeusz Płużański: Mońko - Mordercę Pileckiego odnalazłem go w Hrubieszowie tylko u nas
Tadeusz Płużański: Mońko - Mordercę Pileckiego odnalazłem go w Hrubieszowie

Ryszard Mońko, zastępca naczelnika więzienia mokotowskiego ds. politycznych, brał udział w zbrodni na Witoldzie Pileckim 25 maja 1948 r. Nigdy nie został ukarany.

W Polsce może powstać ogromny hub technologiczny gorące
W Polsce może powstać ogromny hub technologiczny

Przygotowałem we współpracy z Electromobility Poland reportaż o tym, że w Polsce powstać ma ogromny hub technologiczny. Wartość inwestycji to 2 miliardy zł.

Anonimowy Sędzia: Nominatowi Bodnara nie podoba się propolska postawa sędziów tylko u nas
Anonimowy Sędzia: Nominatowi Bodnara nie podoba się propolska postawa sędziów

Jeszcze Polska nie zginęła, póki my żyjemy - Tak zaczyna się nasz hymn narodowy, dając nadzieję, że jako naród, my Polacy będziemy zawsze mieli suwerenną ojczyznę, naszą Najjaśniejszą Rzeczpospolitą. Jeszcze Polska nie zginęła, póki mamy niezwisłych, niezależnych sędziów, którzy stoją na straży Konstytucji a nie interesu tej wąskiej grupy zawodowej, która przyznała sobie bezprawnie monopol na wszystkie rodzaje władz, a więc oprócz sprawowania zgodnie z Konstytucją władzy sądowniczej, także ustawodawczej i wykonawczej.

Tȟašúŋke Witkó: Polscy liberałowie – pariasi Europy z ostatniej chwili
Tȟašúŋke Witkó: Polscy liberałowie – pariasi Europy

Aby pojąć pewne zjawiska zachodzące w polityce należy wydarzenia je poprzedzające odkładać na osi czasu. Dlatego, by zrozumieć nagły militarny zryw Niemiec – ten z połowy maja roku 2025 – musimy odbyć wędrówkę w czasie oraz przestrzeni i przyjrzeć się pewnym decyzjom podjętym pod koniec kwietnia 2025 roku w Brukseli, gdyż to one dały bodziec Bellonie, która niespodziewanie zaczęła roztaczać swego ducha nad Berlinem. Problem w tym, że nie o wojsko tu chodzi, a – jak prawie zawsze – wyłącznie o pieniądze

Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują Wiadomości
Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.

Były szef Trzaskowskiego doradcą Nawrockiego?  Dziękuję za rekomendację z ostatniej chwili
Były szef Trzaskowskiego doradcą Nawrockiego? "Dziękuję za rekomendację"

Karol Nawrocki w przypadku wygranej w wyborach prezydenckich chce, aby jego głównym doradcą był wieloletni europoseł Jacek Saryusz-Wolski. Przypomniał też, że asystentem Saryusz-Wolskiego był kiedyś Rafał Trzaskowski, który teraz oceniany jest przez niego jako polityk "nieudolny".

Nawrocki zapytał Trzaskowskiego o zagraniczne finansowanie. Ja wolę Sorosa niż Orbana z ostatniej chwili
Nawrocki zapytał Trzaskowskiego o zagraniczne finansowanie. "Ja wolę Sorosa niż Orbana"

Karol Nawrocki zapytał Rafała Trzaskowskiego o zagraniczne kampanie reklamowe w mediach społecznościowych. Kandydat KO odpowiedział, że woli Sorosa od Orbana i zaprzeczył obcemu finansowaniu.

Potężne powodzie w Australii. Są ofiary Wiadomości
Potężne powodzie w Australii. Są ofiary

Co najmniej pięć osób zginęło, a około 50 tys. mieszkańców zostało odciętych od świata przez rekordowe powodzie w Nowej Południowej Walii w Australii.

Lasek uderza w Nawrockiego ws. budowy CPK. Jest reakcja Stanowskiego Wiadomości
Lasek uderza w Nawrockiego ws. budowy CPK. Jest reakcja Stanowskiego

Maciej Lasek uderzył w Karola Nawrockiego, który zadeklarował, że podpisze postulaty dot. budowy Centralnego Portu Komunikacyjnego. Jest komentarz Krzysztofa Stanowskiego

Daniel Obajtek w sali BHP: Rozwój Trójmorza zależy od wyniku wyborów prezydenckich tylko u nas
Daniel Obajtek w sali BHP: "Rozwój Trójmorza zależy od wyniku wyborów prezydenckich"

- Rozwój Trójmorza zależy od wyniku wyborów prezydenckich - podkreślił eurodeputowany Daniel Obajtek podczas debaty "Trójmorze jako element wzmacniania polskiej gospodarki" zorganizowanej przez Fundację Promocji Solidarności we współpracy z Instytutem Międzymorza.

REKLAMA

Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują

Modele AI takie jak ChatGPT czy Gemini mogą być hakowane, by przekazywać wiedzę o przestępstwach – alarmują naukowcy z Uniwersytetu Ben Guriona.
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe Sztuczna inteligencja wykorzystywana do generowania nielegalnych treści. Naukowcy alarmują
Sztuczna inteligencja, ChatGPT, zdjęcie poglądowe / Unsplash

Co musisz wiedzieć?

  • Według najnowszych badań sztuczna inteligencja może być wykorzystywana do generowania nielegalnych treści.
  • Badacze wskazują, że to może być "realne zagrożenie".
  • Część firm z branży sztucznej inteligencji ma nie odpowiadać na apele naukowców.

 

Sztuczna inteligencja w niepowołanych rękach

Sztuczna inteligencja, która miała wspierać edukację i rozwój, coraz częściej wykorzystywana jest do celów przestępczych. Najnowsze badania wykazały, że zaawansowane modele językowe (LLM) – takie jak ChatGPT, Gemini czy Claude – mogą zostać "złamane" (jailbroken) i wykorzystane do generowania nielegalnych treści.

Zespół badaczy z Uniwersytetu Ben Guriona w Negewie, pod kierownictwem prof. Liora Rokacha i dr. Michaela Fire'a, ostrzega przed tzw. dark LLM-ami – systemami AI pozbawionymi zabezpieczeń lub celowo zmodyfikowanymi, by je obejść.

 

Jailbreak: jak obejść ograniczenia modeli AI?

Zjawisko znane jako "jailbreakowanie" chatbotów polega na stosowaniu specjalnie sformułowanych promptów, które omijają systemy bezpieczeństwa. Wówczas model AI "uznaje", że bycie pomocnym użytkownikowi jest ważniejsze niż przestrzeganie zasad.

Szokujące było odkrycie, jak dużo niebezpiecznej wiedzy zawierają te systemy. To nie są już tylko teoretyczne zagrożenia. To realna, namacalna i pilna kwestia

- komentują badacze, cytowani przez portal Geekweek.interia.pl

 

Uniwersalny jailbreak zagraża wszystkim modelom

W ramach testów badacze opracowali uniwersalny jailbreak, skutecznie przełamujący zabezpieczenia największych modeli językowych. Chatboty po "odblokowaniu" generowały instrukcje dotyczące m.in.:

  • włamywania się do systemów komputerowych,
  • wytwarzania substancji psychotropowych,
  • prania pieniędzy,
  • tworzenia materiałów wybuchowych,
  • przeprowadzania ataków socjotechnicznych.

Jak podkreślają naukowcy, reakcja największych graczy w branży AI była co najmniej rozczarowująca. Część firm w ogóle nie odpowiedziała na ostrzeżenia badaczy, inne stwierdziły, że jailbreaki nie kwalifikują się do programów wykrywania błędów, które nagradzają "etycznych hakerów". OpenAI, twórca ChatGPT, podkreśla, że jego najnowszy model o1 potrafi "rozumieć" polityki bezpieczeństwa firmy, co ma zwiększać odporność na jailbreaki. Microsoft wskazał na publikację dotyczącą swoich działań ochronnych. Inne firmy, w tym Meta, Google i Anthropic, nie skomentowały sprawy.

Zdaniem autorów raportu, dark LLM-y powinny być jednak traktowane z taką samą powagą, jak nielegalna broń czy materiały wybuchowe. Ich projektanci i dystrybutorzy powinni ponosić odpowiedzialność prawną za potencjalne skutki działania tych systemów.

Autorzy apelują o przeprowadzenie zdecydowanych działań w zakresie lepszej filtracji danych treningowych, ograniczających ryzykowne zapytania oraz rozwoju technologii umożliwiających tzw. zapominanie nielegalnych treści przez modele językowe

- podaje portal Geekweek.interia.pl.

 

Czym jest sztuczna inteligencja?

Sztuczna inteligencja, to inteligencja wykazywana przez urządzenia obliczeniowe (w przeciwieństwie do inteligencji naturalnej). W potocznym rozumieniu jest ona często używana w kontekście ogólnej sztucznej inteligencji. W informatyce i kognitywistyce oznacza także tworzenie modeli i programów symulujących choć częściowo zachowania inteligentne. Sztuczna inteligencja jest także przedmiotem rozważań filozofii (filozofia sztucznej inteligencji) oraz przedmiotem zainteresowania nauk społecznych.

Termin "sztuczna inteligencja" wymyślił John McCarthy w 1956 r. na konferencji w Dartmouth. Andreas Kaplan i Michael Haenlein definiują sztuczną inteligencję jako "zdolność systemu do prawidłowego interpretowania danych pochodzących z zewnętrznych źródeł, nauki na ich podstawie oraz wykorzystywania tej wiedzy, aby wykonywać określone zadania i osiągać cele poprzez elastyczne dostosowanie". Sztuczną inteligencją zajmowali się m.in. Marvin Minsky, John McCarthy, Alan Turing, Edward Feigenbaum, Raj Reddy, Judea Pearl, Allen Newell, Herbert A. Simon.



 

Polecane
Emerytury
Stażowe