ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami


 

POLECANE
Wiadomości
Jak radzić sobie ze stresem? 4 sprawdzone metody na codzienne wyzwania

Stres jest naturalną reakcją organizmu, ale gdy towarzyszy nam zbyt długo, to poważnie osłabia zdrowie i obniża jakość życia. Dobra wiadomość jest taka, że istnieją proste i skuteczne sposoby na to, aby odzyskać nad nim kontrolę. Poznaj 4 metody, które mogą Ci pomóc.

To ucieszy mieszkańców Małopolski. Jeden bilet, szybszy pociąg z ostatniej chwili
To ucieszy mieszkańców Małopolski. Jeden bilet, szybszy pociąg

Pilotaż honorowania okresowych biletów regionalnych w pociągach PKP Intercity trwa i obejmie również okres ferii zimowych – informuje Województwo Małopolskie.

UE wzmaga presję na kontrolę social mediów tylko u nas
UE wzmaga presję na kontrolę social mediów

.Unia Europejska zaostrza egzekwowanie przepisów dotyczących mediów społecznościowych. W tle obowiązujących już regulacji, takich jak Digital Services Act i European Media Freedom Act, trwa spór o obowiązkową weryfikację wieku użytkowników. Zwolennicy mówią o ochronie dzieci i walce z dezinformacją, krytycy – o ryzyku nadmiernej ingerencji w prywatność. O co dokładnie toczy się gra?

Wiceszef MON: Niemcy zgłosiły wstępną chęć zakupu zestawów przeciwlotniczych Piorun pilne
Wiceszef MON: Niemcy zgłosiły wstępną chęć zakupu zestawów przeciwlotniczych Piorun

Wiceminister obrony narodowej Cezary Tomczyk potwierdził w piątek, że Niemcy wyraziły wstępną chęć zakupu polskich zestawów przeciwlotniczych Piorun. Jego zdaniem pokazuje to, jak innowacje w polskim przemyśle obronnym wpływają na postrzeganie Polski na świecie.

Anna Bryłka: SAFE przesuwa politykę obronną na poziom UE gorące
Anna Bryłka: SAFE przesuwa politykę obronną na poziom UE

„SAFE wpisuje się w szerszy trend przesuwania polityki obronnej na poziom unijny. Dziś mówimy o wspólnych pożyczkach i koordynacji zakupów, jutro może chodzić o warunkowanie środków określonymi decyzjami politycznymi” – napisała na platformie X eurodeputowana Konfederacji Anna Bryłka.

Włoszczowska głosowała za wykluczeniem Ukraińca z igrzysk. Jednoznaczne słowa z ostatniej chwili
Włoszczowska głosowała za wykluczeniem Ukraińca z igrzysk. Jednoznaczne słowa

Skeletonista Władysław Heraskewycz został wykluczony z igrzysk po odmowie zmiany kasku z wizerunkami poległych Ukraińców. Za wnioskiem o dyskwalifikację głosowała cała komisja zawodnicza MKOl, w tym Maja Włoszczowska. – Zasada jest precyzyjna i jednoznaczna. Wiemy dokładnie, co zawodnicy mogą mieć na kasku, a czego absolutnie im nie wolno – powiedziała.

Roberta Metsola: PE nie sprzeciwia się ściślejszej integracji UE z ostatniej chwili
Roberta Metsola: PE nie sprzeciwia się ściślejszej integracji UE

W wywiadzie dla porannego programu Euronews Europe Today przewodnicząca Parlamentu Europejskiego Roberta Metsola powiedziała, że jej instytucja nie sprzeciwia się ściślejszej integracji UE, ponieważ Mario Draghi wezwał do utworzenia „pragmatycznej” federacji.

Dr Jacek Saryusz-Wolski: Polska powinna wypracować własną doktrynę integracyjną i strategię z ostatniej chwili
Dr Jacek Saryusz-Wolski: Polska powinna wypracować własną doktrynę integracyjną i strategię

„Wobec tych nowo-starych, dotąd tylko teoretycznych koncepcji ustrojowych UE, wchodzących w fazę praktyczną, Polska powinna wypracować własną doktrynę integracyjną, strategię i taktykę postępowania, odpowiadającą jej interesom politycznym, ekonomicznym i geopolitycznym” – napisał na platformie X doradca prezydenta ds. europejskich dr Jacek Saryusz-Wolski, komentując ustalenia nieformalnego szczytu UE w Alden Biesen.

Kukiz przekazał tragiczne wieści. Nie dawałeś sobie pomóc… z ostatniej chwili
Kukiz przekazał tragiczne wieści. "Nie dawałeś sobie pomóc…"

W wieku 65 lat zmarł Jarosław Lach, współzałożyciel i pierwszy gitarzysta Aya RL. Paweł Kukiz pożegnał go poruszającymi słowami.

KE sięgnie po oszczędności obywateli. Rządy krajów UE wyraziły zgodę z ostatniej chwili
KE sięgnie po oszczędności obywateli. Rządy krajów UE wyraziły zgodę

Podczas nieformalnego szczytu w Alden Biesen, we wschodniej Belgii, przywódcy Francji, Niemiec, Włoch i innych krajów poparli plany, które opracują już na posiedzeniu Rady Europejskiej w przyszłym miesiącu, dotyczące m.in. wykorzystania zgromadzonych przez obywateli oszczędności do inwestowania, bez pytania ich o zdanie.

REKLAMA

ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami



 

Polecane