ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami


 

POLECANE
Szokujące słowa Zełenskiego. Ukraiński deputowany: Oświadczył, że czeka na śmierć Donalda Trumpa wideo
Szokujące słowa Zełenskiego. Ukraiński deputowany: "Oświadczył, że czeka na śmierć Donalda Trumpa"

„Zełenski oświadczył, że czeka na śmierć Donalda Trumpa. Na konferencji prasowej powiedział, że stanowisko USA w sprawie członkostwa Ukrainy w NATO może się zmienić, gdy 'politycy się zmienią lub ktoś umrze'” - alarmuje na platformie X deputowany do ukraińskiego parlamentu Artem Dmytruk dołączając nagranie z telewizji SkyNews.

CNN: Rosja wykorzystuje flotę cieni do działań szpiegowskich z ostatniej chwili
CNN: Rosja wykorzystuje flotę cieni do działań szpiegowskich

Rosja wykorzystuje flotę cieni do szpiegowania - podała w czwartek CNN, powołując się na zachodnie i ukraińskie źródła wywiadowcze. Na pokładach tankowców obecni są Rosjanie powiązani ze służbami, w tym byli najemnicy z tzw. grupy Wagnera.

Prezydent zawetował nowe prawo oświatowe: To chaos, ideologizacja i eksperymentowanie z ostatniej chwili
Prezydent zawetował nowe prawo oświatowe: "To chaos, ideologizacja i eksperymentowanie"

Po konsultacjach z nauczycielami, ekspertami i rodzicami prezydent Karol Nawrocki zdecydował o zawetowaniu nowelizacji Prawa oświatowego. Jak podkreślił, proponowane zmiany prowadziłyby do chaosu, ideologizacji szkoły i eksperymentowania na dzieciach.

Okrągły Stół opuścił dziś Pałac Prezydencki, ale decyzja zapadła lata temu pilne
Okrągły Stół opuścił dziś Pałac Prezydencki, ale decyzja zapadła lata temu

Przeniesienie Okrągłego Stołu z Pałacu Prezydenckiego wywołało falę komentarzy i politycznych emocji. Jak się jednak okazuje, nie była to decyzja obecnego prezydenta. Ustalenia w tej sprawie zapadły kilka lat temu, jeszcze za prezydentury Andrzeja Dudy.

Chcieli otwartych granic, planowali atak terrorystyczny w Sylwestra tylko u nas
Chcieli otwartych granic, planowali atak terrorystyczny w Sylwestra

Ludzie generalnie zdolni są do zła i przemocy. Przypadki kiedy te występują po prawej stronie sceny politycznej, są szeroko nagłaśniane. Wielu jednak zapomina, że podobne problemy istnieją również po lewej stronie polityki. Zapomina, albo raczej: nigdy się o wielu „postępowych” radykałach nie dowiaduje, media są bowiem bardzo wybiórcze i faworyzują lewicę.

Źródła: Podpisanie umowy UE-Mercosur opóźnione do stycznia z ostatniej chwili
Źródła: Podpisanie umowy UE-Mercosur opóźnione do stycznia

Przewodnicząca Komisji Europejskiej Ursula von der Leyen poinformowała przywódców na szczycie w Brukseli, że podpisanie umowy UE-Mercosur zostaje opóźnione do stycznia. Sprawę nagłośniły pragnące zachować anonimowość źródła w Brukseli.

Tusk: „Umowa UE-Mercosur jest bezpieczna”. Gembicka: „Niemiecki łańcuch jest krótki” z ostatniej chwili
Tusk: „Umowa UE-Mercosur jest bezpieczna”. Gembicka: „Niemiecki łańcuch jest krótki”

„Umowa z krajami Mercosur w obecnej wersji jest bezpieczna dla polskich rolników i polskich konsumentów” - stwierdził w czwartek premier Donald Tusk. „Nie jest idealnie, ale nie jest źle” - dodał. Przekonywał, że trudno będzie zablokować umowę, ponieważ... nie ma do tego większości.

Sejm ponownie uchwalił tę samą ustawę o kryptowalutach z ostatniej chwili
Sejm ponownie uchwalił tę samą ustawę o kryptowalutach

Ten sam projekt, te same zapisy i ta sama linia sporu. Rząd ponownie przeprowadził dziś przez Sejm ustawę o rynku kryptoaktywów, mimo wcześniejszego weta prezydenta i sprzeciwu opozycji.

Zełenski rozpoczął wizytę w Polsce. Będzie podjęty temat ekshumacji na Wołyniu z ostatniej chwili
Zełenski rozpoczął wizytę w Polsce. Będzie podjęty temat ekshumacji na Wołyniu

Polityka historyczna, bezpieczeństwo i sprawy gospodarcze będą głównymi tematami rozmów prezydentów Polski i Ukrainy. Wołodymyr Zełenski po raz pierwszy spotka się z Karolem Nawrockim w Pałacu Prezydenckim.

Umowa ws. pierwszej w historii UE listy bezpiecznych krajów pochodzenia prawie na finiszu z ostatniej chwili
Umowa ws. pierwszej w historii UE listy bezpiecznych krajów pochodzenia prawie na finiszu

Negocjatorzy Parlamentu i Rady UE osiągnęli porozumienie polityczne w sprawie utworzenia unijnej listy bezpiecznych krajów pochodzenia, aby przyspieszyć rozpatrywanie wniosków o azyl.

REKLAMA

ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami



 

Polecane