ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami


 

POLECANE
Wypadek w kopalni Knurów. Nowe informacje ws. zaginionego górnika z ostatniej chwili
Wypadek w kopalni Knurów. Nowe informacje ws. zaginionego górnika

Ratownikom, którzy próbują dotrzeć do górnika poszkodowanego w poniedziałkowym wieczornym wstrząsie w kopalni Knurów, pozostało kilkadziesiąt metrów – wynika z wtorkowej informacji Jastrzębskiej Spółki Węglowej.

Upały nawet do 34 stopni. Wydano ostrzeżenia z ostatniej chwili
Upały nawet do 34 stopni. Wydano ostrzeżenia

Instytut Meteorologii i Gospodarki Wodnej wydał ostrzeżenia drugiego stopnia przed upałami dla województw wielkopolskiego i opolskiego. Alerty obowiązują od środy 13 sierpnia od godziny 12:00 do piątku 15 sierpnia do godziny 20:00. W tym czasie maksymalna temperatura w ciągu dnia osiągnie od 30°C do 34°C, a w nocy termometry pokażą od 15°C do 19°C.

Komunikat dla mieszkańców i turystów w Warszawie z ostatniej chwili
Komunikat dla mieszkańców i turystów w Warszawie

Warszawskie Linie Turystyczne rozszerzają kursowanie swoich trzech popularnych promów: Słonka, Wilga i Pliszka. Promy rozpoczęły częstsze kursy w dni powszednie, a godziny rejsów zostały wydłużone.  

Spotkanie Trump-Putin. Zełenski zabiera głos z ostatniej chwili
Spotkanie Trump-Putin. Zełenski zabiera głos

Rozmowy prezydenta USA Donalda Trumpa i przywódcy Rosji Władimira Putina mogą być ważne dla ich dwustronnych stosunków, ale nie mogą oni podjąć żadnych decyzji dotyczących Ukrainy bez naszego udziału – oświadczył we wtorek prezydent Wołodymyr Zełenski.

Marszałek Sejmu wygasił mandaty czterech posłów PiS. Kto na ich miejsce? z ostatniej chwili
Marszałek Sejmu wygasił mandaty czterech posłów PiS. Kto na ich miejsce?

Marszałek Sejmu Szymon Hołownia wydał postanowienia o stwierdzeniu wygaśnięcia mandatów poselskich posłów powołanych do KPRP i BBN – poinformowała we wtorek Kancelaria Sejmu. Postanowienie dotyczy posłów PiS: Adama Andruszkiewicza, Zbigniewa Boguckiego, Marcina Przydacza oraz Pawła Szefernakera.

Noc Perseidów. 100 meteorów na godzinę z ostatniej chwili
Noc Perseidów. 100 meteorów na godzinę

W nocy z 12 na 13 sierpnia będzie można zobaczyć kulminację Perseidów, najbardziej spektakularnych rojów meteorów. Sprawdź, gdzie i w jaki sposób można zaobserwować zjawisko w najbardziej dogodny sposób, a może zrobić zdjęcie. Autorem najlepszego zdjęcia Perseidów w zeszłym roku został astrofotograf Marcin Rosadziński. Polak został uhonorowany przez NASA.

Złe wieści dla Hołowni. Polacy zabrali głos ws. jego wejścia do rządu [SONDAŻ] z ostatniej chwili
Złe wieści dla Hołowni. Polacy zabrali głos ws. jego wejścia do rządu [SONDAŻ]

Nowy sondaż Opinia24 dla RMF FM pokazuje, że Szymon Hołownia może mieć problem z przekonaniem wyborców do swojej obecności w rządzie po zakończeniu kadencji marszałka Sejmu. Wyniki badania z pewnością nie są dla niego optymistyczne.

Wypadek w kopalni Knurów. Nowe informacje z ostatniej chwili
Wypadek w kopalni Knurów. Nowe informacje

W kopalni Knurów doszło do wstrząsu, w zagrożonym miejscu wciąż przebywa górnik, z którym utracono kontakt.

Afera KPO. „Z jakiegoś powodu ministerstwo chciało mieć bezpośrednią kontrolę nad funduszami” tylko u nas
Afera KPO. „Z jakiegoś powodu ministerstwo chciało mieć bezpośrednią kontrolę nad funduszami”

Rząd i jego agendy gorączkowo poszukują winnych afery KPO. Od poniedziałku prowadzone są dwie kontrole. Tymczasem były dyrektor poznańskiego biura PARP wyjaśnia w rozmowie z tysol.pl, jak w sprawie funduszy działała centrala agencji i resort funduszy w Warszawie.

PKP Intercity wydał pilny komunikat. Chodzi o długi weekend z ostatniej chwili
PKP Intercity wydał pilny komunikat. Chodzi o długi weekend

''PKP Intercity przygotowało dodatkowe miejsca dla nawet 70 tys. pasażerów w nadchodzący długi weekend. Przewoźnik planuje uruchomić ponad 500 połączeń dziennie, wydłużając 320 składów o blisko 500 dodatkowych wagonów'' – poinformowała spółka we wtorkowym komunikacie.

REKLAMA

ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI

Amerykańska firma Open AI opublikowała niedawno dokument, który omówił kwestie bezpieczeństwa oraz wdrażania nowych rozwiązań. Firma podkreśliła, że "zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych" w chacie GPT-2. W tej sprawie wypowiedział się były pracownik Open AI Miles Brundage, który był szefem działu polityki badawczej.
Open AI, zdjęcie podglądowe ChatGPT coraz mniej bezpieczny? Jest komentarz byłego pracownika Open AI
Open AI, zdjęcie podglądowe / Unsplash

Jak podaje portal Telepolis.pl, amerykańskie Open AI realizując swoją wizję w dziedzinie sztucznej inteligencji "zmaga się z rosnącą konkurencją ze strony chińskiego DeepSeek".

W obliczu planów rozwoju zaawansowanych modeli językowych (LLM), firma zmaga się z zarzutami dotyczącymi jej podejścia do bezpieczeństwa i tego, jak relacjonuje własną historię działań w tym obszarze

- czytamy na Telepolis.pl.

Amerykańska firma opublikowała niedawno dokument omawiający swoje założenia w kwestii ostrożnego i stopniowego wdrażania nowych rozwiązań.

Jako przykład wskazano sposób, w jaki udostępniano GPT‑2 - firma chciała w ten sposób podkreślić, że już wcześniej zachowywała się rozważnie, ograniczając początkowo zakres udostępnionych danych i funkcjonalności

- informuje portal.

 

Były pracownik Open AI o kwestiach bezpieczeństwa

Jak zauważył portal Telepolis.pl, publikacja miała wywołać kontrowersje, szczególnie wśród byłych pracowników i ekspertów zajmujących się kwestią bezpieczeństwa. Głos w tej sprawie zabrał były szef działu polityki badawczej Open AI Miles Brundage.

Większa część tego wpisu jest dobra i wyrażam uznanie osobom, które pracują nad merytoryczną pracą, którą omawia. Ale jestem mocno zirytowany/zaniepokojony fragmentem „AGI w wielu krokach, a nie w jednym wielkim skoku”, który w niepokojący sposób przepisuje historię GPT-2

- napisał Miles Brundage.

Wydanie GPT-2 przez OpenAI, w którego projektowaniu brałem udział, było w 100% spójne i zapowiadało obowiązującą wówczas filozofię iteracyjnego wdrażania w OpenAI

Model był udostępniany stopniowo, a lekcje były udostępniane na każdym etapie. Wielu ówczesnych ekspertów ds. bezpieczeństwa podziękowało nam za tę ostrożność

- wyjaśnił były pracownik Open AI.

Jaka część tego była motywowana lub oparta na myśleniu o AGI jako nieciągłym? Nic z tego. Jakie są dowody na to, że to ostrzeżenie było „nieproporcjonalne” ex ante? Ex post, prawdopodobnie byłoby OK, ale to nie znaczy, że firma postąpiła odpowiedzialnie i podała wówczas informacje

A co dokładnie było błędnego lub alarmistycznego w oryginalnym poście? Dosłownie wszystko, co przewidywano jako prawdopodobne wyniki modeli językowych (zarówno dobre, jak i złe), spełniło się, nawet jeśli zajęło to trochę więcej czasu, niż niektórzy się obawiali

- dodał.

Miles Brundage wypowiedział się także na temat bezpieczeństwa.

Wygląda na to, że w tej sekcji, gdzie obawy są alarmistyczne + potrzeba przytłaczających dowodów na bezpośrednie zagrożenie, aby podjąć działania - w przeciwnym razie po prostu kontynuuj wysyłkę. To bardzo niebezpieczne podejście dla zaawansowanych systemów sztucznej inteligencji

Gdybym nadal pracował w OpenAI, zadałbym sobie pytanie, dlaczego ten wpis na blogu został napisany w ten sposób i co właściwie OpenAI chce osiągnąć, tak jednostronnie lekceważąc ostrożność

- podkreślił Brundage.

Jak czytamy na portalu "krytyka wobec OpenAI nie pojawiła się po raz pierwszy. Już wcześniej eksperci zwracali uwagę, że firma często stawia na szybki postęp, a kwestie długoterminowego bezpieczeństwa traktuje priorytetowo jedynie w deklaracjach".

Pojawiają się głosy, że w branży AI narasta potrzeba wypracowania wspólnych standardów, które z jednej strony pozwolą na rozwój przełomowych rozwiązań, a z drugiej zapewnią transparentność i kontrolę nad potencjalnie niebezpiecznymi zastosowaniami

- czytamy dalej.

 

Czym jest Open AI?

Open AI to organizacja działająca w zakresie sztucznej inteligencji (AI) i uczenia maszynowego. Open AI opracowała najnowocześniejsze technologie, które znalazły różnorodne zastosowania w różnych branżach. W dziedzinie marketingu Open AI wprowadziła potężne narzędzia i modele, które umożliwiają firmom zwiększenie zaangażowania klientów, usprawnienie operacji i uzyskanie przewagi konkurencyjnej.

Jednym z najbardziej znaczących osiągnięć Open AI jest stworzenie najnowocześniejszych modeli językowych, takich jak Chat GPT (Generative pre trained Transformer). Modele językowe Open AI posiadają zrozumienie kontekstowe, co czyni je cennymi zasobami w komunikacji marketingowej i interakcjach z klientami



 

Polecane
Emerytury
Stażowe