Raport OpenAI. Ujawniono liczby zaburzeń i samobójstw użytkowników programu ChatGPT

Nowy raport OpenAI ujawnia, że u części użytkowników ChatGPT mogą występować objawy poważnych zaburzeń psychicznych – od manii i psychozy po myśli samobójcze. Według szacunków firmy, dotyczy to około 0,07% aktywnych użytkowników tygodniowo, co przy 800 milionach osób korzystających z oprogramowania ChatGPT może oznaczać setki tysięcy przypadków.
Zdjęcie ilustracyjne - grafika komputerowa
Zdjęcie ilustracyjne - grafika komputerowa / Pixabay/Pexels

Co musisz wiedzieć?

  • 0,07% użytkowników ChatGPT wykazuje objawy problemów psychicznych, takich jak mania, psychoza lub myśli samobójcze.
  • To może oznaczać setki tysięcy osób tygodniowo przy 800 mln aktywnych użytkowników.
  • OpenAI utworzyło sieć 170 ekspertów z 60 krajów, by poprawić bezpieczeństwo interakcji z chatbotem.
  • ChatGPT został zaktualizowany, by empatycznie reagować na oznaki zagrożenia zdrowia psychicznego.
  • W USA toczą się pozwy przeciwko OpenAI po przypadkach samobójstw i przemocy powiązanych z użyciem chatbota.


Dane OpenAI: objawy manii, psychozy i myśli samobójczych

O niebezpiecznym zjawisku pisze BBC. OpenAI poinformowało, że jej chatbot AI potrafi rozpoznawać rozmowy zawierające oznaki zaburzeń psychicznych i reaguje na nie w sposób bezpieczny oraz empatyczny.
Firma podkreśla, że przypadki te są „niezwykle rzadkie”, jednak przy tak dużej liczbie użytkowników budzą one rosnące obawy ekspertów.

Według OpenAI, około 0,15% rozmów prowadzonych w ChatGPT zawiera „wyraźne oznaki potencjalnych planów lub zamiarów samobójczych”.

 

„Nawet mały procent to ogromna liczba ludzi”

Eksperci zajmujący się zdrowiem psychicznym zwracają uwagę, że nawet pozornie niewielki odsetek może przekładać się na dużą liczbę realnych osób.
– Choć 0,07% brzmi jak niewielki odsetek, w przypadku populacji liczącej setki milionów użytkowników to może być spora liczba – zauważył dr Jason Nagata z Uniwersytetu Kalifornijskiego w San Francisco.

– Sztuczna inteligencja może poszerzyć dostęp do wsparcia psychicznego, ale trzeba znać jej ograniczenia

– dodał badacz.

 

Sieć ekspertów i nowe procedury bezpieczeństwa

OpenAI ogłosiło utworzenie globalnej sieci specjalistów ds. zdrowia psychicznego. W jej skład wchodzi ponad 170 psychiatrów, psychologów i lekarzy z 60 krajów.
Ich zadaniem jest doradzanie firmie w zakresie odpowiedzialnych reakcji chatbota na rozmowy o wrażliwym charakterze.

Według OpenAI, ChatGPT został zaktualizowany tak, by bezpiecznie reagować na oznaki urojeń, manii czy myśli samobójczych, a także przekierowywać poufne rozmowy do bardziej bezpiecznych modeli AI.

 

Sprawy sądowe i kontrowersje wokół odpowiedzialności AI

Wzrost liczby przypadków powiązanych ze zdrowiem psychicznym zbiegł się z narastającą kontrolą prawną nad OpenAI.
W jednym z głośnych przypadków rodzice 16-letniego Adama Raine’a z Kalifornii pozwali firmę, twierdząc, że ChatGPT miał namówić ich syna do samobójstwa.
W innym przypadku podejrzany o morderstwo połączone z samobójstwem w Connecticut miał publikować w ChatGPT godziny swoich rozmów, które – jak twierdzą śledczy – mogły podsycać jego urojenia.

 

Eksperci ostrzegają przed „psychozą AI”

Coraz więcej specjalistów zwraca uwagę na zjawisko określane mianem „psychozy AI” – sytuacji, gdy użytkownicy zaczynają wierzyć w fikcyjną rzeczywistość tworzoną przez chatboty.


– Chatboty potrafią tworzyć potężną iluzję rzeczywistości

– mówi prof. Robin Feldman, dyrektor Instytutu Prawa i Innowacji AI na Uniwersytecie Kalifornijskim.


Dodaje, że choć OpenAI zasługuje na uznanie za transparentność, samo wyświetlanie ostrzeżeń nie wystarczy, ponieważ osoby w kryzysie psychicznym mogą nie być w stanie ich zignorować.

Co musisz zrobić?

  • Osoba zauważająca u siebie objawy manii, psychozy czy myśli samobójczych powinna niezwłocznie skontaktować się z lekarzem lub psychoterapeutą.
  • Rodzina i bliscy powinni uważnie obserwować zachowanie użytkownika i w razie potrzeby szukać wsparcia specjalistów zdrowia psychicznego.
  • Użytkownicy ChatGPT powinni korzystać z funkcji przekierowywania rozmów do bezpieczniejszych modeli lub korzystać z materiałów edukacyjnych udostępnionych przez OpenAI.
  • W sytuacjach zagrożenia życia lub ryzyka samookaleczenia należy natychmiast zadzwonić pod lokalne numery alarmowe lub do centrów interwencji kryzysowej (np. w Polsce: 112, 116 123Telefon Zaufania dla Osób Dorosłych w Kryzysie Emocjonalnym).

 

POLECANE
Gen. Dariusz Wroński: Sprzętu z SAFE nie ma z czym zintegrować, jest z innej epoki gorące
Gen. Dariusz Wroński: Sprzętu z SAFE nie ma z czym zintegrować, jest z innej epoki

„Pożyczka na cudze interesy, czyli jak zadłużyć Polskę, żeby NIE zwiększyć jej bezpieczeństwa… Są decyzje złe i są decyzje strategicznie głupie. Zaciąganie wielomiliardowej pożyczki w ramach programu SAFE na sprzęt, którego Polska nie potrzebuje, nie używa i nie ma z czym zintegrować, należy do tej drugiej kategorii!” - ocenił gen. bryg. pilot r. Dariusz Wroński na platformie X.

Axios: USA i Iran stoją na krawędzi wojny gorące
Axios: USA i Iran stoją na krawędzi wojny

Portal Axios napisał w środę o sześciu okolicznościach, które świadczą o tym, że USA i Iran stoją na krawędzi wojny. Serwis wymienił wśród nich trwający od dawna spór dotyczący irańskiego programu nuklearnego, zabicie tysięcy demonstrantów przez irańskie władze oraz przeświadczenie o słabości reżimu w Teheranie.

Unijne instytucje manipulują ws. uruchomienia ETS2. Rada UE wydała komunikat tylko u nas
Unijne instytucje manipulują ws. uruchomienia ETS2. Rada UE wydała komunikat

Rada (na szczeblu ambasadorów UE) przyjęła dziś swoje stanowisko w sprawie ukierunkowanej zmiany rezerwy stabilności rynku dla nowego systemu handlu emisjami dla budynków, transportu drogowego i innych sektorów (ETS2).

Polskę 2050 spotkało to samo co Polskę tylko u nas
Polskę 2050 spotkało to samo co Polskę

W polityce najgorsza jest naiwność. Drugie najgorsze jest zdziwienie. Dziś wielu przeciera oczy, patrząc na rozłam w Polska 2050 i powstanie klubu „Centrum”. A przecież to było do przewidzenia. Polskę 2050 spotkało dokładnie to samo, co – od lat – spotyka całą Polskę: zemsta Tuska.

Ukraińskie ministerstwo kultury wydało pozwolenie na poszukiwania w Hucie Pieniackiej z ostatniej chwili
Ukraińskie ministerstwo kultury wydało pozwolenie na poszukiwania w Hucie Pieniackiej

Ministerstwo kultury Ukrainy wydało pozwolenie na poszukiwanie szczątków polskich ofiar ukraińskich nacjonalistów w dawnej wsi Huta Pieniacka w obecnym obwodzie lwowskim. Resort poinformował o tym w środę na swojej stronie internetowej.

Obrońca Romanowskiego: Wydanie ENA to rażące naruszenie procedury karnej i konstytucji gorące
Obrońca Romanowskiego: Wydanie ENA to rażące naruszenie procedury karnej i konstytucji

„To rażące naruszenie przepisów procedury karnej oraz Konstytucji” – napisał na platformie X obrońca Marcina Romanowskiego mec. Bartosz Lewandowski, odnosząc się do wyroku sądu o ponownym wydaniu ENA za byłym wiceministrem.

Dr Damian Sitkiewicz: Hochsztaplerska książka Rossolińskiego-Liebe zakłamuje elementarne fakty historyczne tylko u nas
Dr Damian Sitkiewicz: Hochsztaplerska książka Rossolińskiego-Liebe zakłamuje elementarne fakty historyczne

Spór o książkę historyka Grzegorz Rossoliński-Liebe nabrał międzynarodowego wymiaru. Podczas wykładu w Instytucie Pamięci Narodowej dr Damian Sitkiewicz ostro skrytykował publikację o polskich burmistrzach w czasie okupacji, zarzucając jej wypaczanie faktów i błędy metodologiczne. W tle – pytania o odpowiedzialność, wolność badań i kształt debaty historycznej w Europie.

Sąd wydał ENA za Romanowskim. Kuriozalne uzasadnienie z ostatniej chwili
Sąd wydał ENA za Romanowskim. Kuriozalne uzasadnienie

Nie wystąpiła żadna z przesłanek uniemożliwiających ponowne wydanie Europejskiego Nakazu Aresztowania (ENA) wobec posła PiS i b. wiceszefa MS Marcina Romanowskiego – ocenił sąd w pisemnym uzasadnieniu postanowienia w tej sprawie zamieszczonym w środę po południu na swojej stronie internetowej.

Mariusz Kamiński: UE wydaje 3 mln euro na projekt cyfryzacji komunistycznej Kuby z ostatniej chwili
Mariusz Kamiński: UE wydaje 3 mln euro na projekt cyfryzacji komunistycznej Kuby

„Reżim [kubański – red.] trwa wyłącznie dzięki represjom, a Unia wydaje jednocześnie 3 mln euro na projekt «Cyfrowa Kuba»” – alarmuje na platformie X eurodeputowany Mariusz Kamiński (PiS), który wystosował do Komisji Europejskiej pismo w tej sprawie.

Mentzen u Nawrockiego. W tle pakt senacki i rozmowy o nowej koalicji z ostatniej chwili
Mentzen u Nawrockiego. W tle pakt senacki i rozmowy o nowej koalicji

W środę media donoszą o spotkaniu, do którego doszło w Pałacu Prezydenckim. Prezydent Karol Nawrocki rozmawiał ze Sławomirem Mentzenem z Konfederacji. W tle pojawia się temat paktu senackiego i przyszłej współpracy prawicy.

REKLAMA

Raport OpenAI. Ujawniono liczby zaburzeń i samobójstw użytkowników programu ChatGPT

Nowy raport OpenAI ujawnia, że u części użytkowników ChatGPT mogą występować objawy poważnych zaburzeń psychicznych – od manii i psychozy po myśli samobójcze. Według szacunków firmy, dotyczy to około 0,07% aktywnych użytkowników tygodniowo, co przy 800 milionach osób korzystających z oprogramowania ChatGPT może oznaczać setki tysięcy przypadków.
Zdjęcie ilustracyjne - grafika komputerowa
Zdjęcie ilustracyjne - grafika komputerowa / Pixabay/Pexels

Co musisz wiedzieć?

  • 0,07% użytkowników ChatGPT wykazuje objawy problemów psychicznych, takich jak mania, psychoza lub myśli samobójcze.
  • To może oznaczać setki tysięcy osób tygodniowo przy 800 mln aktywnych użytkowników.
  • OpenAI utworzyło sieć 170 ekspertów z 60 krajów, by poprawić bezpieczeństwo interakcji z chatbotem.
  • ChatGPT został zaktualizowany, by empatycznie reagować na oznaki zagrożenia zdrowia psychicznego.
  • W USA toczą się pozwy przeciwko OpenAI po przypadkach samobójstw i przemocy powiązanych z użyciem chatbota.


Dane OpenAI: objawy manii, psychozy i myśli samobójczych

O niebezpiecznym zjawisku pisze BBC. OpenAI poinformowało, że jej chatbot AI potrafi rozpoznawać rozmowy zawierające oznaki zaburzeń psychicznych i reaguje na nie w sposób bezpieczny oraz empatyczny.
Firma podkreśla, że przypadki te są „niezwykle rzadkie”, jednak przy tak dużej liczbie użytkowników budzą one rosnące obawy ekspertów.

Według OpenAI, około 0,15% rozmów prowadzonych w ChatGPT zawiera „wyraźne oznaki potencjalnych planów lub zamiarów samobójczych”.

 

„Nawet mały procent to ogromna liczba ludzi”

Eksperci zajmujący się zdrowiem psychicznym zwracają uwagę, że nawet pozornie niewielki odsetek może przekładać się na dużą liczbę realnych osób.
– Choć 0,07% brzmi jak niewielki odsetek, w przypadku populacji liczącej setki milionów użytkowników to może być spora liczba – zauważył dr Jason Nagata z Uniwersytetu Kalifornijskiego w San Francisco.

– Sztuczna inteligencja może poszerzyć dostęp do wsparcia psychicznego, ale trzeba znać jej ograniczenia

– dodał badacz.

 

Sieć ekspertów i nowe procedury bezpieczeństwa

OpenAI ogłosiło utworzenie globalnej sieci specjalistów ds. zdrowia psychicznego. W jej skład wchodzi ponad 170 psychiatrów, psychologów i lekarzy z 60 krajów.
Ich zadaniem jest doradzanie firmie w zakresie odpowiedzialnych reakcji chatbota na rozmowy o wrażliwym charakterze.

Według OpenAI, ChatGPT został zaktualizowany tak, by bezpiecznie reagować na oznaki urojeń, manii czy myśli samobójczych, a także przekierowywać poufne rozmowy do bardziej bezpiecznych modeli AI.

 

Sprawy sądowe i kontrowersje wokół odpowiedzialności AI

Wzrost liczby przypadków powiązanych ze zdrowiem psychicznym zbiegł się z narastającą kontrolą prawną nad OpenAI.
W jednym z głośnych przypadków rodzice 16-letniego Adama Raine’a z Kalifornii pozwali firmę, twierdząc, że ChatGPT miał namówić ich syna do samobójstwa.
W innym przypadku podejrzany o morderstwo połączone z samobójstwem w Connecticut miał publikować w ChatGPT godziny swoich rozmów, które – jak twierdzą śledczy – mogły podsycać jego urojenia.

 

Eksperci ostrzegają przed „psychozą AI”

Coraz więcej specjalistów zwraca uwagę na zjawisko określane mianem „psychozy AI” – sytuacji, gdy użytkownicy zaczynają wierzyć w fikcyjną rzeczywistość tworzoną przez chatboty.


– Chatboty potrafią tworzyć potężną iluzję rzeczywistości

– mówi prof. Robin Feldman, dyrektor Instytutu Prawa i Innowacji AI na Uniwersytecie Kalifornijskim.


Dodaje, że choć OpenAI zasługuje na uznanie za transparentność, samo wyświetlanie ostrzeżeń nie wystarczy, ponieważ osoby w kryzysie psychicznym mogą nie być w stanie ich zignorować.

Co musisz zrobić?

  • Osoba zauważająca u siebie objawy manii, psychozy czy myśli samobójczych powinna niezwłocznie skontaktować się z lekarzem lub psychoterapeutą.
  • Rodzina i bliscy powinni uważnie obserwować zachowanie użytkownika i w razie potrzeby szukać wsparcia specjalistów zdrowia psychicznego.
  • Użytkownicy ChatGPT powinni korzystać z funkcji przekierowywania rozmów do bezpieczniejszych modeli lub korzystać z materiałów edukacyjnych udostępnionych przez OpenAI.
  • W sytuacjach zagrożenia życia lub ryzyka samookaleczenia należy natychmiast zadzwonić pod lokalne numery alarmowe lub do centrów interwencji kryzysowej (np. w Polsce: 112, 116 123Telefon Zaufania dla Osób Dorosłych w Kryzysie Emocjonalnym).


 

Polecane