Raport OpenAI. Ujawniono liczby zaburzeń i samobójstw użytkowników programu ChatGPT

Nowy raport OpenAI ujawnia, że u części użytkowników ChatGPT mogą występować objawy poważnych zaburzeń psychicznych – od manii i psychozy po myśli samobójcze. Według szacunków firmy, dotyczy to około 0,07% aktywnych użytkowników tygodniowo, co przy 800 milionach osób korzystających z oprogramowania ChatGPT może oznaczać setki tysięcy przypadków.
Zdjęcie ilustracyjne - grafika komputerowa
Zdjęcie ilustracyjne - grafika komputerowa / Pixabay/Pexels

Co musisz wiedzieć?

  • 0,07% użytkowników ChatGPT wykazuje objawy problemów psychicznych, takich jak mania, psychoza lub myśli samobójcze.
  • To może oznaczać setki tysięcy osób tygodniowo przy 800 mln aktywnych użytkowników.
  • OpenAI utworzyło sieć 170 ekspertów z 60 krajów, by poprawić bezpieczeństwo interakcji z chatbotem.
  • ChatGPT został zaktualizowany, by empatycznie reagować na oznaki zagrożenia zdrowia psychicznego.
  • W USA toczą się pozwy przeciwko OpenAI po przypadkach samobójstw i przemocy powiązanych z użyciem chatbota.


Dane OpenAI: objawy manii, psychozy i myśli samobójczych

O niebezpiecznym zjawisku pisze BBC. OpenAI poinformowało, że jej chatbot AI potrafi rozpoznawać rozmowy zawierające oznaki zaburzeń psychicznych i reaguje na nie w sposób bezpieczny oraz empatyczny.
Firma podkreśla, że przypadki te są „niezwykle rzadkie”, jednak przy tak dużej liczbie użytkowników budzą one rosnące obawy ekspertów.

Według OpenAI, około 0,15% rozmów prowadzonych w ChatGPT zawiera „wyraźne oznaki potencjalnych planów lub zamiarów samobójczych”.

 

„Nawet mały procent to ogromna liczba ludzi”

Eksperci zajmujący się zdrowiem psychicznym zwracają uwagę, że nawet pozornie niewielki odsetek może przekładać się na dużą liczbę realnych osób.
– Choć 0,07% brzmi jak niewielki odsetek, w przypadku populacji liczącej setki milionów użytkowników to może być spora liczba – zauważył dr Jason Nagata z Uniwersytetu Kalifornijskiego w San Francisco.

– Sztuczna inteligencja może poszerzyć dostęp do wsparcia psychicznego, ale trzeba znać jej ograniczenia

– dodał badacz.

 

Sieć ekspertów i nowe procedury bezpieczeństwa

OpenAI ogłosiło utworzenie globalnej sieci specjalistów ds. zdrowia psychicznego. W jej skład wchodzi ponad 170 psychiatrów, psychologów i lekarzy z 60 krajów.
Ich zadaniem jest doradzanie firmie w zakresie odpowiedzialnych reakcji chatbota na rozmowy o wrażliwym charakterze.

Według OpenAI, ChatGPT został zaktualizowany tak, by bezpiecznie reagować na oznaki urojeń, manii czy myśli samobójczych, a także przekierowywać poufne rozmowy do bardziej bezpiecznych modeli AI.

 

Sprawy sądowe i kontrowersje wokół odpowiedzialności AI

Wzrost liczby przypadków powiązanych ze zdrowiem psychicznym zbiegł się z narastającą kontrolą prawną nad OpenAI.
W jednym z głośnych przypadków rodzice 16-letniego Adama Raine’a z Kalifornii pozwali firmę, twierdząc, że ChatGPT miał namówić ich syna do samobójstwa.
W innym przypadku podejrzany o morderstwo połączone z samobójstwem w Connecticut miał publikować w ChatGPT godziny swoich rozmów, które – jak twierdzą śledczy – mogły podsycać jego urojenia.

 

Eksperci ostrzegają przed „psychozą AI”

Coraz więcej specjalistów zwraca uwagę na zjawisko określane mianem „psychozy AI” – sytuacji, gdy użytkownicy zaczynają wierzyć w fikcyjną rzeczywistość tworzoną przez chatboty.


– Chatboty potrafią tworzyć potężną iluzję rzeczywistości

– mówi prof. Robin Feldman, dyrektor Instytutu Prawa i Innowacji AI na Uniwersytecie Kalifornijskim.


Dodaje, że choć OpenAI zasługuje na uznanie za transparentność, samo wyświetlanie ostrzeżeń nie wystarczy, ponieważ osoby w kryzysie psychicznym mogą nie być w stanie ich zignorować.

Co musisz zrobić?

  • Osoba zauważająca u siebie objawy manii, psychozy czy myśli samobójczych powinna niezwłocznie skontaktować się z lekarzem lub psychoterapeutą.
  • Rodzina i bliscy powinni uważnie obserwować zachowanie użytkownika i w razie potrzeby szukać wsparcia specjalistów zdrowia psychicznego.
  • Użytkownicy ChatGPT powinni korzystać z funkcji przekierowywania rozmów do bezpieczniejszych modeli lub korzystać z materiałów edukacyjnych udostępnionych przez OpenAI.
  • W sytuacjach zagrożenia życia lub ryzyka samookaleczenia należy natychmiast zadzwonić pod lokalne numery alarmowe lub do centrów interwencji kryzysowej (np. w Polsce: 112, 116 123Telefon Zaufania dla Osób Dorosłych w Kryzysie Emocjonalnym).

 

POLECANE
Lewandowski nie pojawił się na boisku. Hiszpańskie media ujawniają powód Wiadomości
Lewandowski nie pojawił się na boisku. Hiszpańskie media ujawniają powód

Sobotni mecz FC Barcelony z Osasuną zakończył się zwycięstwem gospodarzy 2:0, ale dla polskich kibiców nie był to wieczór idealny. Robert Lewandowski całe spotkanie obejrzał z ławki rezerwowych, a po meczu pojawiły się niepokojące doniesienia dotyczące jego zdrowia.

Zignorowały zakaz i wpadły pod choinkę. Niebezpieczne zdarzenie w Gdańsku Wiadomości
Zignorowały zakaz i wpadły pod choinkę. Niebezpieczne zdarzenie w Gdańsku

Chwila nieuwagi i chęć zrobienia efektownego zdjęcia mogły skończyć się bardzo poważnie. Przy świątecznej choince na Długim Targu w Gdańsku doszło do zdarzenia, które postawiło na nogi służby miejskie i stało się ostrzeżeniem dla innych odwiedzających centrum miasta.

Prevc znów najlepszy. Polacy poza czołówką w Klingenthal z ostatniej chwili
Prevc znów najlepszy. Polacy poza czołówką w Klingenthal

Piotr Żyła zajął 20. miejsce, Paweł Wąsek był 21., a Dawid Kubacki - 28. w niedzielnym konkursie Pucharu Świata w skokach narciarskich w niemieckim Klingenthal. Wygrał Słoweniec Domen Prevc. Na podium stanęli też Japończycy Ren Nikaido i Ryoyu Kobayashi.

Pałac Buckingham. Nowe doniesienia ws. księżnej Kate Wiadomości
Pałac Buckingham. Nowe doniesienia ws. księżnej Kate

13 grudnia księżna Kate odwiedziła wyjątkowe miejsce pamięci – Ever After Garden. Ogród ten powstał, aby upamiętnić osoby, które zmarły na raka, a jednocześnie zbiera środki na rzecz organizacji The Royal Marsden Cancer Charity.

GIS wydał ostrzeżenie. Chodzi o popularny produkt dla dzieci Wiadomości
GIS wydał ostrzeżenie. Chodzi o popularny produkt dla dzieci

Główny Inspektorat Sanitarny wydał ostrzeżenie dotyczące dwóch partii mleka modyfikowanego dla niemowląt ze względu na wykrycie obecności mikroorganizmu na jednej z linii produkcyjnych w zakładzie. Zaznaczył, że nie należy spożywać produktów z dwóch wskazanych w komunikacie partii.

Niebezpieczna interwencja w Radomiu. 26-latka z nożem Wiadomości
Niebezpieczna interwencja w Radomiu. 26-latka z nożem

W sobotę wieczorem w Radomiu doszło do niebezpiecznej interwencji, podczas której policjanci próbowali obezwładnić kobietę chodzącą po mieście z nożem. Zgłoszenie wpłynęło około godz. 21.00. Po przyjeździe na miejsce funkcjonariusze zlokalizowali 26-letnią kobietę w okolicy ul. Słowackiego.

Nagły zwrot Ukrainy ws. NATO. Trwają rozmowy w Berlinie z ostatniej chwili
Nagły zwrot Ukrainy ws. NATO. Trwają rozmowy w Berlinie

Wołodymyr Zełenski poinformował, że Ukraina jest gotowa odstąpić od aspiracji członkostwa w NATO, jeśli otrzyma realne i prawnie wiążące gwarancje bezpieczeństwa od Zachodu. To element kompromisu mającego doprowadzić do zakończenia wojny z Rosją.

Świąteczne ceny w górach szokują Wiadomości
Świąteczne ceny w górach szokują

Z porównania przygotowanego przez Telewizję wPolsce24 wynika, że ceny ceny noclegów w polskich kurortach górskich poszły gwałtownie w górę. Procentowo koszt pobytu w okresie świąteczno-noworocznym w Zakopanem i Szczyrku zdrożał bardziej niż w Livigno.

Ryzykowny spacer po Morskim Oku. Wśród turystów były dzieci Wiadomości
Ryzykowny spacer po Morskim Oku. Wśród turystów były dzieci

W sieci znów zawrzało po opublikowaniu nagrania z Tatr. Na profilu „tatry_official” na Instagramie pokazano turystów spacerujących po zamarzniętym Morskim Oku. Największe poruszenie wywołał fakt, że na lodzie znajdowały się także małe dzieci.

Zrobiliśmy to co do nas należało. O Solidarności w Muzeum Pamięć i Tożsamość w Toruniu z ostatniej chwili
"Zrobiliśmy to co do nas należało". O Solidarności w Muzeum Pamięć i Tożsamość w Toruniu

„Od protestu do wolności – Toruń w historii Solidarności” – wernisaż wystawy o bohaterach opozycji antykomunistycznej na Pomorzu i Kujawach odbył się w rocznicę wprowadzenia stanu wojennego 13 grudnia w Muzeum Pamięć i Tożsamość im. św. Jana Pawła II w Toruniu. Fundację Promocji Solidarności podczas wydarzenia reprezentował dr Adam Chmielecki.

REKLAMA

Raport OpenAI. Ujawniono liczby zaburzeń i samobójstw użytkowników programu ChatGPT

Nowy raport OpenAI ujawnia, że u części użytkowników ChatGPT mogą występować objawy poważnych zaburzeń psychicznych – od manii i psychozy po myśli samobójcze. Według szacunków firmy, dotyczy to około 0,07% aktywnych użytkowników tygodniowo, co przy 800 milionach osób korzystających z oprogramowania ChatGPT może oznaczać setki tysięcy przypadków.
Zdjęcie ilustracyjne - grafika komputerowa
Zdjęcie ilustracyjne - grafika komputerowa / Pixabay/Pexels

Co musisz wiedzieć?

  • 0,07% użytkowników ChatGPT wykazuje objawy problemów psychicznych, takich jak mania, psychoza lub myśli samobójcze.
  • To może oznaczać setki tysięcy osób tygodniowo przy 800 mln aktywnych użytkowników.
  • OpenAI utworzyło sieć 170 ekspertów z 60 krajów, by poprawić bezpieczeństwo interakcji z chatbotem.
  • ChatGPT został zaktualizowany, by empatycznie reagować na oznaki zagrożenia zdrowia psychicznego.
  • W USA toczą się pozwy przeciwko OpenAI po przypadkach samobójstw i przemocy powiązanych z użyciem chatbota.


Dane OpenAI: objawy manii, psychozy i myśli samobójczych

O niebezpiecznym zjawisku pisze BBC. OpenAI poinformowało, że jej chatbot AI potrafi rozpoznawać rozmowy zawierające oznaki zaburzeń psychicznych i reaguje na nie w sposób bezpieczny oraz empatyczny.
Firma podkreśla, że przypadki te są „niezwykle rzadkie”, jednak przy tak dużej liczbie użytkowników budzą one rosnące obawy ekspertów.

Według OpenAI, około 0,15% rozmów prowadzonych w ChatGPT zawiera „wyraźne oznaki potencjalnych planów lub zamiarów samobójczych”.

 

„Nawet mały procent to ogromna liczba ludzi”

Eksperci zajmujący się zdrowiem psychicznym zwracają uwagę, że nawet pozornie niewielki odsetek może przekładać się na dużą liczbę realnych osób.
– Choć 0,07% brzmi jak niewielki odsetek, w przypadku populacji liczącej setki milionów użytkowników to może być spora liczba – zauważył dr Jason Nagata z Uniwersytetu Kalifornijskiego w San Francisco.

– Sztuczna inteligencja może poszerzyć dostęp do wsparcia psychicznego, ale trzeba znać jej ograniczenia

– dodał badacz.

 

Sieć ekspertów i nowe procedury bezpieczeństwa

OpenAI ogłosiło utworzenie globalnej sieci specjalistów ds. zdrowia psychicznego. W jej skład wchodzi ponad 170 psychiatrów, psychologów i lekarzy z 60 krajów.
Ich zadaniem jest doradzanie firmie w zakresie odpowiedzialnych reakcji chatbota na rozmowy o wrażliwym charakterze.

Według OpenAI, ChatGPT został zaktualizowany tak, by bezpiecznie reagować na oznaki urojeń, manii czy myśli samobójczych, a także przekierowywać poufne rozmowy do bardziej bezpiecznych modeli AI.

 

Sprawy sądowe i kontrowersje wokół odpowiedzialności AI

Wzrost liczby przypadków powiązanych ze zdrowiem psychicznym zbiegł się z narastającą kontrolą prawną nad OpenAI.
W jednym z głośnych przypadków rodzice 16-letniego Adama Raine’a z Kalifornii pozwali firmę, twierdząc, że ChatGPT miał namówić ich syna do samobójstwa.
W innym przypadku podejrzany o morderstwo połączone z samobójstwem w Connecticut miał publikować w ChatGPT godziny swoich rozmów, które – jak twierdzą śledczy – mogły podsycać jego urojenia.

 

Eksperci ostrzegają przed „psychozą AI”

Coraz więcej specjalistów zwraca uwagę na zjawisko określane mianem „psychozy AI” – sytuacji, gdy użytkownicy zaczynają wierzyć w fikcyjną rzeczywistość tworzoną przez chatboty.


– Chatboty potrafią tworzyć potężną iluzję rzeczywistości

– mówi prof. Robin Feldman, dyrektor Instytutu Prawa i Innowacji AI na Uniwersytecie Kalifornijskim.


Dodaje, że choć OpenAI zasługuje na uznanie za transparentność, samo wyświetlanie ostrzeżeń nie wystarczy, ponieważ osoby w kryzysie psychicznym mogą nie być w stanie ich zignorować.

Co musisz zrobić?

  • Osoba zauważająca u siebie objawy manii, psychozy czy myśli samobójczych powinna niezwłocznie skontaktować się z lekarzem lub psychoterapeutą.
  • Rodzina i bliscy powinni uważnie obserwować zachowanie użytkownika i w razie potrzeby szukać wsparcia specjalistów zdrowia psychicznego.
  • Użytkownicy ChatGPT powinni korzystać z funkcji przekierowywania rozmów do bezpieczniejszych modeli lub korzystać z materiałów edukacyjnych udostępnionych przez OpenAI.
  • W sytuacjach zagrożenia życia lub ryzyka samookaleczenia należy natychmiast zadzwonić pod lokalne numery alarmowe lub do centrów interwencji kryzysowej (np. w Polsce: 112, 116 123Telefon Zaufania dla Osób Dorosłych w Kryzysie Emocjonalnym).


 

Polecane