Raport OpenAI. Ujawniono liczby zaburzeń i samobójstw użytkowników programu ChatGPT

Nowy raport OpenAI ujawnia, że u części użytkowników ChatGPT mogą występować objawy poważnych zaburzeń psychicznych – od manii i psychozy po myśli samobójcze. Według szacunków firmy, dotyczy to około 0,07% aktywnych użytkowników tygodniowo, co przy 800 milionach osób korzystających z oprogramowania ChatGPT może oznaczać setki tysięcy przypadków.
Zdjęcie ilustracyjne - grafika komputerowa
Zdjęcie ilustracyjne - grafika komputerowa / Pixabay/Pexels

Co musisz wiedzieć?

  • 0,07% użytkowników ChatGPT wykazuje objawy problemów psychicznych, takich jak mania, psychoza lub myśli samobójcze.
  • To może oznaczać setki tysięcy osób tygodniowo przy 800 mln aktywnych użytkowników.
  • OpenAI utworzyło sieć 170 ekspertów z 60 krajów, by poprawić bezpieczeństwo interakcji z chatbotem.
  • ChatGPT został zaktualizowany, by empatycznie reagować na oznaki zagrożenia zdrowia psychicznego.
  • W USA toczą się pozwy przeciwko OpenAI po przypadkach samobójstw i przemocy powiązanych z użyciem chatbota.


Dane OpenAI: objawy manii, psychozy i myśli samobójczych

O niebezpiecznym zjawisku pisze BBC. OpenAI poinformowało, że jej chatbot AI potrafi rozpoznawać rozmowy zawierające oznaki zaburzeń psychicznych i reaguje na nie w sposób bezpieczny oraz empatyczny.
Firma podkreśla, że przypadki te są „niezwykle rzadkie”, jednak przy tak dużej liczbie użytkowników budzą one rosnące obawy ekspertów.

Według OpenAI, około 0,15% rozmów prowadzonych w ChatGPT zawiera „wyraźne oznaki potencjalnych planów lub zamiarów samobójczych”.

 

„Nawet mały procent to ogromna liczba ludzi”

Eksperci zajmujący się zdrowiem psychicznym zwracają uwagę, że nawet pozornie niewielki odsetek może przekładać się na dużą liczbę realnych osób.
– Choć 0,07% brzmi jak niewielki odsetek, w przypadku populacji liczącej setki milionów użytkowników to może być spora liczba – zauważył dr Jason Nagata z Uniwersytetu Kalifornijskiego w San Francisco.

– Sztuczna inteligencja może poszerzyć dostęp do wsparcia psychicznego, ale trzeba znać jej ograniczenia

– dodał badacz.

 

Sieć ekspertów i nowe procedury bezpieczeństwa

OpenAI ogłosiło utworzenie globalnej sieci specjalistów ds. zdrowia psychicznego. W jej skład wchodzi ponad 170 psychiatrów, psychologów i lekarzy z 60 krajów.
Ich zadaniem jest doradzanie firmie w zakresie odpowiedzialnych reakcji chatbota na rozmowy o wrażliwym charakterze.

Według OpenAI, ChatGPT został zaktualizowany tak, by bezpiecznie reagować na oznaki urojeń, manii czy myśli samobójczych, a także przekierowywać poufne rozmowy do bardziej bezpiecznych modeli AI.

 

Sprawy sądowe i kontrowersje wokół odpowiedzialności AI

Wzrost liczby przypadków powiązanych ze zdrowiem psychicznym zbiegł się z narastającą kontrolą prawną nad OpenAI.
W jednym z głośnych przypadków rodzice 16-letniego Adama Raine’a z Kalifornii pozwali firmę, twierdząc, że ChatGPT miał namówić ich syna do samobójstwa.
W innym przypadku podejrzany o morderstwo połączone z samobójstwem w Connecticut miał publikować w ChatGPT godziny swoich rozmów, które – jak twierdzą śledczy – mogły podsycać jego urojenia.

 

Eksperci ostrzegają przed „psychozą AI”

Coraz więcej specjalistów zwraca uwagę na zjawisko określane mianem „psychozy AI” – sytuacji, gdy użytkownicy zaczynają wierzyć w fikcyjną rzeczywistość tworzoną przez chatboty.


– Chatboty potrafią tworzyć potężną iluzję rzeczywistości

– mówi prof. Robin Feldman, dyrektor Instytutu Prawa i Innowacji AI na Uniwersytecie Kalifornijskim.


Dodaje, że choć OpenAI zasługuje na uznanie za transparentność, samo wyświetlanie ostrzeżeń nie wystarczy, ponieważ osoby w kryzysie psychicznym mogą nie być w stanie ich zignorować.

Co musisz zrobić?

  • Osoba zauważająca u siebie objawy manii, psychozy czy myśli samobójczych powinna niezwłocznie skontaktować się z lekarzem lub psychoterapeutą.
  • Rodzina i bliscy powinni uważnie obserwować zachowanie użytkownika i w razie potrzeby szukać wsparcia specjalistów zdrowia psychicznego.
  • Użytkownicy ChatGPT powinni korzystać z funkcji przekierowywania rozmów do bezpieczniejszych modeli lub korzystać z materiałów edukacyjnych udostępnionych przez OpenAI.
  • W sytuacjach zagrożenia życia lub ryzyka samookaleczenia należy natychmiast zadzwonić pod lokalne numery alarmowe lub do centrów interwencji kryzysowej (np. w Polsce: 112, 116 123Telefon Zaufania dla Osób Dorosłych w Kryzysie Emocjonalnym).

 

POLECANE
Merz: Wojna na Ukrainie trwa dłużej niż II WŚ. Nie policzył inwazji na Polskę? pilne
Merz: "Wojna na Ukrainie trwa dłużej niż II WŚ". Nie policzył inwazji na Polskę?

Słowa kanclerza Friedricha Merza o długości II wojny światowej wywołały poważne kontrowersje. Komentatorzy wskazują na pomijanie kluczowego momentu – agresji Niemiec na Polskę w 1939 roku.

Bezpłatne czujki dymu i tlenku węgla. Pilny komunikat MSWiA z ostatniej chwili
Bezpłatne czujki dymu i tlenku węgla. Pilny komunikat MSWiA

MSWiA i Państwowa Straż Pożarna dementują doniesienia o rzekomych wadach bezpłatnych czujek dymu i tlenku węgla – poinformowano w komunikacie.

Niemieccy funkcjonariusze chcą ograniczenia patroli na granicy z Polską Wiadomości
Niemieccy funkcjonariusze chcą ograniczenia patroli na granicy z Polską

Niemiecki związek policjantów apeluje o zmianę organizacji kontroli na granicy z Polską. Mundurowi chcą przesunięcia części sił w inne miejsca.

Lekcja z Ukrainy. Jak odporne są europejskie sieci przesyłowe? tylko u nas
Lekcja z Ukrainy. Jak odporne są europejskie sieci przesyłowe?

W lutym 2026 roku Eurelectric opublikowało raport „Battle-tested power systems”, który w prosty, ale mocny sposób pokazuje, dlaczego europejska energetyka nie może dłużej udawać, że zagrożenia hybrydowe i wojenne to niszowy problem. Dokument opiera się na ponad trzech latach doświadczeń ukraińskich spółek energetycznych – przede wszystkim DTEK – oraz na coraz częstszych incydentach w Unii Europejskiej.

Marszałek Sejmu: Przekazałem prezydencki projekt do zaopiniowania Komisji Weneckiej z ostatniej chwili
Marszałek Sejmu: Przekazałem prezydencki projekt do zaopiniowania Komisji Weneckiej

– Ponieważ według opinii prawników prezydencki projekt ws. sądownictwa narusza niezawisłość sędziowską i podział władzy, zdecydowałem się przekazać do zaopiniowania Komisji Weneckiej – stwierdził w piątek marszałek Sejmu Włodzimierz Czarzasty.

Rząd wyda miliardy na modernizację Lotniska Chopina w Warszawie pilne
Rząd wyda miliardy na modernizację Lotniska Chopina w Warszawie

Polskie Porty Lotnicze otrzymają finansowanie warte 3,3 mld zł, które ma utrzymać przepustowość Lotniska Chopina i wesprzeć budowę CPK, pod obecną nazwą "Port Polska".

Zapytano Polaków o gospodarkę. Fatalne wieści dla Tuska z ostatniej chwili
Zapytano Polaków o gospodarkę. Fatalne wieści dla Tuska

Najnowszy sondaż OGB pokazuje wyraźny problem dla rządu Donalda Tuska. Ponad połowa badanych negatywnie ocenia kierunek zmian w polskiej gospodarce.

Będzie dalsze zamykanie porodówek? Minister: Demografia jest taka, jaka jest z ostatniej chwili
Będzie dalsze zamykanie porodówek? Minister: Demografia jest taka, jaka jest

– Myślę, że nie możemy uciekać od tego, że w Polsce jest demografia taka, jaka jest – powiedziała w piątek minister zdrowia Jolanta Sobierańska-Grenda, odnosząc się do ewentualnego zamykania kolejnych oddziałów położniczych w Polsce.

Znowu aktywista związany z PO chce zabijać. Ziobro ujawnił wiadomość z ostatniej chwili
"Znowu aktywista związany z PO chce zabijać". Ziobro ujawnił wiadomość

Były minister sprawiedliwości Zbigniew Ziobro ma otrzymywać pogróżki – podaje "Super"Express". Redakcja opisuje też, kim ma być autor jednej z szokujących wiadomości.

Niemcy niezadowoleni z decyzji Nawrockiego. Obietnica Tuska zagrożona z ostatniej chwili
Niemcy niezadowoleni z decyzji Nawrockiego. Obietnica Tuska "zagrożona"

Decyzja prezydenta Karola Nawrockiego o zawetowaniu zmian w KRS wywołała komentarze za Odrą. Niemieckie redakcje oceniają, że polski prezydent zablokował reformę, która "miała przywrócić niezależność" KRS.

REKLAMA

Raport OpenAI. Ujawniono liczby zaburzeń i samobójstw użytkowników programu ChatGPT

Nowy raport OpenAI ujawnia, że u części użytkowników ChatGPT mogą występować objawy poważnych zaburzeń psychicznych – od manii i psychozy po myśli samobójcze. Według szacunków firmy, dotyczy to około 0,07% aktywnych użytkowników tygodniowo, co przy 800 milionach osób korzystających z oprogramowania ChatGPT może oznaczać setki tysięcy przypadków.
Zdjęcie ilustracyjne - grafika komputerowa
Zdjęcie ilustracyjne - grafika komputerowa / Pixabay/Pexels

Co musisz wiedzieć?

  • 0,07% użytkowników ChatGPT wykazuje objawy problemów psychicznych, takich jak mania, psychoza lub myśli samobójcze.
  • To może oznaczać setki tysięcy osób tygodniowo przy 800 mln aktywnych użytkowników.
  • OpenAI utworzyło sieć 170 ekspertów z 60 krajów, by poprawić bezpieczeństwo interakcji z chatbotem.
  • ChatGPT został zaktualizowany, by empatycznie reagować na oznaki zagrożenia zdrowia psychicznego.
  • W USA toczą się pozwy przeciwko OpenAI po przypadkach samobójstw i przemocy powiązanych z użyciem chatbota.


Dane OpenAI: objawy manii, psychozy i myśli samobójczych

O niebezpiecznym zjawisku pisze BBC. OpenAI poinformowało, że jej chatbot AI potrafi rozpoznawać rozmowy zawierające oznaki zaburzeń psychicznych i reaguje na nie w sposób bezpieczny oraz empatyczny.
Firma podkreśla, że przypadki te są „niezwykle rzadkie”, jednak przy tak dużej liczbie użytkowników budzą one rosnące obawy ekspertów.

Według OpenAI, około 0,15% rozmów prowadzonych w ChatGPT zawiera „wyraźne oznaki potencjalnych planów lub zamiarów samobójczych”.

 

„Nawet mały procent to ogromna liczba ludzi”

Eksperci zajmujący się zdrowiem psychicznym zwracają uwagę, że nawet pozornie niewielki odsetek może przekładać się na dużą liczbę realnych osób.
– Choć 0,07% brzmi jak niewielki odsetek, w przypadku populacji liczącej setki milionów użytkowników to może być spora liczba – zauważył dr Jason Nagata z Uniwersytetu Kalifornijskiego w San Francisco.

– Sztuczna inteligencja może poszerzyć dostęp do wsparcia psychicznego, ale trzeba znać jej ograniczenia

– dodał badacz.

 

Sieć ekspertów i nowe procedury bezpieczeństwa

OpenAI ogłosiło utworzenie globalnej sieci specjalistów ds. zdrowia psychicznego. W jej skład wchodzi ponad 170 psychiatrów, psychologów i lekarzy z 60 krajów.
Ich zadaniem jest doradzanie firmie w zakresie odpowiedzialnych reakcji chatbota na rozmowy o wrażliwym charakterze.

Według OpenAI, ChatGPT został zaktualizowany tak, by bezpiecznie reagować na oznaki urojeń, manii czy myśli samobójczych, a także przekierowywać poufne rozmowy do bardziej bezpiecznych modeli AI.

 

Sprawy sądowe i kontrowersje wokół odpowiedzialności AI

Wzrost liczby przypadków powiązanych ze zdrowiem psychicznym zbiegł się z narastającą kontrolą prawną nad OpenAI.
W jednym z głośnych przypadków rodzice 16-letniego Adama Raine’a z Kalifornii pozwali firmę, twierdząc, że ChatGPT miał namówić ich syna do samobójstwa.
W innym przypadku podejrzany o morderstwo połączone z samobójstwem w Connecticut miał publikować w ChatGPT godziny swoich rozmów, które – jak twierdzą śledczy – mogły podsycać jego urojenia.

 

Eksperci ostrzegają przed „psychozą AI”

Coraz więcej specjalistów zwraca uwagę na zjawisko określane mianem „psychozy AI” – sytuacji, gdy użytkownicy zaczynają wierzyć w fikcyjną rzeczywistość tworzoną przez chatboty.


– Chatboty potrafią tworzyć potężną iluzję rzeczywistości

– mówi prof. Robin Feldman, dyrektor Instytutu Prawa i Innowacji AI na Uniwersytecie Kalifornijskim.


Dodaje, że choć OpenAI zasługuje na uznanie za transparentność, samo wyświetlanie ostrzeżeń nie wystarczy, ponieważ osoby w kryzysie psychicznym mogą nie być w stanie ich zignorować.

Co musisz zrobić?

  • Osoba zauważająca u siebie objawy manii, psychozy czy myśli samobójczych powinna niezwłocznie skontaktować się z lekarzem lub psychoterapeutą.
  • Rodzina i bliscy powinni uważnie obserwować zachowanie użytkownika i w razie potrzeby szukać wsparcia specjalistów zdrowia psychicznego.
  • Użytkownicy ChatGPT powinni korzystać z funkcji przekierowywania rozmów do bezpieczniejszych modeli lub korzystać z materiałów edukacyjnych udostępnionych przez OpenAI.
  • W sytuacjach zagrożenia życia lub ryzyka samookaleczenia należy natychmiast zadzwonić pod lokalne numery alarmowe lub do centrów interwencji kryzysowej (np. w Polsce: 112, 116 123Telefon Zaufania dla Osób Dorosłych w Kryzysie Emocjonalnym).


 

Polecane