Jakie zagrożenia dla ludzkości ze strony SI ukrył szef OpenAI Sam Altman?

Jeden z ojców sztucznej inteligencji i szef firmy OpenAI, która stworzyła program ChatGPT, pod koniec listopada nieoczekiwanie i w trybie natychmiastowym zostaje zwolniony z pracy. Kilkanaście godzin później już wie, że znajdzie pracę w Microsofcie, kolejnym gigancie który od lat skupia się na rozwoju sztucznej inteligencji. Kiedy w OpenAI rozpoczyna się dochodzenie w sprawie nagłego zwolnienia byłego prezesa, rada dyrektorów spółki robi krok do tyłu i… przywraca go do pracy. W branżowych mediach wciąż wybrzmiewa pytanie: Jakie zagrożenia dla ludzkości ze strony SI ukrył Altman i o czym nie chcą mówić twórcy bota ChatGPT?
Sztuczna inteligencja - zdjęcie poglądowe Jakie zagrożenia dla ludzkości ze strony SI ukrył szef OpenAI Sam Altman?
Sztuczna inteligencja - zdjęcie poglądowe / fot. pixabay.com

Przez te kilka dni, kiedy ważą się nie tylko losy założyciela OpenAI, ale również całej branży sztucznej inteligencji i przyszłość miliardów dolarów zainwestowanych przez fundusze inwestycyjne w spółki nowych technologii, gazety biznesowe prześcigają się w spekulacjach, co takiego ukrywa przed światem i radą dyrektorów Sam Altman. Już kilka godzin po zwolnieniu proszący o anonimowość członek zarządu firmy zdradza, że przy zwolnieniu w grę wchodziła nie tylko przyszłość pierwszej światowej firmy, lecz także całej ludzkości.

Altman wiedział, nie powiedział

Założona przez Altmana firma OpenAI już wiele miesięcy wcześniej stała się światowym pionierem w zarządzaniu działem badań naukowych – powołała do życia sztuczną inteligencję, która już po kilku pierwszych tygodniach nie tylko zabawiała rozmowami zafascynowanych nową zabawką amerykańskich i japońskich emerytów, ale jak świat szeroki pisała prace zaliczeniowe dla studentów we wszystkich językach świata, a nawet prace doktorskie z prawa międzynarodowego, czy – na czym dość szybko dała się złapać – także projekty ustaw w wielu krajach, które bezrefleksyjnie trafiały pod obrady parlamentów. Przede wszystkim jednak jako pierwsza korporacja w świecie nowych technologii zaczęła zatrudniać filozofów i etyków, których głównym zadaniem było określenie, na ile niebezpieczne i antyludzkie jest narzędzie zdobywające popularność w bezprecedensowym tempie, bijąc na głowę ilością logowań i odsłon nie tylko rekordy serwisów społecznościowych, ale także… bezkonkurencyjnej w skali planety przeglądarki Google.

„Za zwolnieniem Sama Altmana stoją obawy o zbyt szybki rozwój sztucznej inteligencji i związany z tym niepokój o bezpieczeństwo nie tylko firmy i jej produktu, ale przede wszystkim całej ludzkości” – donoszą dobę po zwolnieniu Altmana „New York Times” i agencja Bloomberg. Nowy zarząd OpenAI nie komentuje tych doniesień, ale – co symptomatyczne – nie zaprzecza im. Zamiast tego tymczasowy dyrektor wykonawczy OpenAI Emmett Shear zapowiada przeprowadzenie dochodzenia w sprawie nagłego i nieoczekiwanego zwolnienia z pracy założyciela firmy.

W ciągu kilku godzin od tego zdarzenia w amerykańskich i zachodnioeuropejskich mediach pojawiły się głosy naukowców potwierdzające ten zarzut.

– Wzmianka w komunikacie o zwolnieniu Altmana mówiąca o tym, że „nie był konsekwentnie szczery w swojej komunikacji z zarządem, utrudniając mu wykonywanie jego obowiązków”, oznacza, że biznesmen zatajał informacje, które kolidowały z obowiązkami zarządu, by zapewnić bezpieczny rozwój AI – deklaruje Toby Ord, filozof i jeden z liderów ruchu efektywnego altruizmu, który zakładał razem z Altmanem pod koniec drugiej dekady obecnego wieku. Ruch od lat przestrzega przed oddawaniem zbyt dużej władzy sztucznej inteligencji, która już dzisiaj wymyka się spod kontroli. ChatGPT – wciąż przez wielu użytkowników uważany za zabawkę – pokazał już, że potrafi nie tylko świetnie pisać i udawać człowieka w rozmowach, ale przede wszystkim potrafi doskonale kłamać. Dopóki chodzi o zjawisko „halucynowania SI” – czyli wymyślania na poczekaniu historii, które się nie wydarzyły – jest to dość zabawne, jednak ChatGPT (i podobne boty stworzone przez konkurencyjne firmy – m.in. Google i Microsoft) potrafi również podrabiać styl, głos a nawet tworzyć materiały video z wypowiedziami żyjących i nieżyjących polityków, które nigdy nie padły.

SI w służbie dezinformacji

Trzeba pamiętać, że podobne sztuczne inteligencje powstały i są wykorzystywane także w krajach, które z demokracją mają niewiele wspólnego – Chiny z powodzeniem zatrudniły SI do stworzenia nieprawdziwych prezenterów telewizyjnych, którzy bez mrugnięcia okiem czytają wiadomości, mówiąc nierzadko o zachwycie całego świata nad pokojowym i stabilnym rozwojem Chin stających się nowym światowym liderem gotowym do zastąpienia, a nawet wyeliminowania Stanów Zjednoczonych. W tym samym czasie podobne algorytmy tworzone przez Rosję przekazują Rosjanom informacje o sukcesach rosyjskiej operacji specjalnej na Ukrainie, a nawet o przyjaznym witaniu przez pragnących spokoju i stabilności Ukraińców rosyjskich sił na wschodzie zaatakowanego kraju, jednocześnie pokazując w ukraińskich serwisach społecznościowych nieistniejące kłótnie w ukraińskim sztabie generalnym.

Do pierwszej ligi w rozwoju sztucznej inteligencji wchodzą również Arabowie. Oto Arabska Rada ds. Badań nad Zaawansowanymi Technologiami z siedzibą w Abu Zabi dokonuje na przełomie listopada i grudnia śmiałego kroku, tworząc nową, w zapowiedziach największą firmę z branży sztucznej inteligencji – AI71. Podmiot powstaje w oparciu o stworzone przez arabski Technology Innovation Institute modele generatywnej sztucznej inteligencji Falcon i skupi się na wielodomenowych specjalizacjach, oferując zarazem niedostępne wcześniej opcje sterowania danymi AI dla firm i krajów, które zamierzają podjąć się self-hostingu dla ochrony prywatności i tajemnic państwowych.

Kto wyłączy SI?

Przeciwnicy niekontrolowanego rozwoju sztucznej inteligencji podkreślają, że żadna z tych firm i organizacji nie potrafi odpowiedzieć na pytanie od lat stawiane przez ruch efektywnego altruizmu: Czy ponad wszelką wątpliwość firmy zajmujące się rozwojem SI mają pewność, że istniejące na świecie sztuczne inteligencje nie połączyły się i nie współpracują ze sobą, kształtując świat nie według oczekiwań ich twórców, lecz według projektu, o którym ludzie nie mają pojęcia. – A to właśnie największe niebezpieczeństwo, skoro SI zarządzają już największymi elektrowniami atomowymi, kolejami, gigantycznymi bazami danych, a nawet autonomicznymi samochodami – przestrzega Toby Ord. – Nie mamy nawet pewności, czy te wszystkie algorytmy dadzą się dzisiaj wyłączyć – mówi filozof.

Tekst pochodzi z 50 (1820) numeru „Tygodnika Solidarność”.


 

POLECANE
Działacz Platformy skazany za pedofilię. Skrzywdził kilkanaścioro dzieci Wiadomości
Działacz Platformy skazany za pedofilię. Skrzywdził kilkanaścioro dzieci

Były szef powiatowych struktur Platformy Obywatelskiej w Złotowie został skazany na 11 lat więzienia. Wyrok jest nieprawomocny.

Niepokojące informacje z granicy. Jest komunikat Straży Granicznej z ostatniej chwili
Niepokojące informacje z granicy. Jest komunikat Straży Granicznej

W poniedziałek Straż Graniczna opublikowała nowy raport dot. sytuacji na granicy polsko-białoruskiej.

Barbara Skrzypek nie żyje. Tusk, Bodnar i Trzaskowski milczą czwarty dzień gorące
Barbara Skrzypek nie żyje. Tusk, Bodnar i Trzaskowski milczą czwarty dzień

W sobotę w wieku 66 lat zmarła Barbara Skrzypek, wieloletnia współpracowniczka Jarosława Kaczyńskiego. Komentatorzy zwracają uwagę na warunki przesłuchania jakiemu poddała ją trzy dni wcześniej prokurator Ewa Wrzosek, w tym niedopuszczenie do przesłuchania pełnomocnika Barbary Skrzypek.

Rzecznik Prokuratury Okręgowej w Warszawie, gdzie była przesłuchiwana Barbara Skrzypek, idzie na urlop. Jest komunikat gorące
Rzecznik Prokuratury Okręgowej w Warszawie, gdzie była przesłuchiwana Barbara Skrzypek, idzie na urlop. Jest komunikat

Prokuratura Okręgowa w Warszawie przekazała, że rzecznik prok. Piotr Skiba idzie na urlop. W oświadczeniu stwierdzono, że "terminy udzielania odpowiedzi na pisemne pytania prasowe mogą ulec wydłużeniu".

Wiadomości
Aparat samoligaturujący – nowoczesna alternatywa dla tradycyjnych aparatów ortodontycznych

Piękny, równy uśmiech to marzenie wielu z nas, jednak natura nie zawsze jest dla nas łaskawa. Na szczęście współczesna ortodoncja dysponuje wieloma skutecznymi metodami, które pomagają skorygować rozmaite wady zgryzu. Wśród nich coraz większą popularność zdobywają aparaty samoligaturujące. Dowiedz się, czym są i dlaczego warto się na nie zdecydować!

Karol Nawrocki zabrał głos ws. książki Spowiedź Nikosia zza grobu polityka
Karol Nawrocki zabrał głos ws. książki "Spowiedź Nikosia zza grobu"

Karol Nawrocki dostarczył do PKW podpisy do rejestracji w wyborach prezydenckich. Podczas konferencji prasowej został zapytany o napisanie książki "Spowiedź Nikosia zza grobu" o trójmiejskim gangsterze Nikodemie Skotarczaku, pseudonim Tadeusz Batyr.

Polska wycofuje się z ważnego traktatu Wiadomości
Polska wycofuje się z ważnego traktatu

Polska wraz z Litwą, Łotwą i Estonią wypowiadają traktat ottawski, który zakazuje używania min przeciwpiechotnych.

Komunikat dla mieszkańców Poznania Wiadomości
Komunikat dla mieszkańców Poznania

We wtorek 18 marca w Poznaniu rozpoczęły się prace remontowe jezdni ul. Chartowo. MPK Poznań poinformowało o zmianach w trasach linii autobusowych.

Śledztwo ws. Andrzeja Domańskiego? Jest decyzja prokuratury Wiadomości
Śledztwo ws. Andrzeja Domańskiego? Jest decyzja prokuratury

Prokuratura odmówiła wszczęcia śledztwa w sprawie niewypłacenia pieniędzy Prawu i Sprawiedliwości – wynika z ustaleń "Dziennika Gazety Prawnej". Wcześniej do prokuratury trafiły trzy zawiadomienia ws. braku decyzji ministra finansów Andrzeja Domańskiego w kwestii subwencji dla Prawa i Sprawiedliwości.

Zaskakujące wyniki sondażu. Kto dostałby się do Sejmu? polityka
Zaskakujące wyniki sondażu. Kto dostałby się do Sejmu?

Według najnowszego sondażu pracowni Opinia24 przeprowadzonego na zlecenie RMF FM do Sejmu dostałyby się tylko trzy partie. Rośnie także liczba chętnych do głosowania w wyborach parlamentarnych.

REKLAMA

Jakie zagrożenia dla ludzkości ze strony SI ukrył szef OpenAI Sam Altman?

Jeden z ojców sztucznej inteligencji i szef firmy OpenAI, która stworzyła program ChatGPT, pod koniec listopada nieoczekiwanie i w trybie natychmiastowym zostaje zwolniony z pracy. Kilkanaście godzin później już wie, że znajdzie pracę w Microsofcie, kolejnym gigancie który od lat skupia się na rozwoju sztucznej inteligencji. Kiedy w OpenAI rozpoczyna się dochodzenie w sprawie nagłego zwolnienia byłego prezesa, rada dyrektorów spółki robi krok do tyłu i… przywraca go do pracy. W branżowych mediach wciąż wybrzmiewa pytanie: Jakie zagrożenia dla ludzkości ze strony SI ukrył Altman i o czym nie chcą mówić twórcy bota ChatGPT?
Sztuczna inteligencja - zdjęcie poglądowe Jakie zagrożenia dla ludzkości ze strony SI ukrył szef OpenAI Sam Altman?
Sztuczna inteligencja - zdjęcie poglądowe / fot. pixabay.com

Przez te kilka dni, kiedy ważą się nie tylko losy założyciela OpenAI, ale również całej branży sztucznej inteligencji i przyszłość miliardów dolarów zainwestowanych przez fundusze inwestycyjne w spółki nowych technologii, gazety biznesowe prześcigają się w spekulacjach, co takiego ukrywa przed światem i radą dyrektorów Sam Altman. Już kilka godzin po zwolnieniu proszący o anonimowość członek zarządu firmy zdradza, że przy zwolnieniu w grę wchodziła nie tylko przyszłość pierwszej światowej firmy, lecz także całej ludzkości.

Altman wiedział, nie powiedział

Założona przez Altmana firma OpenAI już wiele miesięcy wcześniej stała się światowym pionierem w zarządzaniu działem badań naukowych – powołała do życia sztuczną inteligencję, która już po kilku pierwszych tygodniach nie tylko zabawiała rozmowami zafascynowanych nową zabawką amerykańskich i japońskich emerytów, ale jak świat szeroki pisała prace zaliczeniowe dla studentów we wszystkich językach świata, a nawet prace doktorskie z prawa międzynarodowego, czy – na czym dość szybko dała się złapać – także projekty ustaw w wielu krajach, które bezrefleksyjnie trafiały pod obrady parlamentów. Przede wszystkim jednak jako pierwsza korporacja w świecie nowych technologii zaczęła zatrudniać filozofów i etyków, których głównym zadaniem było określenie, na ile niebezpieczne i antyludzkie jest narzędzie zdobywające popularność w bezprecedensowym tempie, bijąc na głowę ilością logowań i odsłon nie tylko rekordy serwisów społecznościowych, ale także… bezkonkurencyjnej w skali planety przeglądarki Google.

„Za zwolnieniem Sama Altmana stoją obawy o zbyt szybki rozwój sztucznej inteligencji i związany z tym niepokój o bezpieczeństwo nie tylko firmy i jej produktu, ale przede wszystkim całej ludzkości” – donoszą dobę po zwolnieniu Altmana „New York Times” i agencja Bloomberg. Nowy zarząd OpenAI nie komentuje tych doniesień, ale – co symptomatyczne – nie zaprzecza im. Zamiast tego tymczasowy dyrektor wykonawczy OpenAI Emmett Shear zapowiada przeprowadzenie dochodzenia w sprawie nagłego i nieoczekiwanego zwolnienia z pracy założyciela firmy.

W ciągu kilku godzin od tego zdarzenia w amerykańskich i zachodnioeuropejskich mediach pojawiły się głosy naukowców potwierdzające ten zarzut.

– Wzmianka w komunikacie o zwolnieniu Altmana mówiąca o tym, że „nie był konsekwentnie szczery w swojej komunikacji z zarządem, utrudniając mu wykonywanie jego obowiązków”, oznacza, że biznesmen zatajał informacje, które kolidowały z obowiązkami zarządu, by zapewnić bezpieczny rozwój AI – deklaruje Toby Ord, filozof i jeden z liderów ruchu efektywnego altruizmu, który zakładał razem z Altmanem pod koniec drugiej dekady obecnego wieku. Ruch od lat przestrzega przed oddawaniem zbyt dużej władzy sztucznej inteligencji, która już dzisiaj wymyka się spod kontroli. ChatGPT – wciąż przez wielu użytkowników uważany za zabawkę – pokazał już, że potrafi nie tylko świetnie pisać i udawać człowieka w rozmowach, ale przede wszystkim potrafi doskonale kłamać. Dopóki chodzi o zjawisko „halucynowania SI” – czyli wymyślania na poczekaniu historii, które się nie wydarzyły – jest to dość zabawne, jednak ChatGPT (i podobne boty stworzone przez konkurencyjne firmy – m.in. Google i Microsoft) potrafi również podrabiać styl, głos a nawet tworzyć materiały video z wypowiedziami żyjących i nieżyjących polityków, które nigdy nie padły.

SI w służbie dezinformacji

Trzeba pamiętać, że podobne sztuczne inteligencje powstały i są wykorzystywane także w krajach, które z demokracją mają niewiele wspólnego – Chiny z powodzeniem zatrudniły SI do stworzenia nieprawdziwych prezenterów telewizyjnych, którzy bez mrugnięcia okiem czytają wiadomości, mówiąc nierzadko o zachwycie całego świata nad pokojowym i stabilnym rozwojem Chin stających się nowym światowym liderem gotowym do zastąpienia, a nawet wyeliminowania Stanów Zjednoczonych. W tym samym czasie podobne algorytmy tworzone przez Rosję przekazują Rosjanom informacje o sukcesach rosyjskiej operacji specjalnej na Ukrainie, a nawet o przyjaznym witaniu przez pragnących spokoju i stabilności Ukraińców rosyjskich sił na wschodzie zaatakowanego kraju, jednocześnie pokazując w ukraińskich serwisach społecznościowych nieistniejące kłótnie w ukraińskim sztabie generalnym.

Do pierwszej ligi w rozwoju sztucznej inteligencji wchodzą również Arabowie. Oto Arabska Rada ds. Badań nad Zaawansowanymi Technologiami z siedzibą w Abu Zabi dokonuje na przełomie listopada i grudnia śmiałego kroku, tworząc nową, w zapowiedziach największą firmę z branży sztucznej inteligencji – AI71. Podmiot powstaje w oparciu o stworzone przez arabski Technology Innovation Institute modele generatywnej sztucznej inteligencji Falcon i skupi się na wielodomenowych specjalizacjach, oferując zarazem niedostępne wcześniej opcje sterowania danymi AI dla firm i krajów, które zamierzają podjąć się self-hostingu dla ochrony prywatności i tajemnic państwowych.

Kto wyłączy SI?

Przeciwnicy niekontrolowanego rozwoju sztucznej inteligencji podkreślają, że żadna z tych firm i organizacji nie potrafi odpowiedzieć na pytanie od lat stawiane przez ruch efektywnego altruizmu: Czy ponad wszelką wątpliwość firmy zajmujące się rozwojem SI mają pewność, że istniejące na świecie sztuczne inteligencje nie połączyły się i nie współpracują ze sobą, kształtując świat nie według oczekiwań ich twórców, lecz według projektu, o którym ludzie nie mają pojęcia. – A to właśnie największe niebezpieczeństwo, skoro SI zarządzają już największymi elektrowniami atomowymi, kolejami, gigantycznymi bazami danych, a nawet autonomicznymi samochodami – przestrzega Toby Ord. – Nie mamy nawet pewności, czy te wszystkie algorytmy dadzą się dzisiaj wyłączyć – mówi filozof.

Tekst pochodzi z 50 (1820) numeru „Tygodnika Solidarność”.



 

Polecane
Emerytury
Stażowe