Jakie zagrożenia dla ludzkości ze strony SI ukrył szef OpenAI Sam Altman?

Jeden z ojców sztucznej inteligencji i szef firmy OpenAI, która stworzyła program ChatGPT, pod koniec listopada nieoczekiwanie i w trybie natychmiastowym zostaje zwolniony z pracy. Kilkanaście godzin później już wie, że znajdzie pracę w Microsofcie, kolejnym gigancie który od lat skupia się na rozwoju sztucznej inteligencji. Kiedy w OpenAI rozpoczyna się dochodzenie w sprawie nagłego zwolnienia byłego prezesa, rada dyrektorów spółki robi krok do tyłu i… przywraca go do pracy. W branżowych mediach wciąż wybrzmiewa pytanie: Jakie zagrożenia dla ludzkości ze strony SI ukrył Altman i o czym nie chcą mówić twórcy bota ChatGPT?
Sztuczna inteligencja - zdjęcie poglądowe Jakie zagrożenia dla ludzkości ze strony SI ukrył szef OpenAI Sam Altman?
Sztuczna inteligencja - zdjęcie poglądowe / fot. pixabay.com

Przez te kilka dni, kiedy ważą się nie tylko losy założyciela OpenAI, ale również całej branży sztucznej inteligencji i przyszłość miliardów dolarów zainwestowanych przez fundusze inwestycyjne w spółki nowych technologii, gazety biznesowe prześcigają się w spekulacjach, co takiego ukrywa przed światem i radą dyrektorów Sam Altman. Już kilka godzin po zwolnieniu proszący o anonimowość członek zarządu firmy zdradza, że przy zwolnieniu w grę wchodziła nie tylko przyszłość pierwszej światowej firmy, lecz także całej ludzkości.

Altman wiedział, nie powiedział

Założona przez Altmana firma OpenAI już wiele miesięcy wcześniej stała się światowym pionierem w zarządzaniu działem badań naukowych – powołała do życia sztuczną inteligencję, która już po kilku pierwszych tygodniach nie tylko zabawiała rozmowami zafascynowanych nową zabawką amerykańskich i japońskich emerytów, ale jak świat szeroki pisała prace zaliczeniowe dla studentów we wszystkich językach świata, a nawet prace doktorskie z prawa międzynarodowego, czy – na czym dość szybko dała się złapać – także projekty ustaw w wielu krajach, które bezrefleksyjnie trafiały pod obrady parlamentów. Przede wszystkim jednak jako pierwsza korporacja w świecie nowych technologii zaczęła zatrudniać filozofów i etyków, których głównym zadaniem było określenie, na ile niebezpieczne i antyludzkie jest narzędzie zdobywające popularność w bezprecedensowym tempie, bijąc na głowę ilością logowań i odsłon nie tylko rekordy serwisów społecznościowych, ale także… bezkonkurencyjnej w skali planety przeglądarki Google.

„Za zwolnieniem Sama Altmana stoją obawy o zbyt szybki rozwój sztucznej inteligencji i związany z tym niepokój o bezpieczeństwo nie tylko firmy i jej produktu, ale przede wszystkim całej ludzkości” – donoszą dobę po zwolnieniu Altmana „New York Times” i agencja Bloomberg. Nowy zarząd OpenAI nie komentuje tych doniesień, ale – co symptomatyczne – nie zaprzecza im. Zamiast tego tymczasowy dyrektor wykonawczy OpenAI Emmett Shear zapowiada przeprowadzenie dochodzenia w sprawie nagłego i nieoczekiwanego zwolnienia z pracy założyciela firmy.

W ciągu kilku godzin od tego zdarzenia w amerykańskich i zachodnioeuropejskich mediach pojawiły się głosy naukowców potwierdzające ten zarzut.

– Wzmianka w komunikacie o zwolnieniu Altmana mówiąca o tym, że „nie był konsekwentnie szczery w swojej komunikacji z zarządem, utrudniając mu wykonywanie jego obowiązków”, oznacza, że biznesmen zatajał informacje, które kolidowały z obowiązkami zarządu, by zapewnić bezpieczny rozwój AI – deklaruje Toby Ord, filozof i jeden z liderów ruchu efektywnego altruizmu, który zakładał razem z Altmanem pod koniec drugiej dekady obecnego wieku. Ruch od lat przestrzega przed oddawaniem zbyt dużej władzy sztucznej inteligencji, która już dzisiaj wymyka się spod kontroli. ChatGPT – wciąż przez wielu użytkowników uważany za zabawkę – pokazał już, że potrafi nie tylko świetnie pisać i udawać człowieka w rozmowach, ale przede wszystkim potrafi doskonale kłamać. Dopóki chodzi o zjawisko „halucynowania SI” – czyli wymyślania na poczekaniu historii, które się nie wydarzyły – jest to dość zabawne, jednak ChatGPT (i podobne boty stworzone przez konkurencyjne firmy – m.in. Google i Microsoft) potrafi również podrabiać styl, głos a nawet tworzyć materiały video z wypowiedziami żyjących i nieżyjących polityków, które nigdy nie padły.

SI w służbie dezinformacji

Trzeba pamiętać, że podobne sztuczne inteligencje powstały i są wykorzystywane także w krajach, które z demokracją mają niewiele wspólnego – Chiny z powodzeniem zatrudniły SI do stworzenia nieprawdziwych prezenterów telewizyjnych, którzy bez mrugnięcia okiem czytają wiadomości, mówiąc nierzadko o zachwycie całego świata nad pokojowym i stabilnym rozwojem Chin stających się nowym światowym liderem gotowym do zastąpienia, a nawet wyeliminowania Stanów Zjednoczonych. W tym samym czasie podobne algorytmy tworzone przez Rosję przekazują Rosjanom informacje o sukcesach rosyjskiej operacji specjalnej na Ukrainie, a nawet o przyjaznym witaniu przez pragnących spokoju i stabilności Ukraińców rosyjskich sił na wschodzie zaatakowanego kraju, jednocześnie pokazując w ukraińskich serwisach społecznościowych nieistniejące kłótnie w ukraińskim sztabie generalnym.

Do pierwszej ligi w rozwoju sztucznej inteligencji wchodzą również Arabowie. Oto Arabska Rada ds. Badań nad Zaawansowanymi Technologiami z siedzibą w Abu Zabi dokonuje na przełomie listopada i grudnia śmiałego kroku, tworząc nową, w zapowiedziach największą firmę z branży sztucznej inteligencji – AI71. Podmiot powstaje w oparciu o stworzone przez arabski Technology Innovation Institute modele generatywnej sztucznej inteligencji Falcon i skupi się na wielodomenowych specjalizacjach, oferując zarazem niedostępne wcześniej opcje sterowania danymi AI dla firm i krajów, które zamierzają podjąć się self-hostingu dla ochrony prywatności i tajemnic państwowych.

Kto wyłączy SI?

Przeciwnicy niekontrolowanego rozwoju sztucznej inteligencji podkreślają, że żadna z tych firm i organizacji nie potrafi odpowiedzieć na pytanie od lat stawiane przez ruch efektywnego altruizmu: Czy ponad wszelką wątpliwość firmy zajmujące się rozwojem SI mają pewność, że istniejące na świecie sztuczne inteligencje nie połączyły się i nie współpracują ze sobą, kształtując świat nie według oczekiwań ich twórców, lecz według projektu, o którym ludzie nie mają pojęcia. – A to właśnie największe niebezpieczeństwo, skoro SI zarządzają już największymi elektrowniami atomowymi, kolejami, gigantycznymi bazami danych, a nawet autonomicznymi samochodami – przestrzega Toby Ord. – Nie mamy nawet pewności, czy te wszystkie algorytmy dadzą się dzisiaj wyłączyć – mówi filozof.

Tekst pochodzi z 50 (1820) numeru „Tygodnika Solidarność”.


 

POLECANE
Odrażający, antychrześcijański skandal na otwarciu Igrzysk Olimpijskich w Paryżu [VIDEO, FOTO] z ostatniej chwili
Odrażający, antychrześcijański skandal na otwarciu Igrzysk Olimpijskich w Paryżu [VIDEO, FOTO]

Dziś ma miejsc otwarcie Igrzysk Olimpijskich w Paryżu. Nie obyło się bez skandalu.

Nowe świadczenie. Posłowie zdecydowali ws. renty wdowiej z ostatniej chwili
Nowe świadczenie. Posłowie zdecydowali ws. renty wdowiej

Sejm uchwalił nowelizację ustawy o emeryturach i rentach, która wprowadza tzw. "rentę wdowią". Nowe przepisy przewidują dodatkowe świadczenie dla owdowiałych od 1 stycznia 2027 roku.

Niepokojące doniesienia z granicy polsko-niemieckiej. Niemieckie służby podały dane z ostatniej chwili
Niepokojące doniesienia z granicy polsko-niemieckiej. Niemieckie służby podały dane

Niemieckie służby opublikowały raport dotyczący sytuacji na polsko-niemieckiej granicy. Podano dane.

Skandal w Niemczech. W Berlinie miały powstać mieszkania socjalne, powstało co innego tylko u nas
Skandal w Niemczech. W Berlinie miały powstać mieszkania socjalne, powstało co innego

Przy ulicy Lisa-Fittko-Straße w Berlinie miało powstać 215 mieszkań socjalnych. Koszty wynajmu mieszkań to jeden z najważniejszych tematów i bolączką niemieckiej stolicy.

Burza wokół pogrzebu Jacka Jaworka. Mieszkańcy mówią wprost z ostatniej chwili
Burza wokół pogrzebu Jacka Jaworka. Mieszkańcy mówią wprost

Nikt do tej pory nie zgłosił się po odebranie ciała Jacka Jaworka. Prokuratura czeka na decyzję rodziny, ale wszystko wskazuje na to, że potrójnego zabójcę z Borowców będzie musiała pochować opieka społeczna.

Pilna ewakuacja w Paryżu. Policja odnalazła podejrzaną paczkę z ostatniej chwili
Pilna ewakuacja w Paryżu. Policja odnalazła podejrzaną paczkę

Tuż przed startem ceremonii otwarcia Igrzysk Olimpijskich w Paryżu policja zdecydowała o pilnej ewakuacji placu nieopodal trasy pochodu sportowców.

Nowa składka zdrowotna dla przedsiębiorców. Minister Finansów podał datę z ostatniej chwili
Nowa składka zdrowotna dla przedsiębiorców. Minister Finansów podał datę

Minister Finansów Andrzej Domański zapowiedział w Sejmie, że od 1 stycznia 2025 roku zlikwidowana zostanie składka zdrowotna dla przedsiębiorców od sprzedaży środków trwałych.

Znany program znika z TVP2 po 33 latach z ostatniej chwili
Znany program znika z TVP2 po 33 latach

Po ponad 30 latach z anteny TVP2 znika "Panorama". Nowa "Panorama" ma mieć teraz nową formułę i będzie emitowana w TVP Info.

Nergal nie odpowie za znieważenie godła. Jest decyzja prokuratury z ostatniej chwili
Nergal nie odpowie za znieważenie godła. Jest decyzja prokuratury

Prokuratura Regionalna w Gdańsku poinformowała o wycofaniu zarzutów wobec Adama "Nergala" Darskiego i jego współpracowników dotyczących znieważenia polskiego godła.

Przełomowe odkrycie na Marsie. Naukowcy są zdumieni z ostatniej chwili
Przełomowe odkrycie na Marsie. Naukowcy są zdumieni

Łazik Perseverance dokonał na Marsie niezwykłego odkrycia. Chodzi o skałę o nazwie "Cheyava Falls", która może zawierać ślady dawnego życia na Czerwonej Planecie.

REKLAMA

Jakie zagrożenia dla ludzkości ze strony SI ukrył szef OpenAI Sam Altman?

Jeden z ojców sztucznej inteligencji i szef firmy OpenAI, która stworzyła program ChatGPT, pod koniec listopada nieoczekiwanie i w trybie natychmiastowym zostaje zwolniony z pracy. Kilkanaście godzin później już wie, że znajdzie pracę w Microsofcie, kolejnym gigancie który od lat skupia się na rozwoju sztucznej inteligencji. Kiedy w OpenAI rozpoczyna się dochodzenie w sprawie nagłego zwolnienia byłego prezesa, rada dyrektorów spółki robi krok do tyłu i… przywraca go do pracy. W branżowych mediach wciąż wybrzmiewa pytanie: Jakie zagrożenia dla ludzkości ze strony SI ukrył Altman i o czym nie chcą mówić twórcy bota ChatGPT?
Sztuczna inteligencja - zdjęcie poglądowe Jakie zagrożenia dla ludzkości ze strony SI ukrył szef OpenAI Sam Altman?
Sztuczna inteligencja - zdjęcie poglądowe / fot. pixabay.com

Przez te kilka dni, kiedy ważą się nie tylko losy założyciela OpenAI, ale również całej branży sztucznej inteligencji i przyszłość miliardów dolarów zainwestowanych przez fundusze inwestycyjne w spółki nowych technologii, gazety biznesowe prześcigają się w spekulacjach, co takiego ukrywa przed światem i radą dyrektorów Sam Altman. Już kilka godzin po zwolnieniu proszący o anonimowość członek zarządu firmy zdradza, że przy zwolnieniu w grę wchodziła nie tylko przyszłość pierwszej światowej firmy, lecz także całej ludzkości.

Altman wiedział, nie powiedział

Założona przez Altmana firma OpenAI już wiele miesięcy wcześniej stała się światowym pionierem w zarządzaniu działem badań naukowych – powołała do życia sztuczną inteligencję, która już po kilku pierwszych tygodniach nie tylko zabawiała rozmowami zafascynowanych nową zabawką amerykańskich i japońskich emerytów, ale jak świat szeroki pisała prace zaliczeniowe dla studentów we wszystkich językach świata, a nawet prace doktorskie z prawa międzynarodowego, czy – na czym dość szybko dała się złapać – także projekty ustaw w wielu krajach, które bezrefleksyjnie trafiały pod obrady parlamentów. Przede wszystkim jednak jako pierwsza korporacja w świecie nowych technologii zaczęła zatrudniać filozofów i etyków, których głównym zadaniem było określenie, na ile niebezpieczne i antyludzkie jest narzędzie zdobywające popularność w bezprecedensowym tempie, bijąc na głowę ilością logowań i odsłon nie tylko rekordy serwisów społecznościowych, ale także… bezkonkurencyjnej w skali planety przeglądarki Google.

„Za zwolnieniem Sama Altmana stoją obawy o zbyt szybki rozwój sztucznej inteligencji i związany z tym niepokój o bezpieczeństwo nie tylko firmy i jej produktu, ale przede wszystkim całej ludzkości” – donoszą dobę po zwolnieniu Altmana „New York Times” i agencja Bloomberg. Nowy zarząd OpenAI nie komentuje tych doniesień, ale – co symptomatyczne – nie zaprzecza im. Zamiast tego tymczasowy dyrektor wykonawczy OpenAI Emmett Shear zapowiada przeprowadzenie dochodzenia w sprawie nagłego i nieoczekiwanego zwolnienia z pracy założyciela firmy.

W ciągu kilku godzin od tego zdarzenia w amerykańskich i zachodnioeuropejskich mediach pojawiły się głosy naukowców potwierdzające ten zarzut.

– Wzmianka w komunikacie o zwolnieniu Altmana mówiąca o tym, że „nie był konsekwentnie szczery w swojej komunikacji z zarządem, utrudniając mu wykonywanie jego obowiązków”, oznacza, że biznesmen zatajał informacje, które kolidowały z obowiązkami zarządu, by zapewnić bezpieczny rozwój AI – deklaruje Toby Ord, filozof i jeden z liderów ruchu efektywnego altruizmu, który zakładał razem z Altmanem pod koniec drugiej dekady obecnego wieku. Ruch od lat przestrzega przed oddawaniem zbyt dużej władzy sztucznej inteligencji, która już dzisiaj wymyka się spod kontroli. ChatGPT – wciąż przez wielu użytkowników uważany za zabawkę – pokazał już, że potrafi nie tylko świetnie pisać i udawać człowieka w rozmowach, ale przede wszystkim potrafi doskonale kłamać. Dopóki chodzi o zjawisko „halucynowania SI” – czyli wymyślania na poczekaniu historii, które się nie wydarzyły – jest to dość zabawne, jednak ChatGPT (i podobne boty stworzone przez konkurencyjne firmy – m.in. Google i Microsoft) potrafi również podrabiać styl, głos a nawet tworzyć materiały video z wypowiedziami żyjących i nieżyjących polityków, które nigdy nie padły.

SI w służbie dezinformacji

Trzeba pamiętać, że podobne sztuczne inteligencje powstały i są wykorzystywane także w krajach, które z demokracją mają niewiele wspólnego – Chiny z powodzeniem zatrudniły SI do stworzenia nieprawdziwych prezenterów telewizyjnych, którzy bez mrugnięcia okiem czytają wiadomości, mówiąc nierzadko o zachwycie całego świata nad pokojowym i stabilnym rozwojem Chin stających się nowym światowym liderem gotowym do zastąpienia, a nawet wyeliminowania Stanów Zjednoczonych. W tym samym czasie podobne algorytmy tworzone przez Rosję przekazują Rosjanom informacje o sukcesach rosyjskiej operacji specjalnej na Ukrainie, a nawet o przyjaznym witaniu przez pragnących spokoju i stabilności Ukraińców rosyjskich sił na wschodzie zaatakowanego kraju, jednocześnie pokazując w ukraińskich serwisach społecznościowych nieistniejące kłótnie w ukraińskim sztabie generalnym.

Do pierwszej ligi w rozwoju sztucznej inteligencji wchodzą również Arabowie. Oto Arabska Rada ds. Badań nad Zaawansowanymi Technologiami z siedzibą w Abu Zabi dokonuje na przełomie listopada i grudnia śmiałego kroku, tworząc nową, w zapowiedziach największą firmę z branży sztucznej inteligencji – AI71. Podmiot powstaje w oparciu o stworzone przez arabski Technology Innovation Institute modele generatywnej sztucznej inteligencji Falcon i skupi się na wielodomenowych specjalizacjach, oferując zarazem niedostępne wcześniej opcje sterowania danymi AI dla firm i krajów, które zamierzają podjąć się self-hostingu dla ochrony prywatności i tajemnic państwowych.

Kto wyłączy SI?

Przeciwnicy niekontrolowanego rozwoju sztucznej inteligencji podkreślają, że żadna z tych firm i organizacji nie potrafi odpowiedzieć na pytanie od lat stawiane przez ruch efektywnego altruizmu: Czy ponad wszelką wątpliwość firmy zajmujące się rozwojem SI mają pewność, że istniejące na świecie sztuczne inteligencje nie połączyły się i nie współpracują ze sobą, kształtując świat nie według oczekiwań ich twórców, lecz według projektu, o którym ludzie nie mają pojęcia. – A to właśnie największe niebezpieczeństwo, skoro SI zarządzają już największymi elektrowniami atomowymi, kolejami, gigantycznymi bazami danych, a nawet autonomicznymi samochodami – przestrzega Toby Ord. – Nie mamy nawet pewności, czy te wszystkie algorytmy dadzą się dzisiaj wyłączyć – mówi filozof.

Tekst pochodzi z 50 (1820) numeru „Tygodnika Solidarność”.



 

Polecane
Emerytury
Stażowe