[wywiad] Tomasz Rożek: Próbowano nauczyć AI moralności, to zawsze wychodziło źle

Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć sztuczną inteligencję (AI) moralności i to zawsze wychodziło źle – powiedział Tomasz Rożek. Dziennikarz naukowy, doktor nauk fizycznych, popularyzator nauki, założyciel Fundacji „Nauka. To lubię” oraz kanału na YouTubie o tej samej nazwie, w rozmowie z KAI opowiedział m.in. o zagrożeniach związanych z rozwojem sztucznej inteligencji i o próbach nauczenia AI moralności.
zdjęcie poglądowe
zdjęcie poglądowe / pixabay.com/sujins

Anna Rasińska: W ostatnim czasie w przestrzeni medialnej zrobiło się głośno na temat sztucznej inteligencji i zagrożeń z nią związanych. Dlaczego dzieje się to właśnie teraz, skoro badania nad AI trwają od wielu lat?

Tomasz Rożek: Wynika to z faktu, że ostatnio informacje te trafiły do bardzo szerokiego grona odbiorców. Duże modele językowe, jakim jest chociażby ChatGPT, powstawały od kilkudziesięciu lat. Natomiast pierwszy raz w historii, w listopadzie ubiegłego roku, pokazano efekt ich pracy szerszemu odbiorcy. Nagle ludzie mogli wypróbować i zobaczyć, że to o czym ktoś mówił, np. podczas konferencji naukowych, lub co widzieliśmy na wielu filmach o tematyce science fiction, jest prawdą. 

Badania nad rozwojem AI to kwestia dziesiątków lat pracy. Natomiast w ostatnich miesiącach, wyniki tych prac zostały pokazane i każdy mógł wypróbować możliwości modeli językowych. 

- Media alarmują o wielu zagrożeniach związanych z rozwojem sztucznej inteligencje. Które według Pana są najbardziej realne?

- Zagrożeń związanych ze sztuczną inteligencją, jest rzeczywiście bardzo dużo. Im potężniejsze narzędzie, tym większe ryzyko związane z jego zastosowaniem. Każda taka lista będzie subiektywna, z czym musimy się pogodzić. To, że ja widzę gdzieś zagrożenia, nie znaczy, że ktoś inny będzie je widział dokładnie w tym samym miejscu.

Dla mnie największym zagrożeniem jest kwestia kontaktów międzyludzkich. Już dziś mamy całą rzeszę ludzi, głównie młodych, którzy z różnych względów nie komunikują się z drugim człowiekiem bezpośrednio. Porozumiewają się wyłącznie przez media społecznościowe. Dla wielu młodych ludzi jest to jedyny sposób komunikacji z drugim człowiekiem. Obawiam się, że już niedługo po drugiej stronie nie będzie człowieka, tylko maszyna.

Dziś ludzie, którzy kontaktują się ze sobą, nawiązują relacje. Komunikacja przez media społecznościowe sprawia, że między nimi jest pewien filtr cyfrowy. Może i takie osoby czasami spotkają się w świecie realnym, ale w sumie taka rozmowa im wystarczy. Moja obawa jest taka, że niedługo nie będzie już nawet tego filtra cyfrowego, a po drugiej stronie człowieka zastąpi maszyna. Program, który zawsze ma dla nas czas, zawsze będzie w dobrym nastroju, będzie nam mówił to co chcemy usłyszeć, dlatego, że się nas uczy i jest w tym bardzo dobry. To nie jest żadna nowość, przecież każdy program np. do streamowania wideo, podpowiada co może nas zaciekawić. Na podstawie wcześniejszych wyborów uczy się preferencji swojego użytkownika i proponuje podobne treści. Nawet program do słuchania muzyki pokazuje propozycje utworów, które mogą nam się spodobać. Skąd to wie? Bo się nas nauczył. 

Tak działa bardzo wiele rzeczy wokół nas. Co będzie kiedy połączymy model językowy jak np. Chat GPT, z tą umiejętnością uczenia się nas? Moja obawa jest taka, że za chwilę spora część z nas nie będzie się kontaktowała z innymi ludźmi. A patrząc historycznie, wydaje mi się, że nic człowieka tak nie definiuje i nie rozwija, jak właśnie konfrontacja z drugim człowiekiem. Obawiam się momentu, w którym tego zabraknie.

Niepokoją mnie także kwestie związane z prawami autorskimi. Modele językowe kradną treści i nie linkują źródła, nie odsyłają do strony internetowej. One ją przeczesują, kradną treść, przemielają i wyrzucają jako swoją. W tym kontekście trzeba na nowo zdefiniować system edukacji, kwestie bezpieczeństwa, prywatności, to są ogromne wyzwania. Nie wiadomo, które dane są wykorzystywane i w jaki sposób. Nie wiemy co duży model językowy robi np. z naszymi prywatnymi danymi. Oczywiście tych zagrożeń jest jeszcze dużo więcej.

- Niektórzy naukowcy uważają, że przyspieszająca rewolucja AI doprowadzi do momentu, w którym jako ludzie nie będziemy już potrzebni. Czy widzi Pan możliwość realizacji takiego scenariusza?

- Ja nie podzielam tak czarnych wizji. Natomiast zostawiam przestrzeń na to, że w bardzo odległej przyszłości może się tak zdarzyć. W dającej się przewidzieć przyszłości prawdopodobieństwo takiego scenariusza jest znikome.

Nie podzielam argumentu, że za chwilę ludzie staną się zbędni. Co by to miało to w praktyce oznaczać? Czy jeżeli ktoś nie pracuje, jest zbędny? Nie definiujemy człowieka tylko przez pracę, którą wykonuje. Człowiek nie jest na ziemi wyłącznie po to by pracować i w momencie gdy nie pracuje, gdy mogą go zastąpić maszyny, nagle staje się zbędny.

- Jednak realnym problemem będzie fakt, że przez rozwój technologii wiele zawodów i profesji zniknie.

- Oczywiście, ta technologia, ten zbiór technologii, wykosi całkiem sporą część zawodów. Jak dużą część? Tego nie wiem. Są różne szacunki na ten temat, ale rzeczywiście niektóre zawody będą wykonywane przez algorytmy.

Natomiast z pewnością powstaną inne. Może te zmiany zmobilizują nas na przykład do tego, żeby więcej tworzyć... Nawet gdyby się okazało, że nowe profesje nie powstaną, być może w przyszłości będziemy po prostu inaczej funkcjonować, np. bez pracy od rana do nocy. Może te zmiany dadzą nam kopa do stworzenia nowego prawa pracy, w którym tydzień pracy będzie trwał 4 dni, a nie 5.

Bardzo trudno mi na dziś o tym myśleć i prognozować, dlatego, że dotykamy dość abstrakcyjnych kwestii. Mówimy o przyszłości, która być może się zdarzy, być może nie, ale jest to daleka przyszłość, trudna do przewidzenia.

- Kolejny całkiem aktualnym problemem jest kwestia moralności AI. Często mówi Pan o tym podczas wykładów na temat sztucznej inteligencji. Wielu ludzi ma problem z rozróżnieniem tego co jest złe, a co dobre. Jak tę wiedzę przekazać algorytmowi?

- To faktycznie duży problem. Przede wszystkim ciężko powiedzieć czym właściwie jest moralność. Nie potrafimy zdefiniować tego pojęcia. Było mnóstwo projektów, badań na ten temat. Nie jest to nowy temat. Wielu naukowców pracuje nad tym problemem. Skoro algorytmy mają w przyszłości, podejmować kluczowe decyzje, jak nauczyć je odróżniania dobra od zła? Co zrobić żeby podejmowały dobre decyzje?

Po pierwsze, nie ma czegoś takiego jak decyzja uniwersalnie dobra. Widać to na przykładzie pojazdów elektrycznych. Wyobraźmy sobie sytuację, w której ktoś wyskakuje przed maskę takiego samochodu, co algorytm ma zrobić? Dobra decyzja dla tego kto siedzi w środku samochodu, to zła decyzja dla tego, który jest wewnątrz. Nie wchodząc w kwestie moralności, obiektywnego dobra i zła, jeżeli mówimy o decyzjach dnia codziennego, one bardzo często są waśnie takie. Ta sama decyzja jest dla jednego dobra, a dla drugiego zła. My jako ludzie podejmujemy codziennie setki różnych decyzji. Jedne są dobre inne złe. Natomiast nie ma pomysłu, jak nauczyć algorytm działania zgodnie z tą samą logiką, z którą działa człowiek. Póki co nie ma pomysłu jak to zrobić, jest to duże wyzwanie. Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć maszyny moralności i to zawsze wychodziło źle. Jest to jedna z tych rzeczy, którą trzeba przemyśleć i to zdrowo.

- Pozostaje jeszcze kwestia tego kto mógłby się podjąć tak trudnego zadania, eksperci z jakich dziedzin...

- Nie mam pojęcia, natomiast wiem, że były robione eksperymenty, w ramach których próbowano stworzyć coś w rodzaju uniwersalnej moralności, czegoś co można by przetransferować do algorytmu. Wcześniej czy później kończyło się to w tym samym miejscu – że moralność należy określić statystycznie, a przecież nie jest tak, że większość ma zawsze racje. Kwestia dobra i zła nie wynika z rachunku statystycznego. 

- W jednej z Pańskich publikacji pojawia się temat zastosowania AI w medycynie przyszłości m.in. w badaniach nad nowymi antybiotykami, mógłby Pan przybliżyć tę kwestię?

- Ogromnym problemem dzisiejszego świata, jest to, że mamy coraz więcej bakterii odpornych na antybiotyki. Bakterie te uodparniają się szybciej niż zdążymy znaleźć na nie antybiotyki, bo znalezienie ich to bardzo długi i kosztowny proces.

Natomiast stworzenie algorytmu, który mógłby pracować na podstawie badań farmaceutów zajmujących się poszukiwaniem skutecznych antybiotyków, okazało się dobrym pomysłem. Taki program był w stanie przeszukiwać ogromne bazy danych naukowych w poszukiwaniu cząsteczek chemicznych, które mogą być antybiotykami i rzeczywiście pierwsze takie eksperymenty pokazywały, że dosłownie w ciągu dwóch, trzech dni, algorytm może przeszukać i przetestować wirtualnie kilka milionów cząsteczek chemicznych. Następnie wyłowić z nich te, które mogą być skutecznymi antybiotykami. Technologia AI może być ogromną pomocą dla naukowców przy analizie dużych baz danych. Na tym przykładzie widać, że plusów jest równie dużo jak potencjalnych zagrożeń. 

- Co Pan myśli o apelu o zatrzymanie prac nad rozwojem AI, czy jest to w ogóle możliwe na tym etapie?

- To coś czego nie da się zrealizować. Z technologicznego punktu widzenia, to zatrzymanie jest niewykonalne, bo nie mamy do czynienia z jednym modelem, który jest na jednym komputerze. Mówimy o sytuacji, w której mniej zaawansowane modele jak ChatGPT, mogą być na każdym komputerze. Nierealne jest narzucenie czegoś wszystkim komputerom na naszej planecie. Poza tym autorami tego apelu są ludzie, którzy sami rozwijali tę technologię i zainwestowali w nią dużo pieniędzy. 

- Czyli najlepiej byłoby jak najszybciej wprowadzić regulacje dotyczące korzystania ze sztucznej inteligencji?

- Bez wątpienia muszą powstać regulacje dotyczące sztucznej inteligencji, ale nie sądzę, aby ktokolwiek miał pomysł, jak powinny one wyglądać. Będąc na początku jakiejś drogi, wiele rzeczy możemy sobie wyobrazić, natomiast wiedza to zupełnie inna kwestia. Na tym polega trudność w komentowaniu nowych technologii. Tak naprawdę nikt nie wie jak mogą się one dalej rozwinąć. To sprawa z jednej strony bardzo ciekawa, ale i niepokojąca. Zobaczymy co przyniesie przyszłość.

Dziękuję za rozmowę.

***

Tomasz Rożek – polski dziennikarz naukowy i fizyk, doktor nauk fizycznych, popularyzator nauki, założyciel Fundacji „Nauka. To lubię”, laureat nagrody dziennikarskiej "Ślad", za "unikalne połączenie fascynacji nauką ze znakomitym warsztatem dziennikarskim oraz wyraźną identyfikacją religijną".

Link do kanału Tomasza Rożka: 

https://www.youtube.com/@naukatolubie

rozmawiała Anna Rasińska / Warszawa


 

POLECANE
Karol Nawrocki przybył do Wielkiej Brytanii. Spotka się m.in z premierem Keirem Starmerem z ostatniej chwili
Karol Nawrocki przybył do Wielkiej Brytanii. Spotka się m.in z premierem Keirem Starmerem

Prezydent Karol Nawrocki w poniedziałek przybył z wizytą roboczą do Wielkiej Brytanii, gdzie we wtorek po południu w Londynie spotka się z premierem Keirem Starmerem. Głównym tematem rozmów liderów będzie bezpieczeństwo i współpraca gospodarcza.

W Polsce 2050 wrze. Kobosko miał zostać oskarżony przez Hołownię o zdradę z ostatniej chwili
W Polsce 2050 wrze. Kobosko miał zostać oskarżony przez Hołownię o zdradę

Napięcia w Polsce 2050 osiągnęły punkt krytyczny. Według "Gazety Wyborczej", w trakcie zamkniętego spotkania partyjnego Szymon Hołownia miał oskarżyć europosła Michał Kobosko o zdradę. Wszystko z powodu jego niedawnego spotkania z premierem Donaldem Tuskiem.

Zasadnicze pytanie do ministra Sikorskiego: czy Pan wie co Pan robi? tylko u nas
Zasadnicze pytanie do ministra Sikorskiego: czy Pan wie co Pan robi?

Wypowiedzi ministra spraw zagranicznych Radosława Sikorskiego dotyczące stanowiska USA wobec Grenlandii wywołały dyskusję na temat roli Polski w debacie o bezpieczeństwie Arktyki. Sprawa dotyczy relacji transatlantyckich, znaczenia Grenlandii dla NATO oraz szerszej rywalizacji geopolitycznej w regionie.

Jarosław Kaczyński: Przed wyborami trzeba zjednoczyć obóz patriotyczny z ostatniej chwili
Jarosław Kaczyński: Przed wyborami trzeba zjednoczyć obóz patriotyczny

Trzeba zjednoczyć obóz patriotyczny, który powinien dzisiaj w Polsce wygrać wybory bez specjalnego trudu - ocenił prezes PiS Jarosław Kaczyński na spotkaniu w mieszkańcami w Węgrowie. Dodał, że na wybory parlamentarne w 2027 r. PiS musi przygotować program dla całej patriotycznej Polski.

#CoPoTusku. Mamy dwa lata na odzyskanie cyfrowej niepodległości tylko u nas
#CoPoTusku. Mamy dwa lata na odzyskanie cyfrowej niepodległości

Jakiś czas temu siedziałem na spotkaniu z zespołem programistów omawiając postępy prac w projekcie. W pewnym momencie zapytałem: "Jak zamierzacie wdrożyć środowisko developerskie?"

Polacy coraz bardziej sceptyczni wobec imigracji. Badanie nie pozostawia wątpliwości z ostatniej chwili
Polacy coraz bardziej sceptyczni wobec imigracji. Badanie nie pozostawia wątpliwości

Zdecydowana większość Polaków opowiada się za zmniejszeniem liczby imigrantów przyjmowanych spoza Unii Europejskiej. Takie wnioski płyną z najnowszego badania United Surveys by IBRiS dla Wirtualnej Polski.

To nieakceptowalne. Żurek wściekły po decyzji węgierskiego rządu z ostatniej chwili
"To nieakceptowalne". Żurek wściekły po decyzji węgierskiego rządu

Minister sprawiedliwości, Prokurator Generalny Waldemar Żurek ocenił, że postawa Węgier ws. b. szefa MS Zbigniewa Ziobry jest "nieakceptowalna".

Süddeutsche Zeitung: „Na uratowanie UE zostało niespełna dwa lata” z ostatniej chwili
Süddeutsche Zeitung: „Na uratowanie UE zostało niespełna dwa lata”

Unia Europejska może nie przetrwać w obecnym kształcie – ostrzega niemiecki dziennik Süddeutsche Zeitung. Według autora felietonu red. Josefa Kelnbergera kluczowe będą najbliższe dwa lata, a szczególnie wybory we Francji i w Polsce w 2027 roku. Jeśli wygra w nich prawica, liberalny projekt UE może się rozpaść.

Belgijscy rolnicy nie ustają w protestach przeciw Mercosur. Blokady na lotnisku w Ostendzie z ostatniej chwili
Belgijscy rolnicy nie ustają w protestach przeciw Mercosur. Blokady na lotnisku w Ostendzie

Belgijscy rolnicy od poniedziałku rano protestują na lotnisku w Ostendzie przeciwko umowie handlowej UE z blokiem Mercosur. Około 60 traktorów stoi przed budynkiem portu. Rolnicy blokują wjazd oraz wyjazd ciężarówek na lotnisko, z którego transportowane jest cargo - podała agencja Belga.

Polska jako champion wzrostu. Prestiżowy dziennik z Hongkongu o nowym kierunku ekspansji z ostatniej chwili
Polska jako champion wzrostu. Prestiżowy dziennik z Hongkongu o nowym kierunku ekspansji

Polska należy dziś do najszybciej rozwijających się gospodarek świata, puka do bram G20 i coraz śmielej patrzy poza Europę. Jak opisuje w okładkowej publikacji „The Standard” – największy anglojęzyczny dziennik w Hongkongu – kluczową rolę w tej strategii może odegrać Hongkong jako brama do Azji i Chin dla polskich przedsiębiorstw.

REKLAMA

[wywiad] Tomasz Rożek: Próbowano nauczyć AI moralności, to zawsze wychodziło źle

Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć sztuczną inteligencję (AI) moralności i to zawsze wychodziło źle – powiedział Tomasz Rożek. Dziennikarz naukowy, doktor nauk fizycznych, popularyzator nauki, założyciel Fundacji „Nauka. To lubię” oraz kanału na YouTubie o tej samej nazwie, w rozmowie z KAI opowiedział m.in. o zagrożeniach związanych z rozwojem sztucznej inteligencji i o próbach nauczenia AI moralności.
zdjęcie poglądowe
zdjęcie poglądowe / pixabay.com/sujins

Anna Rasińska: W ostatnim czasie w przestrzeni medialnej zrobiło się głośno na temat sztucznej inteligencji i zagrożeń z nią związanych. Dlaczego dzieje się to właśnie teraz, skoro badania nad AI trwają od wielu lat?

Tomasz Rożek: Wynika to z faktu, że ostatnio informacje te trafiły do bardzo szerokiego grona odbiorców. Duże modele językowe, jakim jest chociażby ChatGPT, powstawały od kilkudziesięciu lat. Natomiast pierwszy raz w historii, w listopadzie ubiegłego roku, pokazano efekt ich pracy szerszemu odbiorcy. Nagle ludzie mogli wypróbować i zobaczyć, że to o czym ktoś mówił, np. podczas konferencji naukowych, lub co widzieliśmy na wielu filmach o tematyce science fiction, jest prawdą. 

Badania nad rozwojem AI to kwestia dziesiątków lat pracy. Natomiast w ostatnich miesiącach, wyniki tych prac zostały pokazane i każdy mógł wypróbować możliwości modeli językowych. 

- Media alarmują o wielu zagrożeniach związanych z rozwojem sztucznej inteligencje. Które według Pana są najbardziej realne?

- Zagrożeń związanych ze sztuczną inteligencją, jest rzeczywiście bardzo dużo. Im potężniejsze narzędzie, tym większe ryzyko związane z jego zastosowaniem. Każda taka lista będzie subiektywna, z czym musimy się pogodzić. To, że ja widzę gdzieś zagrożenia, nie znaczy, że ktoś inny będzie je widział dokładnie w tym samym miejscu.

Dla mnie największym zagrożeniem jest kwestia kontaktów międzyludzkich. Już dziś mamy całą rzeszę ludzi, głównie młodych, którzy z różnych względów nie komunikują się z drugim człowiekiem bezpośrednio. Porozumiewają się wyłącznie przez media społecznościowe. Dla wielu młodych ludzi jest to jedyny sposób komunikacji z drugim człowiekiem. Obawiam się, że już niedługo po drugiej stronie nie będzie człowieka, tylko maszyna.

Dziś ludzie, którzy kontaktują się ze sobą, nawiązują relacje. Komunikacja przez media społecznościowe sprawia, że między nimi jest pewien filtr cyfrowy. Może i takie osoby czasami spotkają się w świecie realnym, ale w sumie taka rozmowa im wystarczy. Moja obawa jest taka, że niedługo nie będzie już nawet tego filtra cyfrowego, a po drugiej stronie człowieka zastąpi maszyna. Program, który zawsze ma dla nas czas, zawsze będzie w dobrym nastroju, będzie nam mówił to co chcemy usłyszeć, dlatego, że się nas uczy i jest w tym bardzo dobry. To nie jest żadna nowość, przecież każdy program np. do streamowania wideo, podpowiada co może nas zaciekawić. Na podstawie wcześniejszych wyborów uczy się preferencji swojego użytkownika i proponuje podobne treści. Nawet program do słuchania muzyki pokazuje propozycje utworów, które mogą nam się spodobać. Skąd to wie? Bo się nas nauczył. 

Tak działa bardzo wiele rzeczy wokół nas. Co będzie kiedy połączymy model językowy jak np. Chat GPT, z tą umiejętnością uczenia się nas? Moja obawa jest taka, że za chwilę spora część z nas nie będzie się kontaktowała z innymi ludźmi. A patrząc historycznie, wydaje mi się, że nic człowieka tak nie definiuje i nie rozwija, jak właśnie konfrontacja z drugim człowiekiem. Obawiam się momentu, w którym tego zabraknie.

Niepokoją mnie także kwestie związane z prawami autorskimi. Modele językowe kradną treści i nie linkują źródła, nie odsyłają do strony internetowej. One ją przeczesują, kradną treść, przemielają i wyrzucają jako swoją. W tym kontekście trzeba na nowo zdefiniować system edukacji, kwestie bezpieczeństwa, prywatności, to są ogromne wyzwania. Nie wiadomo, które dane są wykorzystywane i w jaki sposób. Nie wiemy co duży model językowy robi np. z naszymi prywatnymi danymi. Oczywiście tych zagrożeń jest jeszcze dużo więcej.

- Niektórzy naukowcy uważają, że przyspieszająca rewolucja AI doprowadzi do momentu, w którym jako ludzie nie będziemy już potrzebni. Czy widzi Pan możliwość realizacji takiego scenariusza?

- Ja nie podzielam tak czarnych wizji. Natomiast zostawiam przestrzeń na to, że w bardzo odległej przyszłości może się tak zdarzyć. W dającej się przewidzieć przyszłości prawdopodobieństwo takiego scenariusza jest znikome.

Nie podzielam argumentu, że za chwilę ludzie staną się zbędni. Co by to miało to w praktyce oznaczać? Czy jeżeli ktoś nie pracuje, jest zbędny? Nie definiujemy człowieka tylko przez pracę, którą wykonuje. Człowiek nie jest na ziemi wyłącznie po to by pracować i w momencie gdy nie pracuje, gdy mogą go zastąpić maszyny, nagle staje się zbędny.

- Jednak realnym problemem będzie fakt, że przez rozwój technologii wiele zawodów i profesji zniknie.

- Oczywiście, ta technologia, ten zbiór technologii, wykosi całkiem sporą część zawodów. Jak dużą część? Tego nie wiem. Są różne szacunki na ten temat, ale rzeczywiście niektóre zawody będą wykonywane przez algorytmy.

Natomiast z pewnością powstaną inne. Może te zmiany zmobilizują nas na przykład do tego, żeby więcej tworzyć... Nawet gdyby się okazało, że nowe profesje nie powstaną, być może w przyszłości będziemy po prostu inaczej funkcjonować, np. bez pracy od rana do nocy. Może te zmiany dadzą nam kopa do stworzenia nowego prawa pracy, w którym tydzień pracy będzie trwał 4 dni, a nie 5.

Bardzo trudno mi na dziś o tym myśleć i prognozować, dlatego, że dotykamy dość abstrakcyjnych kwestii. Mówimy o przyszłości, która być może się zdarzy, być może nie, ale jest to daleka przyszłość, trudna do przewidzenia.

- Kolejny całkiem aktualnym problemem jest kwestia moralności AI. Często mówi Pan o tym podczas wykładów na temat sztucznej inteligencji. Wielu ludzi ma problem z rozróżnieniem tego co jest złe, a co dobre. Jak tę wiedzę przekazać algorytmowi?

- To faktycznie duży problem. Przede wszystkim ciężko powiedzieć czym właściwie jest moralność. Nie potrafimy zdefiniować tego pojęcia. Było mnóstwo projektów, badań na ten temat. Nie jest to nowy temat. Wielu naukowców pracuje nad tym problemem. Skoro algorytmy mają w przyszłości, podejmować kluczowe decyzje, jak nauczyć je odróżniania dobra od zła? Co zrobić żeby podejmowały dobre decyzje?

Po pierwsze, nie ma czegoś takiego jak decyzja uniwersalnie dobra. Widać to na przykładzie pojazdów elektrycznych. Wyobraźmy sobie sytuację, w której ktoś wyskakuje przed maskę takiego samochodu, co algorytm ma zrobić? Dobra decyzja dla tego kto siedzi w środku samochodu, to zła decyzja dla tego, który jest wewnątrz. Nie wchodząc w kwestie moralności, obiektywnego dobra i zła, jeżeli mówimy o decyzjach dnia codziennego, one bardzo często są waśnie takie. Ta sama decyzja jest dla jednego dobra, a dla drugiego zła. My jako ludzie podejmujemy codziennie setki różnych decyzji. Jedne są dobre inne złe. Natomiast nie ma pomysłu, jak nauczyć algorytm działania zgodnie z tą samą logiką, z którą działa człowiek. Póki co nie ma pomysłu jak to zrobić, jest to duże wyzwanie. Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć maszyny moralności i to zawsze wychodziło źle. Jest to jedna z tych rzeczy, którą trzeba przemyśleć i to zdrowo.

- Pozostaje jeszcze kwestia tego kto mógłby się podjąć tak trudnego zadania, eksperci z jakich dziedzin...

- Nie mam pojęcia, natomiast wiem, że były robione eksperymenty, w ramach których próbowano stworzyć coś w rodzaju uniwersalnej moralności, czegoś co można by przetransferować do algorytmu. Wcześniej czy później kończyło się to w tym samym miejscu – że moralność należy określić statystycznie, a przecież nie jest tak, że większość ma zawsze racje. Kwestia dobra i zła nie wynika z rachunku statystycznego. 

- W jednej z Pańskich publikacji pojawia się temat zastosowania AI w medycynie przyszłości m.in. w badaniach nad nowymi antybiotykami, mógłby Pan przybliżyć tę kwestię?

- Ogromnym problemem dzisiejszego świata, jest to, że mamy coraz więcej bakterii odpornych na antybiotyki. Bakterie te uodparniają się szybciej niż zdążymy znaleźć na nie antybiotyki, bo znalezienie ich to bardzo długi i kosztowny proces.

Natomiast stworzenie algorytmu, który mógłby pracować na podstawie badań farmaceutów zajmujących się poszukiwaniem skutecznych antybiotyków, okazało się dobrym pomysłem. Taki program był w stanie przeszukiwać ogromne bazy danych naukowych w poszukiwaniu cząsteczek chemicznych, które mogą być antybiotykami i rzeczywiście pierwsze takie eksperymenty pokazywały, że dosłownie w ciągu dwóch, trzech dni, algorytm może przeszukać i przetestować wirtualnie kilka milionów cząsteczek chemicznych. Następnie wyłowić z nich te, które mogą być skutecznymi antybiotykami. Technologia AI może być ogromną pomocą dla naukowców przy analizie dużych baz danych. Na tym przykładzie widać, że plusów jest równie dużo jak potencjalnych zagrożeń. 

- Co Pan myśli o apelu o zatrzymanie prac nad rozwojem AI, czy jest to w ogóle możliwe na tym etapie?

- To coś czego nie da się zrealizować. Z technologicznego punktu widzenia, to zatrzymanie jest niewykonalne, bo nie mamy do czynienia z jednym modelem, który jest na jednym komputerze. Mówimy o sytuacji, w której mniej zaawansowane modele jak ChatGPT, mogą być na każdym komputerze. Nierealne jest narzucenie czegoś wszystkim komputerom na naszej planecie. Poza tym autorami tego apelu są ludzie, którzy sami rozwijali tę technologię i zainwestowali w nią dużo pieniędzy. 

- Czyli najlepiej byłoby jak najszybciej wprowadzić regulacje dotyczące korzystania ze sztucznej inteligencji?

- Bez wątpienia muszą powstać regulacje dotyczące sztucznej inteligencji, ale nie sądzę, aby ktokolwiek miał pomysł, jak powinny one wyglądać. Będąc na początku jakiejś drogi, wiele rzeczy możemy sobie wyobrazić, natomiast wiedza to zupełnie inna kwestia. Na tym polega trudność w komentowaniu nowych technologii. Tak naprawdę nikt nie wie jak mogą się one dalej rozwinąć. To sprawa z jednej strony bardzo ciekawa, ale i niepokojąca. Zobaczymy co przyniesie przyszłość.

Dziękuję za rozmowę.

***

Tomasz Rożek – polski dziennikarz naukowy i fizyk, doktor nauk fizycznych, popularyzator nauki, założyciel Fundacji „Nauka. To lubię”, laureat nagrody dziennikarskiej "Ślad", za "unikalne połączenie fascynacji nauką ze znakomitym warsztatem dziennikarskim oraz wyraźną identyfikacją religijną".

Link do kanału Tomasza Rożka: 

https://www.youtube.com/@naukatolubie

rozmawiała Anna Rasińska / Warszawa



 

Polecane