[wywiad] Tomasz Rożek: Próbowano nauczyć AI moralności, to zawsze wychodziło źle

Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć sztuczną inteligencję (AI) moralności i to zawsze wychodziło źle – powiedział Tomasz Rożek. Dziennikarz naukowy, doktor nauk fizycznych, popularyzator nauki, założyciel Fundacji „Nauka. To lubię” oraz kanału na YouTubie o tej samej nazwie, w rozmowie z KAI opowiedział m.in. o zagrożeniach związanych z rozwojem sztucznej inteligencji i o próbach nauczenia AI moralności.
zdjęcie poglądowe [wywiad] Tomasz Rożek: Próbowano nauczyć AI moralności, to zawsze wychodziło źle
zdjęcie poglądowe / pixabay.com/sujins

Anna Rasińska: W ostatnim czasie w przestrzeni medialnej zrobiło się głośno na temat sztucznej inteligencji i zagrożeń z nią związanych. Dlaczego dzieje się to właśnie teraz, skoro badania nad AI trwają od wielu lat?

Tomasz Rożek: Wynika to z faktu, że ostatnio informacje te trafiły do bardzo szerokiego grona odbiorców. Duże modele językowe, jakim jest chociażby ChatGPT, powstawały od kilkudziesięciu lat. Natomiast pierwszy raz w historii, w listopadzie ubiegłego roku, pokazano efekt ich pracy szerszemu odbiorcy. Nagle ludzie mogli wypróbować i zobaczyć, że to o czym ktoś mówił, np. podczas konferencji naukowych, lub co widzieliśmy na wielu filmach o tematyce science fiction, jest prawdą. 

Badania nad rozwojem AI to kwestia dziesiątków lat pracy. Natomiast w ostatnich miesiącach, wyniki tych prac zostały pokazane i każdy mógł wypróbować możliwości modeli językowych. 

- Media alarmują o wielu zagrożeniach związanych z rozwojem sztucznej inteligencje. Które według Pana są najbardziej realne?

- Zagrożeń związanych ze sztuczną inteligencją, jest rzeczywiście bardzo dużo. Im potężniejsze narzędzie, tym większe ryzyko związane z jego zastosowaniem. Każda taka lista będzie subiektywna, z czym musimy się pogodzić. To, że ja widzę gdzieś zagrożenia, nie znaczy, że ktoś inny będzie je widział dokładnie w tym samym miejscu.

Dla mnie największym zagrożeniem jest kwestia kontaktów międzyludzkich. Już dziś mamy całą rzeszę ludzi, głównie młodych, którzy z różnych względów nie komunikują się z drugim człowiekiem bezpośrednio. Porozumiewają się wyłącznie przez media społecznościowe. Dla wielu młodych ludzi jest to jedyny sposób komunikacji z drugim człowiekiem. Obawiam się, że już niedługo po drugiej stronie nie będzie człowieka, tylko maszyna.

Dziś ludzie, którzy kontaktują się ze sobą, nawiązują relacje. Komunikacja przez media społecznościowe sprawia, że między nimi jest pewien filtr cyfrowy. Może i takie osoby czasami spotkają się w świecie realnym, ale w sumie taka rozmowa im wystarczy. Moja obawa jest taka, że niedługo nie będzie już nawet tego filtra cyfrowego, a po drugiej stronie człowieka zastąpi maszyna. Program, który zawsze ma dla nas czas, zawsze będzie w dobrym nastroju, będzie nam mówił to co chcemy usłyszeć, dlatego, że się nas uczy i jest w tym bardzo dobry. To nie jest żadna nowość, przecież każdy program np. do streamowania wideo, podpowiada co może nas zaciekawić. Na podstawie wcześniejszych wyborów uczy się preferencji swojego użytkownika i proponuje podobne treści. Nawet program do słuchania muzyki pokazuje propozycje utworów, które mogą nam się spodobać. Skąd to wie? Bo się nas nauczył. 

Tak działa bardzo wiele rzeczy wokół nas. Co będzie kiedy połączymy model językowy jak np. Chat GPT, z tą umiejętnością uczenia się nas? Moja obawa jest taka, że za chwilę spora część z nas nie będzie się kontaktowała z innymi ludźmi. A patrząc historycznie, wydaje mi się, że nic człowieka tak nie definiuje i nie rozwija, jak właśnie konfrontacja z drugim człowiekiem. Obawiam się momentu, w którym tego zabraknie.

Niepokoją mnie także kwestie związane z prawami autorskimi. Modele językowe kradną treści i nie linkują źródła, nie odsyłają do strony internetowej. One ją przeczesują, kradną treść, przemielają i wyrzucają jako swoją. W tym kontekście trzeba na nowo zdefiniować system edukacji, kwestie bezpieczeństwa, prywatności, to są ogromne wyzwania. Nie wiadomo, które dane są wykorzystywane i w jaki sposób. Nie wiemy co duży model językowy robi np. z naszymi prywatnymi danymi. Oczywiście tych zagrożeń jest jeszcze dużo więcej.

- Niektórzy naukowcy uważają, że przyspieszająca rewolucja AI doprowadzi do momentu, w którym jako ludzie nie będziemy już potrzebni. Czy widzi Pan możliwość realizacji takiego scenariusza?

- Ja nie podzielam tak czarnych wizji. Natomiast zostawiam przestrzeń na to, że w bardzo odległej przyszłości może się tak zdarzyć. W dającej się przewidzieć przyszłości prawdopodobieństwo takiego scenariusza jest znikome.

Nie podzielam argumentu, że za chwilę ludzie staną się zbędni. Co by to miało to w praktyce oznaczać? Czy jeżeli ktoś nie pracuje, jest zbędny? Nie definiujemy człowieka tylko przez pracę, którą wykonuje. Człowiek nie jest na ziemi wyłącznie po to by pracować i w momencie gdy nie pracuje, gdy mogą go zastąpić maszyny, nagle staje się zbędny.

- Jednak realnym problemem będzie fakt, że przez rozwój technologii wiele zawodów i profesji zniknie.

- Oczywiście, ta technologia, ten zbiór technologii, wykosi całkiem sporą część zawodów. Jak dużą część? Tego nie wiem. Są różne szacunki na ten temat, ale rzeczywiście niektóre zawody będą wykonywane przez algorytmy.

Natomiast z pewnością powstaną inne. Może te zmiany zmobilizują nas na przykład do tego, żeby więcej tworzyć... Nawet gdyby się okazało, że nowe profesje nie powstaną, być może w przyszłości będziemy po prostu inaczej funkcjonować, np. bez pracy od rana do nocy. Może te zmiany dadzą nam kopa do stworzenia nowego prawa pracy, w którym tydzień pracy będzie trwał 4 dni, a nie 5.

Bardzo trudno mi na dziś o tym myśleć i prognozować, dlatego, że dotykamy dość abstrakcyjnych kwestii. Mówimy o przyszłości, która być może się zdarzy, być może nie, ale jest to daleka przyszłość, trudna do przewidzenia.

- Kolejny całkiem aktualnym problemem jest kwestia moralności AI. Często mówi Pan o tym podczas wykładów na temat sztucznej inteligencji. Wielu ludzi ma problem z rozróżnieniem tego co jest złe, a co dobre. Jak tę wiedzę przekazać algorytmowi?

- To faktycznie duży problem. Przede wszystkim ciężko powiedzieć czym właściwie jest moralność. Nie potrafimy zdefiniować tego pojęcia. Było mnóstwo projektów, badań na ten temat. Nie jest to nowy temat. Wielu naukowców pracuje nad tym problemem. Skoro algorytmy mają w przyszłości, podejmować kluczowe decyzje, jak nauczyć je odróżniania dobra od zła? Co zrobić żeby podejmowały dobre decyzje?

Po pierwsze, nie ma czegoś takiego jak decyzja uniwersalnie dobra. Widać to na przykładzie pojazdów elektrycznych. Wyobraźmy sobie sytuację, w której ktoś wyskakuje przed maskę takiego samochodu, co algorytm ma zrobić? Dobra decyzja dla tego kto siedzi w środku samochodu, to zła decyzja dla tego, który jest wewnątrz. Nie wchodząc w kwestie moralności, obiektywnego dobra i zła, jeżeli mówimy o decyzjach dnia codziennego, one bardzo często są waśnie takie. Ta sama decyzja jest dla jednego dobra, a dla drugiego zła. My jako ludzie podejmujemy codziennie setki różnych decyzji. Jedne są dobre inne złe. Natomiast nie ma pomysłu, jak nauczyć algorytm działania zgodnie z tą samą logiką, z którą działa człowiek. Póki co nie ma pomysłu jak to zrobić, jest to duże wyzwanie. Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć maszyny moralności i to zawsze wychodziło źle. Jest to jedna z tych rzeczy, którą trzeba przemyśleć i to zdrowo.

- Pozostaje jeszcze kwestia tego kto mógłby się podjąć tak trudnego zadania, eksperci z jakich dziedzin...

- Nie mam pojęcia, natomiast wiem, że były robione eksperymenty, w ramach których próbowano stworzyć coś w rodzaju uniwersalnej moralności, czegoś co można by przetransferować do algorytmu. Wcześniej czy później kończyło się to w tym samym miejscu – że moralność należy określić statystycznie, a przecież nie jest tak, że większość ma zawsze racje. Kwestia dobra i zła nie wynika z rachunku statystycznego. 

- W jednej z Pańskich publikacji pojawia się temat zastosowania AI w medycynie przyszłości m.in. w badaniach nad nowymi antybiotykami, mógłby Pan przybliżyć tę kwestię?

- Ogromnym problemem dzisiejszego świata, jest to, że mamy coraz więcej bakterii odpornych na antybiotyki. Bakterie te uodparniają się szybciej niż zdążymy znaleźć na nie antybiotyki, bo znalezienie ich to bardzo długi i kosztowny proces.

Natomiast stworzenie algorytmu, który mógłby pracować na podstawie badań farmaceutów zajmujących się poszukiwaniem skutecznych antybiotyków, okazało się dobrym pomysłem. Taki program był w stanie przeszukiwać ogromne bazy danych naukowych w poszukiwaniu cząsteczek chemicznych, które mogą być antybiotykami i rzeczywiście pierwsze takie eksperymenty pokazywały, że dosłownie w ciągu dwóch, trzech dni, algorytm może przeszukać i przetestować wirtualnie kilka milionów cząsteczek chemicznych. Następnie wyłowić z nich te, które mogą być skutecznymi antybiotykami. Technologia AI może być ogromną pomocą dla naukowców przy analizie dużych baz danych. Na tym przykładzie widać, że plusów jest równie dużo jak potencjalnych zagrożeń. 

- Co Pan myśli o apelu o zatrzymanie prac nad rozwojem AI, czy jest to w ogóle możliwe na tym etapie?

- To coś czego nie da się zrealizować. Z technologicznego punktu widzenia, to zatrzymanie jest niewykonalne, bo nie mamy do czynienia z jednym modelem, który jest na jednym komputerze. Mówimy o sytuacji, w której mniej zaawansowane modele jak ChatGPT, mogą być na każdym komputerze. Nierealne jest narzucenie czegoś wszystkim komputerom na naszej planecie. Poza tym autorami tego apelu są ludzie, którzy sami rozwijali tę technologię i zainwestowali w nią dużo pieniędzy. 

- Czyli najlepiej byłoby jak najszybciej wprowadzić regulacje dotyczące korzystania ze sztucznej inteligencji?

- Bez wątpienia muszą powstać regulacje dotyczące sztucznej inteligencji, ale nie sądzę, aby ktokolwiek miał pomysł, jak powinny one wyglądać. Będąc na początku jakiejś drogi, wiele rzeczy możemy sobie wyobrazić, natomiast wiedza to zupełnie inna kwestia. Na tym polega trudność w komentowaniu nowych technologii. Tak naprawdę nikt nie wie jak mogą się one dalej rozwinąć. To sprawa z jednej strony bardzo ciekawa, ale i niepokojąca. Zobaczymy co przyniesie przyszłość.

Dziękuję za rozmowę.

***

Tomasz Rożek – polski dziennikarz naukowy i fizyk, doktor nauk fizycznych, popularyzator nauki, założyciel Fundacji „Nauka. To lubię”, laureat nagrody dziennikarskiej "Ślad", za "unikalne połączenie fascynacji nauką ze znakomitym warsztatem dziennikarskim oraz wyraźną identyfikacją religijną".

Link do kanału Tomasza Rożka: 

https://www.youtube.com/@naukatolubie

rozmawiała Anna Rasińska / Warszawa


Oceń artykuł
Wczytuję ocenę...

 

POLECANE
Tadeusz Płużański: Tak Pilecki uciekł z piekła Wiadomości
Tadeusz Płużański: Tak Pilecki uciekł z piekła

81 lat temu, w nocy z 26 na 27 kwietnia 1943 r. Witold Pilecki uciekł z KL Auschwitz, do którego dobrowolnie trafił w 1940 r., aby zdobywać informacje o niemieckiej machinie zbrodni i docelowo – wyzwolić obóz.

Wyzwanie przyjęte: dojdzie do debaty Biden kontra Trump z ostatniej chwili
Wyzwanie przyjęte: dojdzie do debaty Biden kontra Trump

Prezydent Joe Biden powiedział w piątek w wywiadzie z kontrowersyjnym prezenterem radiowym Howarderm Sternem, że jest gotowy do debaty z Donaldem Trumpem. Trump zadeklarował, że może debatować z Bidenem nawet na sali sądowej, gdzie odbywa się jego proces karny.

To koniec tanich wakacji all inclusive? Popularna wyspa mówi nie wczasowiczom z ostatniej chwili
To koniec tanich wakacji all inclusive? Popularna wyspa mówi "nie" wczasowiczom

Co roku na hiszpańską Teneryfę przybywają tłumy turystów, często korzystając z hoteli z opcją All Inclusive. Dużą grupę wśród nich stanowią podróżujący z Wielkiej Brytanii i to właśnie do nich zwrócił się ostatnio zastępca burmistrza stolicyTeneryfy, który wezwał ich do przemyślenia swoich wakacyjnych planów, ale ostrzeżenie w istocie dotyczy wszystkich turystów. 

Jest nowy pakiet uzbrojenia dla Ukrainy z ostatniej chwili
Jest nowy pakiet uzbrojenia dla Ukrainy

Szef Pentagonu Lloyd Austin ogłosił w piątek, że Stany Zjednoczone zakupią dla Ukrainy rakiety Patriot oraz inne rodzaje broni i sprzętu wojskowego o wartości 6 mld dolarów. Jest to największy jak dotąd pakiet uzbrojenia USA dla Kijowa.

Koniec pewnego rozdziału motoryzacji: te modele samochodów już nie powstaną z ostatniej chwili
Koniec pewnego rozdziału motoryzacji: te modele samochodów już nie powstaną

Portal Autoblog.com przygotował listę pojazdów co do których posiada on potwierdzienie lub raporty świadczące o tym, że zostaną one wycofane w 2024 roku. Zwraca on uwagę, że lista ta jest naprawdę pokaźna i zawiera wiele znanych i uznanych serii. 

Szukasz wakacyjnej inspiracji? Tych pięć miejsc w Grecji po prostu musisz zobaczyć tylko u nas
Szukasz wakacyjnej inspiracji? Tych pięć miejsc w Grecji po prostu musisz zobaczyć

Niesłabnącą popularnością wśród Polaków wciąż cieszą się wakacje w Grecji. Co roku tłumy naszych rodaków udają się do tego kraju zarówno w wyjazdach zorganizowanych, często w formule all inclusive, czy też na własną rękę.

PSL odsłania karty: kogo wystawią w wyborach do europarlamentu? z ostatniej chwili
PSL odsłania karty: kogo wystawią w wyborach do europarlamentu?

Lider PSL Władysław Kosiniak-Kamysz przekazał, że na listach Trzeciej Drogi z ramienia jego formacji znajdą się wiceministrowie, parlamentarzyści i samorządowcy. "Staramy się wystawić najmocniejsze nazwiska, żeby zmobilizować wyborców do pójścia na te wybory" - mówił.

Sąd umorzył postępowanie wobec sędziego z Suwałk za jazdę po pijanemu z ostatniej chwili
Sąd umorzył postępowanie wobec sędziego z Suwałk za jazdę po pijanemu

– Sąd Okręgowy w Elblągu umorzył postępowanie wobec sędziego z Suwałk, który był oskarżony o jazdę po pijanemu. Sąd ustalił, że w sprawie nie było wymaganego zezwolenia na ściganie. Wyrok jest prawomocny – podał PAP w piątek rzecznik elbląskiego sądu.

Prokuratura umorzyła sprawę Duszy, Pytla i Noska. Prof. Cenckiewicz komentuje z ostatniej chwili
Prokuratura umorzyła sprawę Duszy, Pytla i Noska. Prof. Cenckiewicz komentuje

Prokuratura Okręgowa w Warszawie umorzyła śledztwo przeciwko byłym szefom Służby Kontrwywiadu Wojskowego - gen. Januszowi Noskowi, gen. Piotrowi Pytlowi oraz pułkownikowi Krzysztofowi Duszy.

Ostatnie Pokolenie zapowiada: Rozpoczynamy akcje, które będą łamały prawo z ostatniej chwili
Ostatnie Pokolenie zapowiada: "Rozpoczynamy akcje, które będą łamały prawo"

– Rozpoczynamy cykl akcji, które będą łamały prawo, będą alarmistyczne, dyskomfortowe, być może radykalne (...). Żądamy nagłej, radykalnej zmiany – zapowiada Łukasz Stanek, ekoaktywista z Ostatniego Pokolenia.

REKLAMA

[wywiad] Tomasz Rożek: Próbowano nauczyć AI moralności, to zawsze wychodziło źle

Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć sztuczną inteligencję (AI) moralności i to zawsze wychodziło źle – powiedział Tomasz Rożek. Dziennikarz naukowy, doktor nauk fizycznych, popularyzator nauki, założyciel Fundacji „Nauka. To lubię” oraz kanału na YouTubie o tej samej nazwie, w rozmowie z KAI opowiedział m.in. o zagrożeniach związanych z rozwojem sztucznej inteligencji i o próbach nauczenia AI moralności.
zdjęcie poglądowe [wywiad] Tomasz Rożek: Próbowano nauczyć AI moralności, to zawsze wychodziło źle
zdjęcie poglądowe / pixabay.com/sujins

Anna Rasińska: W ostatnim czasie w przestrzeni medialnej zrobiło się głośno na temat sztucznej inteligencji i zagrożeń z nią związanych. Dlaczego dzieje się to właśnie teraz, skoro badania nad AI trwają od wielu lat?

Tomasz Rożek: Wynika to z faktu, że ostatnio informacje te trafiły do bardzo szerokiego grona odbiorców. Duże modele językowe, jakim jest chociażby ChatGPT, powstawały od kilkudziesięciu lat. Natomiast pierwszy raz w historii, w listopadzie ubiegłego roku, pokazano efekt ich pracy szerszemu odbiorcy. Nagle ludzie mogli wypróbować i zobaczyć, że to o czym ktoś mówił, np. podczas konferencji naukowych, lub co widzieliśmy na wielu filmach o tematyce science fiction, jest prawdą. 

Badania nad rozwojem AI to kwestia dziesiątków lat pracy. Natomiast w ostatnich miesiącach, wyniki tych prac zostały pokazane i każdy mógł wypróbować możliwości modeli językowych. 

- Media alarmują o wielu zagrożeniach związanych z rozwojem sztucznej inteligencje. Które według Pana są najbardziej realne?

- Zagrożeń związanych ze sztuczną inteligencją, jest rzeczywiście bardzo dużo. Im potężniejsze narzędzie, tym większe ryzyko związane z jego zastosowaniem. Każda taka lista będzie subiektywna, z czym musimy się pogodzić. To, że ja widzę gdzieś zagrożenia, nie znaczy, że ktoś inny będzie je widział dokładnie w tym samym miejscu.

Dla mnie największym zagrożeniem jest kwestia kontaktów międzyludzkich. Już dziś mamy całą rzeszę ludzi, głównie młodych, którzy z różnych względów nie komunikują się z drugim człowiekiem bezpośrednio. Porozumiewają się wyłącznie przez media społecznościowe. Dla wielu młodych ludzi jest to jedyny sposób komunikacji z drugim człowiekiem. Obawiam się, że już niedługo po drugiej stronie nie będzie człowieka, tylko maszyna.

Dziś ludzie, którzy kontaktują się ze sobą, nawiązują relacje. Komunikacja przez media społecznościowe sprawia, że między nimi jest pewien filtr cyfrowy. Może i takie osoby czasami spotkają się w świecie realnym, ale w sumie taka rozmowa im wystarczy. Moja obawa jest taka, że niedługo nie będzie już nawet tego filtra cyfrowego, a po drugiej stronie człowieka zastąpi maszyna. Program, który zawsze ma dla nas czas, zawsze będzie w dobrym nastroju, będzie nam mówił to co chcemy usłyszeć, dlatego, że się nas uczy i jest w tym bardzo dobry. To nie jest żadna nowość, przecież każdy program np. do streamowania wideo, podpowiada co może nas zaciekawić. Na podstawie wcześniejszych wyborów uczy się preferencji swojego użytkownika i proponuje podobne treści. Nawet program do słuchania muzyki pokazuje propozycje utworów, które mogą nam się spodobać. Skąd to wie? Bo się nas nauczył. 

Tak działa bardzo wiele rzeczy wokół nas. Co będzie kiedy połączymy model językowy jak np. Chat GPT, z tą umiejętnością uczenia się nas? Moja obawa jest taka, że za chwilę spora część z nas nie będzie się kontaktowała z innymi ludźmi. A patrząc historycznie, wydaje mi się, że nic człowieka tak nie definiuje i nie rozwija, jak właśnie konfrontacja z drugim człowiekiem. Obawiam się momentu, w którym tego zabraknie.

Niepokoją mnie także kwestie związane z prawami autorskimi. Modele językowe kradną treści i nie linkują źródła, nie odsyłają do strony internetowej. One ją przeczesują, kradną treść, przemielają i wyrzucają jako swoją. W tym kontekście trzeba na nowo zdefiniować system edukacji, kwestie bezpieczeństwa, prywatności, to są ogromne wyzwania. Nie wiadomo, które dane są wykorzystywane i w jaki sposób. Nie wiemy co duży model językowy robi np. z naszymi prywatnymi danymi. Oczywiście tych zagrożeń jest jeszcze dużo więcej.

- Niektórzy naukowcy uważają, że przyspieszająca rewolucja AI doprowadzi do momentu, w którym jako ludzie nie będziemy już potrzebni. Czy widzi Pan możliwość realizacji takiego scenariusza?

- Ja nie podzielam tak czarnych wizji. Natomiast zostawiam przestrzeń na to, że w bardzo odległej przyszłości może się tak zdarzyć. W dającej się przewidzieć przyszłości prawdopodobieństwo takiego scenariusza jest znikome.

Nie podzielam argumentu, że za chwilę ludzie staną się zbędni. Co by to miało to w praktyce oznaczać? Czy jeżeli ktoś nie pracuje, jest zbędny? Nie definiujemy człowieka tylko przez pracę, którą wykonuje. Człowiek nie jest na ziemi wyłącznie po to by pracować i w momencie gdy nie pracuje, gdy mogą go zastąpić maszyny, nagle staje się zbędny.

- Jednak realnym problemem będzie fakt, że przez rozwój technologii wiele zawodów i profesji zniknie.

- Oczywiście, ta technologia, ten zbiór technologii, wykosi całkiem sporą część zawodów. Jak dużą część? Tego nie wiem. Są różne szacunki na ten temat, ale rzeczywiście niektóre zawody będą wykonywane przez algorytmy.

Natomiast z pewnością powstaną inne. Może te zmiany zmobilizują nas na przykład do tego, żeby więcej tworzyć... Nawet gdyby się okazało, że nowe profesje nie powstaną, być może w przyszłości będziemy po prostu inaczej funkcjonować, np. bez pracy od rana do nocy. Może te zmiany dadzą nam kopa do stworzenia nowego prawa pracy, w którym tydzień pracy będzie trwał 4 dni, a nie 5.

Bardzo trudno mi na dziś o tym myśleć i prognozować, dlatego, że dotykamy dość abstrakcyjnych kwestii. Mówimy o przyszłości, która być może się zdarzy, być może nie, ale jest to daleka przyszłość, trudna do przewidzenia.

- Kolejny całkiem aktualnym problemem jest kwestia moralności AI. Często mówi Pan o tym podczas wykładów na temat sztucznej inteligencji. Wielu ludzi ma problem z rozróżnieniem tego co jest złe, a co dobre. Jak tę wiedzę przekazać algorytmowi?

- To faktycznie duży problem. Przede wszystkim ciężko powiedzieć czym właściwie jest moralność. Nie potrafimy zdefiniować tego pojęcia. Było mnóstwo projektów, badań na ten temat. Nie jest to nowy temat. Wielu naukowców pracuje nad tym problemem. Skoro algorytmy mają w przyszłości, podejmować kluczowe decyzje, jak nauczyć je odróżniania dobra od zła? Co zrobić żeby podejmowały dobre decyzje?

Po pierwsze, nie ma czegoś takiego jak decyzja uniwersalnie dobra. Widać to na przykładzie pojazdów elektrycznych. Wyobraźmy sobie sytuację, w której ktoś wyskakuje przed maskę takiego samochodu, co algorytm ma zrobić? Dobra decyzja dla tego kto siedzi w środku samochodu, to zła decyzja dla tego, który jest wewnątrz. Nie wchodząc w kwestie moralności, obiektywnego dobra i zła, jeżeli mówimy o decyzjach dnia codziennego, one bardzo często są waśnie takie. Ta sama decyzja jest dla jednego dobra, a dla drugiego zła. My jako ludzie podejmujemy codziennie setki różnych decyzji. Jedne są dobre inne złe. Natomiast nie ma pomysłu, jak nauczyć algorytm działania zgodnie z tą samą logiką, z którą działa człowiek. Póki co nie ma pomysłu jak to zrobić, jest to duże wyzwanie. Było już sporo różnych eksperymentów myślowych, projektów badawczych, w których próbowano nauczyć maszyny moralności i to zawsze wychodziło źle. Jest to jedna z tych rzeczy, którą trzeba przemyśleć i to zdrowo.

- Pozostaje jeszcze kwestia tego kto mógłby się podjąć tak trudnego zadania, eksperci z jakich dziedzin...

- Nie mam pojęcia, natomiast wiem, że były robione eksperymenty, w ramach których próbowano stworzyć coś w rodzaju uniwersalnej moralności, czegoś co można by przetransferować do algorytmu. Wcześniej czy później kończyło się to w tym samym miejscu – że moralność należy określić statystycznie, a przecież nie jest tak, że większość ma zawsze racje. Kwestia dobra i zła nie wynika z rachunku statystycznego. 

- W jednej z Pańskich publikacji pojawia się temat zastosowania AI w medycynie przyszłości m.in. w badaniach nad nowymi antybiotykami, mógłby Pan przybliżyć tę kwestię?

- Ogromnym problemem dzisiejszego świata, jest to, że mamy coraz więcej bakterii odpornych na antybiotyki. Bakterie te uodparniają się szybciej niż zdążymy znaleźć na nie antybiotyki, bo znalezienie ich to bardzo długi i kosztowny proces.

Natomiast stworzenie algorytmu, który mógłby pracować na podstawie badań farmaceutów zajmujących się poszukiwaniem skutecznych antybiotyków, okazało się dobrym pomysłem. Taki program był w stanie przeszukiwać ogromne bazy danych naukowych w poszukiwaniu cząsteczek chemicznych, które mogą być antybiotykami i rzeczywiście pierwsze takie eksperymenty pokazywały, że dosłownie w ciągu dwóch, trzech dni, algorytm może przeszukać i przetestować wirtualnie kilka milionów cząsteczek chemicznych. Następnie wyłowić z nich te, które mogą być skutecznymi antybiotykami. Technologia AI może być ogromną pomocą dla naukowców przy analizie dużych baz danych. Na tym przykładzie widać, że plusów jest równie dużo jak potencjalnych zagrożeń. 

- Co Pan myśli o apelu o zatrzymanie prac nad rozwojem AI, czy jest to w ogóle możliwe na tym etapie?

- To coś czego nie da się zrealizować. Z technologicznego punktu widzenia, to zatrzymanie jest niewykonalne, bo nie mamy do czynienia z jednym modelem, który jest na jednym komputerze. Mówimy o sytuacji, w której mniej zaawansowane modele jak ChatGPT, mogą być na każdym komputerze. Nierealne jest narzucenie czegoś wszystkim komputerom na naszej planecie. Poza tym autorami tego apelu są ludzie, którzy sami rozwijali tę technologię i zainwestowali w nią dużo pieniędzy. 

- Czyli najlepiej byłoby jak najszybciej wprowadzić regulacje dotyczące korzystania ze sztucznej inteligencji?

- Bez wątpienia muszą powstać regulacje dotyczące sztucznej inteligencji, ale nie sądzę, aby ktokolwiek miał pomysł, jak powinny one wyglądać. Będąc na początku jakiejś drogi, wiele rzeczy możemy sobie wyobrazić, natomiast wiedza to zupełnie inna kwestia. Na tym polega trudność w komentowaniu nowych technologii. Tak naprawdę nikt nie wie jak mogą się one dalej rozwinąć. To sprawa z jednej strony bardzo ciekawa, ale i niepokojąca. Zobaczymy co przyniesie przyszłość.

Dziękuję za rozmowę.

***

Tomasz Rożek – polski dziennikarz naukowy i fizyk, doktor nauk fizycznych, popularyzator nauki, założyciel Fundacji „Nauka. To lubię”, laureat nagrody dziennikarskiej "Ślad", za "unikalne połączenie fascynacji nauką ze znakomitym warsztatem dziennikarskim oraz wyraźną identyfikacją religijną".

Link do kanału Tomasza Rożka: 

https://www.youtube.com/@naukatolubie

rozmawiała Anna Rasińska / Warszawa



Oceń artykuł
Wczytuję ocenę...

 

Polecane
Emerytury
Stażowe