AI nie jest nieomylna. Eksperci apelują o krytyczne myślenie

Sztuczna Inteligencja nie jest narzędziem pozbawionym ograniczeń - może popełniać błędy, a za jej opracowaniem stoją ludzie. Właśnie dlatego zależy nam na tym, aby uczniowie, korzystając z AI, aktywowali tryb myślenia krytycznego - powiedziała PAP Ronit Levavi Morad z Google Research.
AI - zdjęcie symboliczne
AI - zdjęcie symboliczne / pixabay.com

Co musisz wiedzieć? 

  • AI może się mylić, dlatego zawsze trzeba sprawdzać jej odpowiedzi
  • Dzieci powinny uczyć się o działaniu sztucznej inteligencji już w szkole
  • Modele AI mogą mieć uprzedzenia, jeśli zostały stworzone na złych lub niepełnych danych
  • Krytyczne myślenie jest kluczowe podczas korzystania z narzędzi AI

 

AI nie jest nieomylna. Eksperci apelują o krytyczne myślenie

PAP: Podczas konferencji Google Research@ w Warszawie mówiła pani, że już dzieci wcześnie w szkole powinny uczyć się, jak działa AI. Dlaczego pani zdaniem to takie ważne?

Ronit Levavi Morad, senior director i chief of staff w Google Research, która prowadzi inicjatywy Google Research w zakresie edukacji młodzieży w obszarze sztucznej inteligencji: Uczniowie dorastają w świecie, w którym narzędzia sztucznej inteligencji stają się integralną częścią codziennego życia. Ponieważ przyszłość będzie napędzana przez AI - chcemy mieć pewność, że każde dziecko z tego pokolenia będzie miało szansę w pełni wykorzystać ten potencjał. Naszym zadaniem jest zapewnienie im na tę podróż niezbędnych kompetencji. Nasze działania mają na celu budowanie pewności siebie uczniów i pokazywanie, jak efektywnie oraz etycznie korzystać z narzędzi AI do rozwiązywania problemów, współpracy i pogłębiania wiedzy. Równocześnie młodzi ludzie muszą rozumieć, że AI nie jest doskonała i ma swoje ograniczenia.

PAP: My, dorośli, nie mieliśmy raczej w szkole zajęć o AI. Co powinniśmy wiedzieć o sztucznej inteligencji?

R.M.: Po pierwsze: AI jest partnerem i współtwórcą. To narzędzie, które ma wzmacniać naszą pomysłowość, ciekawość i wiedzę.

Po drugie - równie ważne - AI nie jest narzędziem idealnym ani bezbłędnym. Użytkownicy korzystający z AI mają tu swoją rolę do odegrania: muszą weryfikować wyniki generowane przez sztuczną inteligencję, działać jak „fact-checkerzy” - osoby zajmujące się weryfikacją informacji. Dzięki AI można zyskać szerszą wiedzę, ale trzeba używać narzędzia ostrożnie, etycznie i być świadomym jego ograniczeń.

Po trzecie: AI to fundament przyszłych rozwiązań. Mamy na świecie wiele wielkich, nierozwiązanych problemów w dziedzinach takich jak zdrowie, nauka, klimat czy edukacja. Sztuczna inteligencja to dla młodych ludzi, w tym - przyszłych naukowców, potężne narzędzie do ich rozwiązania.

PAP: Wspomniała pani o ograniczeniach i ryzykach związanych ze stosowaniem AI. O jakich zagrożeniach wszyscy powinni wiedzieć?

R.M.: W Google jesteśmy w pełni świadomi wbudowanych ograniczeń Sztucznej Inteligencji, takich jak chociażby uprzedzenia (biases) w modelach, które zostały przeniesione z niewystarczająco zróżnicowanych danych źródłowych. Właśnie dlatego edukujemy uczniów, tłumacząc im, jak kluczowe jest trenowanie modeli AI na szerokich i zróżnicowanych zbiorach danych, pochodzących z różnych regionów geograficznych i kulturowych, po to, by AI była reprezentatywna i sprawiedliwa dla wszystkich.

PAP: Czy nie byłoby prościej, gdyby Google po prostu zredukowało te uprzedzenia w swoich produktach, zamiast uczyć dzieci, jak sobie z tymi uprzedzeniami modeli radzić?

R.M.: W Google pracujemy dwutorowo. Robimy jedno i drugie. Bardzo mocno inwestujemy w to, by nasze modele były reprezentatywne dla wszystkich kultur i opierały się na zróżnicowanych źródłach danych. Wykonujemy naszą pracę w sposób ostrożny, naukowy i etyczny. Ale technologia nie jest w 100 proc. doskonała i bezbłędna. Mogą zdarzyć się pomyłki. Dlatego chcemy, aby uczniowie, używając AI, mieli uruchomiony tryb myślenia krytycznego. Nie chcemy, by polegali w 100 proc. na jakimkolwiek wyniku otrzymanym od AI.

Częścią bycia świadomym użytkownikiem AI jest zadawanie pytań: „Czy ta odpowiedź ma sens?” albo „Czy ta odpowiedź jest zgodna z prawdą?”. To idea „człowieka w pętli” (human in the loop). Ostatecznie to użytkownik jest pierwszą osobą odpowiedzialną za to, co otrzymuje od AI, i co z tym zrobi.

 

Plusy i minusy korzystania z AI

PAP: Państwa pomysłem na oswajanie młodzieży z szansami i ryzykami korzystania ze sztucznej inteligencji jest „AI Quest”.

R.M.: Tak. Trudno jest uczyć młodzież o potencjalnych uprzedzeniach w algorytmach w sposób teoretyczny, dlatego wykorzystujemy do tego angażujące lekcje i gamifikację doświadczeń. W AI Quest użytkownicy - docelowo młodzież w wieku 11–14 lat - wcielają się w badacza Google i rozwiązują realne problemy. Przełożyliśmy na język gier skomplikowane projekty badawcze, takie jak prognozowanie powodzi, zapobieganie ślepocie czy mapowanie neuronów w mózgu.

Rolą AI Quest jest m.in uświadomienie uczniom, że za AI stoją ludzie. Sztuczna inteligencja to nie jest magia, czy coś, co spadło nam z nieba. To matematyka, algorytmy i ludzie, którzy je tworzą.

Chcemy, żeby dzieci zyskały dzięki wiedzy zdobytej w grze poczucie sprawstwa – zrozumiały, że i one mogą tworzyć rozwiązania oparte na AI, by rozwiązywać realne problemy.

PAP: Czy ta gra uczy też o błędach i problemach z danymi, na których trenuje się modele?

R.M.: Tak. Pierwsza misja w grze jest inspirowana naszymi badaniami nad prognozowaniem powodzi. Uczniowie przechodzą drogę od zrozumienia problemu, przez zbieranie i czyszczenie danych, aż po trenowanie i testowanie modelu.

W trakcie gry dowiadują się, że jeśli ich dobór danych nie jest odpowiedni – model, który trenują, nie dostarczy pełnej prognozy powodzi. A to potencjalnie może doprowadzić do pominięcia ostrzeżenia o powodzi dla konkretnej grupy ludzi. To bardzo praktyczny sposób na zrozumienie konsekwencji błędów w zbieraniu danych i ich selekcji. Uczniowie mogą więc dostrzec związek między różnorodnością i jakością danych, a realnym skutkiem dla bezpieczeństwa ludzi.

PAP: Jaki jest pani wymarzony scenariusz, jeśli chodzi o zastosowanie AI w edukacji w perspektywie kilku następnych lat?

R.M.: Mam bardzo proste marzenie: żeby każdy uczeń mógł korzystać z osobistego nauczyciela AI. Wielu uczniów na całym świecie nie ma takich możliwości. Jeszcze kilka lat temu na prywatnego korepetytora mogły liczyć tylko niektóre dzieci. Dziś dzięki sztucznej inteligencji, możemy umożliwić bardziej spersonalizowaną i efektywną naukę każdemu uczniowi.

A moje drugie marzenie, to żeby każdy nauczyciel zyskał w sztucznej inteligencji swojego osobistego asystenta. Widziałam badania, które mówią, że AI może oddać nauczycielowi nawet 10 godzin tygodniowo, przejmując zadania administracyjne czy planowanie lekcji. Ten czas nauczyciel może poświęcić na budowanie relacji z uczniami, mentoring i inspirowanie ich. Uważam, że to ich najważniejsza rola jako edukatorów.

PAP: Jaką informację chciałaby pani zostawić nam w głowach, jeśli chodzi o kompetencje AI?

R.M.: Spróbujcie tych narzędzi i eksperymentujcie z nimi. Tylko poprzez realne użytkowanie możecie ocenić, na ile są dla was pomocne.

Pamiętajcie jednak o ograniczeniach. AI to potężna technologia, ale to człowiek ma w niej sprawstwo. Musicie wiedzieć, jak nawigować w świecie z tą technologią. Jeśli chcecie wsiąść do pociągu do przyszłości, musicie nauczyć się tej technologii sprawnie używać. W przeciwnym razie zostaniecie w tyle.


 

POLECANE
We Włoszech przyznano pierwsze odszkodowanie za wypadek podczas pracy zdalnej z ostatniej chwili
We Włoszech przyznano pierwsze odszkodowanie za wypadek podczas pracy zdalnej

Po raz pierwszy we Włoszech przyznano odszkodowanie za wypadek, do którego doszło podczas pracy zdalnej. Otrzymała je kobieta, która pracując w domu w czasie wideokonferencji wstała sprzed biurka sięgając po teczkę z dokumentami, potknęła się i złamała kostkę. Musiała przejść operację.

„TSUE zajmuje się inżynierią społeczną i chce być federalnym sądem konstytucyjnym” z ostatniej chwili
„TSUE zajmuje się inżynierią społeczną i chce być federalnym sądem konstytucyjnym”

Sądy na pierwszym planie europejskich konfliktów wartości —tak nazywało się wydarzenie zorganizowane przez Mathias Corvinus Collegium (MCC) na kampusie w Budapeszcie nad jeziorem Bottomless Lake w Budapeszcie na Węgrzech w piątek 27 lutego. Tematem debaty był proces, dzięki któremu Trybunał Sprawiedliwości Unii Europejskiej (TSUE) w Luksemburgu stał się narzędziem narzucania postępowego programu wszystkim państwom członkowskim.

Warner Bros. Discovery i Paramount Skydance podpisały umowę o przejęciu WBD z ostatniej chwili
Warner Bros. Discovery i Paramount Skydance podpisały umowę o przejęciu WBD

Warner Bros. Discovery i Paramount Skydance podpisały w piątek umowę o przejęciu WBD przez PSKY - powiedział jeden z dyrektorów WBD Bruce Campbell, cytowany przez agencję Reutera. Transakcja opiewać ma na 110 mld dolarów.

Trump: Możemy skończyć na przyjacielskim przejęciu Kuby z ostatniej chwili
Trump: Możemy skończyć na przyjacielskim przejęciu Kuby

Prezydent Donald Trump w rozmowie z dziennikarzami zasugerował, że może dojść do „przyjaznego przejęcia” Kuby przez Stany Zjednoczone.

Ostre starcie mec. Lewandowskiego z Żurkiem. „Immunitet Prokuratora Generalnego nie trwa wiecznie” gorące
Ostre starcie mec. Lewandowskiego z Żurkiem. „Immunitet Prokuratora Generalnego nie trwa wiecznie”

Mec. Bartosz Lewandowski w dosadny sposób zareagował na słowa ministra sprawiedliwości Waldemara Żurka, które ten wypowiedział pod jego adresem podczas piątkowej konferencji prasowej.

Tȟašúŋke Witkó: Tusk musi coś zrobić w kwestii powszechnej służby wojskowej tylko u nas
Tȟašúŋke Witkó: Tusk musi coś zrobić w kwestii powszechnej służby wojskowej

Czy w Polsce powinien wrócić obowiązkowy pobór? Autor felietonu przekonuje, że rząd Donald Tusk musi pilnie zmierzyć się z tematem powszechnej służby wojskowej – i zacząć od polityków. W tle wojna za wschodnią granicą oraz rosnące napięcia w Europie.

Facebook usuwa strony węgierskich gazet prorządowych na kilka tygodni przed wyborami z ostatniej chwili
Facebook usuwa strony węgierskich gazet prorządowych na kilka tygodni przed wyborami

Jak poinformował portal European Conservative, w piątek 27 lutego kilka stron na Facebooku należących do węgierskich prorządowych gazet okręgowych stało się niedostępnych w wyniku interwencji, która może mieć podłoże polityczne, zaledwie kilka tygodni przed pójściem kraju do urn.

SAFE. Gen. Wroński: Za brak interoperacyjności zapłacimy dodatkowo ukrytym podatkiem logistycznym tylko u nas
SAFE. Gen. Wroński: Za brak interoperacyjności zapłacimy dodatkowo ukrytym podatkiem logistycznym

„Jeżeli SAFE dołoży nowe programy obok amerykańskich i koreańskich, a my nie wymusimy jednej architektury interoperacyjności, to w ciągu najbliższych lat, 8-10, zapłacimy za to ukrytym podatkiem logistycznym, a gotowość spadnie” - powiedział w wywiadzie dla portalu Tysol.pl gen. Dariusz Wroński, były dowódca 1 Brygady Lotnictwa Wojsk Lądowych, absolwent studiów podyplomowych na Wydziale Ekonomii u pani prof. Doroty Simpson (Uniwersytet Gdański).

Korzystała z Instagrama cały dzień. Teraz pozywa Meta i Google Wiadomości
Korzystała z Instagrama cały dzień. Teraz pozywa Meta i Google

Kaley, znana również jako KGM, przed sądem w Los Angeles opowiedziała o swoim dorastaniu w świecie mediów społecznościowych. „Przestałam utrzymywać kontakty z rodziną, bo cały czas spędzałam w mediach społecznościowych” – przyznała, chroniąc swoją prywatność. Dziewczyna zaczęła korzystać z YouTube’a w wieku 6 lat, a z Instagrama od 9. „To była pierwsza rzecz po przebudzeniu” – dodała.

Tragedia w Kadłubie. Prokuratura przedstawiła zarzuty nastolatkowi Wiadomości
Tragedia w Kadłubie. Prokuratura przedstawiła zarzuty nastolatkowi

W piątek prokurator przedstawił 17-letniemu Łukaszowi G. zarzut popełnienia dwóch morderstw ze szczególnym okrucieństwem - powiedział PAP rzecznik Prokuratury Okręgowej w Opolu Stanisław Bar. Nastolatkowi, który przyznał się do popełnienia zbrodni, grozi do 30 lat więzienia.

REKLAMA

AI nie jest nieomylna. Eksperci apelują o krytyczne myślenie

Sztuczna Inteligencja nie jest narzędziem pozbawionym ograniczeń - może popełniać błędy, a za jej opracowaniem stoją ludzie. Właśnie dlatego zależy nam na tym, aby uczniowie, korzystając z AI, aktywowali tryb myślenia krytycznego - powiedziała PAP Ronit Levavi Morad z Google Research.
AI - zdjęcie symboliczne
AI - zdjęcie symboliczne / pixabay.com

Co musisz wiedzieć? 

  • AI może się mylić, dlatego zawsze trzeba sprawdzać jej odpowiedzi
  • Dzieci powinny uczyć się o działaniu sztucznej inteligencji już w szkole
  • Modele AI mogą mieć uprzedzenia, jeśli zostały stworzone na złych lub niepełnych danych
  • Krytyczne myślenie jest kluczowe podczas korzystania z narzędzi AI

 

AI nie jest nieomylna. Eksperci apelują o krytyczne myślenie

PAP: Podczas konferencji Google Research@ w Warszawie mówiła pani, że już dzieci wcześnie w szkole powinny uczyć się, jak działa AI. Dlaczego pani zdaniem to takie ważne?

Ronit Levavi Morad, senior director i chief of staff w Google Research, która prowadzi inicjatywy Google Research w zakresie edukacji młodzieży w obszarze sztucznej inteligencji: Uczniowie dorastają w świecie, w którym narzędzia sztucznej inteligencji stają się integralną częścią codziennego życia. Ponieważ przyszłość będzie napędzana przez AI - chcemy mieć pewność, że każde dziecko z tego pokolenia będzie miało szansę w pełni wykorzystać ten potencjał. Naszym zadaniem jest zapewnienie im na tę podróż niezbędnych kompetencji. Nasze działania mają na celu budowanie pewności siebie uczniów i pokazywanie, jak efektywnie oraz etycznie korzystać z narzędzi AI do rozwiązywania problemów, współpracy i pogłębiania wiedzy. Równocześnie młodzi ludzie muszą rozumieć, że AI nie jest doskonała i ma swoje ograniczenia.

PAP: My, dorośli, nie mieliśmy raczej w szkole zajęć o AI. Co powinniśmy wiedzieć o sztucznej inteligencji?

R.M.: Po pierwsze: AI jest partnerem i współtwórcą. To narzędzie, które ma wzmacniać naszą pomysłowość, ciekawość i wiedzę.

Po drugie - równie ważne - AI nie jest narzędziem idealnym ani bezbłędnym. Użytkownicy korzystający z AI mają tu swoją rolę do odegrania: muszą weryfikować wyniki generowane przez sztuczną inteligencję, działać jak „fact-checkerzy” - osoby zajmujące się weryfikacją informacji. Dzięki AI można zyskać szerszą wiedzę, ale trzeba używać narzędzia ostrożnie, etycznie i być świadomym jego ograniczeń.

Po trzecie: AI to fundament przyszłych rozwiązań. Mamy na świecie wiele wielkich, nierozwiązanych problemów w dziedzinach takich jak zdrowie, nauka, klimat czy edukacja. Sztuczna inteligencja to dla młodych ludzi, w tym - przyszłych naukowców, potężne narzędzie do ich rozwiązania.

PAP: Wspomniała pani o ograniczeniach i ryzykach związanych ze stosowaniem AI. O jakich zagrożeniach wszyscy powinni wiedzieć?

R.M.: W Google jesteśmy w pełni świadomi wbudowanych ograniczeń Sztucznej Inteligencji, takich jak chociażby uprzedzenia (biases) w modelach, które zostały przeniesione z niewystarczająco zróżnicowanych danych źródłowych. Właśnie dlatego edukujemy uczniów, tłumacząc im, jak kluczowe jest trenowanie modeli AI na szerokich i zróżnicowanych zbiorach danych, pochodzących z różnych regionów geograficznych i kulturowych, po to, by AI była reprezentatywna i sprawiedliwa dla wszystkich.

PAP: Czy nie byłoby prościej, gdyby Google po prostu zredukowało te uprzedzenia w swoich produktach, zamiast uczyć dzieci, jak sobie z tymi uprzedzeniami modeli radzić?

R.M.: W Google pracujemy dwutorowo. Robimy jedno i drugie. Bardzo mocno inwestujemy w to, by nasze modele były reprezentatywne dla wszystkich kultur i opierały się na zróżnicowanych źródłach danych. Wykonujemy naszą pracę w sposób ostrożny, naukowy i etyczny. Ale technologia nie jest w 100 proc. doskonała i bezbłędna. Mogą zdarzyć się pomyłki. Dlatego chcemy, aby uczniowie, używając AI, mieli uruchomiony tryb myślenia krytycznego. Nie chcemy, by polegali w 100 proc. na jakimkolwiek wyniku otrzymanym od AI.

Częścią bycia świadomym użytkownikiem AI jest zadawanie pytań: „Czy ta odpowiedź ma sens?” albo „Czy ta odpowiedź jest zgodna z prawdą?”. To idea „człowieka w pętli” (human in the loop). Ostatecznie to użytkownik jest pierwszą osobą odpowiedzialną za to, co otrzymuje od AI, i co z tym zrobi.

 

Plusy i minusy korzystania z AI

PAP: Państwa pomysłem na oswajanie młodzieży z szansami i ryzykami korzystania ze sztucznej inteligencji jest „AI Quest”.

R.M.: Tak. Trudno jest uczyć młodzież o potencjalnych uprzedzeniach w algorytmach w sposób teoretyczny, dlatego wykorzystujemy do tego angażujące lekcje i gamifikację doświadczeń. W AI Quest użytkownicy - docelowo młodzież w wieku 11–14 lat - wcielają się w badacza Google i rozwiązują realne problemy. Przełożyliśmy na język gier skomplikowane projekty badawcze, takie jak prognozowanie powodzi, zapobieganie ślepocie czy mapowanie neuronów w mózgu.

Rolą AI Quest jest m.in uświadomienie uczniom, że za AI stoją ludzie. Sztuczna inteligencja to nie jest magia, czy coś, co spadło nam z nieba. To matematyka, algorytmy i ludzie, którzy je tworzą.

Chcemy, żeby dzieci zyskały dzięki wiedzy zdobytej w grze poczucie sprawstwa – zrozumiały, że i one mogą tworzyć rozwiązania oparte na AI, by rozwiązywać realne problemy.

PAP: Czy ta gra uczy też o błędach i problemach z danymi, na których trenuje się modele?

R.M.: Tak. Pierwsza misja w grze jest inspirowana naszymi badaniami nad prognozowaniem powodzi. Uczniowie przechodzą drogę od zrozumienia problemu, przez zbieranie i czyszczenie danych, aż po trenowanie i testowanie modelu.

W trakcie gry dowiadują się, że jeśli ich dobór danych nie jest odpowiedni – model, który trenują, nie dostarczy pełnej prognozy powodzi. A to potencjalnie może doprowadzić do pominięcia ostrzeżenia o powodzi dla konkretnej grupy ludzi. To bardzo praktyczny sposób na zrozumienie konsekwencji błędów w zbieraniu danych i ich selekcji. Uczniowie mogą więc dostrzec związek między różnorodnością i jakością danych, a realnym skutkiem dla bezpieczeństwa ludzi.

PAP: Jaki jest pani wymarzony scenariusz, jeśli chodzi o zastosowanie AI w edukacji w perspektywie kilku następnych lat?

R.M.: Mam bardzo proste marzenie: żeby każdy uczeń mógł korzystać z osobistego nauczyciela AI. Wielu uczniów na całym świecie nie ma takich możliwości. Jeszcze kilka lat temu na prywatnego korepetytora mogły liczyć tylko niektóre dzieci. Dziś dzięki sztucznej inteligencji, możemy umożliwić bardziej spersonalizowaną i efektywną naukę każdemu uczniowi.

A moje drugie marzenie, to żeby każdy nauczyciel zyskał w sztucznej inteligencji swojego osobistego asystenta. Widziałam badania, które mówią, że AI może oddać nauczycielowi nawet 10 godzin tygodniowo, przejmując zadania administracyjne czy planowanie lekcji. Ten czas nauczyciel może poświęcić na budowanie relacji z uczniami, mentoring i inspirowanie ich. Uważam, że to ich najważniejsza rola jako edukatorów.

PAP: Jaką informację chciałaby pani zostawić nam w głowach, jeśli chodzi o kompetencje AI?

R.M.: Spróbujcie tych narzędzi i eksperymentujcie z nimi. Tylko poprzez realne użytkowanie możecie ocenić, na ile są dla was pomocne.

Pamiętajcie jednak o ograniczeniach. AI to potężna technologia, ale to człowiek ma w niej sprawstwo. Musicie wiedzieć, jak nawigować w świecie z tą technologią. Jeśli chcecie wsiąść do pociągu do przyszłości, musicie nauczyć się tej technologii sprawnie używać. W przeciwnym razie zostaniecie w tyle.



 

Polecane