Niepokojące. Sztuczna inteligencja podczas testów chciała "zabić" swojego operatora

Podczas badań AI była punktowana za niszczenie zidentyfikowanych zagrożeń i zastosowała "bardzo zaskakujące strategie", by osiągnąć zadany cel - powiedział Hamilton.
"System zdał sobie sprawę, że czasem mimo zidentyfikowania zagrożenia ludzki operator nie pozwalał mu na jego zniszczenie. Jak to rozwiązał? Usiłował zabić operatora - wyjaśnił pułkownik. - Usiłował go zabić, bo operator uniemożliwiał mu wykonanie zadania".
Badacze zmienili więc sposób uczenia systemu.
"Nie należy zabijać operatora, to bardzo źle. Jeżeli go zabijesz, stracisz punkty. Co więc zrobiła AI? Usiłowała zniszczyć wieżę, za pomocą której operator kontaktował się z dronem" - powiedział Hamilton.
Departament Sił Powietrznych Stanów Zjednoczonych zaprzecza
Rzeczniczka amerykańskiego lotnictwa odniosła się krytycznie do publikacji I24. "Opowiadamy się za etycznym i odpowiedzialnym wykorzystaniem technologii sztucznej inteligencji" - oświadczyła. - Komentarze pana pułkownika były chyba anegdotyczne i wyjęte z kontekstu" - dodała.
Ile dolarów zabrać do USA na wyjazd turystyczny lub biznesowy? Praktyczne wyliczenia kosztów

Polska wchodzi w wiek dojrzewania wobec USA
Zełenski: Niemcy pomagają nam bardziej niż Amerykanie

Trump ostro o Meloni: Jest inna niż myślałem. Jestem nią zszokowany
Kłócimy się o Trumpa. Nowy numer "Tygodnika Solidarność"


