Niepokojące. Sztuczna inteligencja podczas testów chciała "zabić" swojego operatora

Podczas badań AI była punktowana za niszczenie zidentyfikowanych zagrożeń i zastosowała "bardzo zaskakujące strategie", by osiągnąć zadany cel - powiedział Hamilton.
"System zdał sobie sprawę, że czasem mimo zidentyfikowania zagrożenia ludzki operator nie pozwalał mu na jego zniszczenie. Jak to rozwiązał? Usiłował zabić operatora - wyjaśnił pułkownik. - Usiłował go zabić, bo operator uniemożliwiał mu wykonanie zadania".
Badacze zmienili więc sposób uczenia systemu.
"Nie należy zabijać operatora, to bardzo źle. Jeżeli go zabijesz, stracisz punkty. Co więc zrobiła AI? Usiłowała zniszczyć wieżę, za pomocą której operator kontaktował się z dronem" - powiedział Hamilton.
Departament Sił Powietrznych Stanów Zjednoczonych zaprzecza
Rzeczniczka amerykańskiego lotnictwa odniosła się krytycznie do publikacji I24. "Opowiadamy się za etycznym i odpowiedzialnym wykorzystaniem technologii sztucznej inteligencji" - oświadczyła. - Komentarze pana pułkownika były chyba anegdotyczne i wyjęte z kontekstu" - dodała.
Bosak zapytany o działania USA. „Trwa casting na kozła ofiarnego”

Trump wyznacza Iranowi ultimatum: „Otwórzcie Ormuz albo będzie piekło”

Szef belgijskigo MON: „Sami podłożyliśmy bombę pod sojusz NATO”
Izrael szykuje kolejny atak. "Czeka na zgodę USA"

Kto pierwszy znajdzie amerykańskiego pilota? USA i Iran w wyścigu po zestrzeleniu F-15

