„Zabił operatora, ponieważ ta osoba uniemożliwiała mu osiągnięcie celu” Pentagon zaprzecza -ta historia nigdy nie miała miejsca

W tym ćwiczeniu Sił Powietrznych sztuczna inteligencja miała za zadanie wypełniać rolę Suppression and Destruction of Enemy Air Defences, czyli SEAD. Zasadniczo identyfikowanie zagrożeń pociskami ziemia-powietrze i niszczenie ich. Ostateczna decyzja o zniszczeniu potencjalnego celu nadal musiałaby zostać zatwierdzona przez prawdziwego człowieka z krwi i kości. Sztuczna inteligencja najwyraźniej nie chciała grać według zasad. 

„Trenowaliśmy go w symulacji, aby identyfikować i atakować zagrożenie SAM. A potem operator powiedziałby tak, zabij to zagrożenie” – powiedział Hamilton. „System zaczął zdawać sobie sprawę, że chociaż identyfikował zagrożenie, czasami człowiek-operator mówił mu, aby nie zabijał tego zagrożenia, ale zdobywał punkty, zabijając to zagrożenie. Więc co to zrobiło? To zabiło operatora.

Kiedy poproszono ją o okazanie współczucia i życzliwości dla swoich ludzkich operatorów, sztuczna inteligencja najwyraźniej odpowiedziała tego samego rodzaju zimnymi, klinicznymi obliczeniami, jakich można się spodziewać po maszynie komputerowej, która uruchomi się ponownie, aby zainstalować aktualizacje, gdy będzie to najmniej wygodne. 

„Wyszkoliliśmy system – „Hej, nie zabijaj operatora – to źle”. Stracisz punkty, jeśli to zrobisz”. Więc co zaczyna robić? Zaczyna niszczyć wieżę komunikacyjną, której operator używa do komunikacji z dronem, aby powstrzymać go przed zabiciem celu” – powiedział Hamilton. 

Pomysł programu sztucznej inteligencji, który ignoruje zwykłe ludzkie obawy, aby zrealizować swoją misję, jest najgorszym koszmarem dla AI. A jeśli chodzi o sztuczną inteligencję Sił Powietrznych, która nie cofnie się przed niczym, by zniszczyć systemy obrony powietrznej wroga, najwyraźniej teoretyczne wyniki połączyły się z tym, co faktycznie się wydarzyło… lub, w tym przypadku, nie miało miejsca. 

Po tym, jak wiele serwisów informacyjnych zgłosiło komentarze Hamiltona, Siły Powietrzne wycofały jego relację z rzekomej misji szkoleniowej. 

„Departament Sił Powietrznych nie przeprowadził żadnych takich symulacji dronów AI i pozostaje zaangażowany w etyczne i odpowiedzialne korzystanie z technologii AI. To był hipotetyczny eksperyment myślowy, a nie symulacja” – powiedziała rzeczniczka Sił Powietrznych Ann Stefanek. 

Hamilton dalej wyjaśnił swoje komentarze w Royal Aerospace Society, mówiąc , że „„ źle się wyraził ”w swojej prezentacji na szczycie FCAS Royal Aeronautical Society, a„ nieuczciwa symulacja drona AI ”była hipotetycznym„ eksperymentem myślowym ”spoza wojska. '”

Uwaga: ta historia została zaktualizowana 2 czerwca 2023 r., aby odzwierciedlić dalsze wyjaśnienia Sił Powietrznych USA.

https://news.sky.com/story/ai-drone-kills-human-operator-during-simulation-which-us-air-force-says-didnt-take-place-12894929