Arthur Herman, ekspert ds. sztucznej inteligencji, starszy pracownik naukowy i dyrektor Quantum Alliance Initiative w Hudson Institute, powiedział w wywiadzie dla Fox News Digital, iż około 30 państw z 90 zrezygnowało z udziału w tym ważnym wydarzeniu. Jego zdaniem niekoniecznie jest to powód do obaw, choć w przypadku Chin prawdopodobnie powodem jest ogólny sprzeciw tego kraju wobec podpisywania umów wielostronnych.
Sprowadza się to do tego, że Chiny zawsze są ostrożne w stosunku do wszelkich międzynarodowych porozumień, w których nie były architektem ani nie brały udziału w tworzeniu i organizowaniu sposobu, w jaki to porozumienie będzie kształtowane i wdrażane – powiedział Herman. Dodał, że Chińczycy postrzegają takie przedsięwzięcia jako ograniczające ich możliwości do zwiększenia przewagi militarnej.
Decyzję powinien podjąć człowiek
Plan działania uzgodniony przez kilkadziesiąt krajów ma na celu ochronę rozwijającej się technologii związanej ze sztuczną inteligencją. Chodzi o to, by zagwarantować, że systemy te będą zawsze pod ludzką kontrolą, zwłaszcza w kontekście zastosowań wojskowych i obronnych.
Algorytmy, które sterują systemami obronnymi i systemami uzbrojenia, w dużej mierze zależą od tego, jak szybko mogą działać – tłumaczył Herman. – Szybko się poruszają, aby zebrać informacje i dane, które następnie można szybko przekazać do dowodzenia i kontroli, aby mogły podjąć decyzję.
Jak podkreślił ekspert prędkość podejmowania decyzji przez AI jest szczególnie ważna na polu bitwy, gdy należy zadecydować o ludzkim życiu. Większość krajów jest zgodna, że ostatecznie powinien o tym rozstrzygać człowiek, a nie sztuczna inteligencja. W innym przypadku rozwój kolejnych konfliktów mogły by być napędzany przez same maszyny.
Niebezpieczne technologie
Szczyt, którego współgospodarzami były Holandia, Singapur, Kenia i Wielka Brytania, był drugim tego typu wydarzeniem – w pierwszym spotkaniu, które odbyło się w ubiegłym roku w stolicy Holandii, wzięło udział ponad 60 państw.
Herman ostrzegł, że choć kraje takie jak USA i ich sojusznicy będą dążyć do zawarcia wielostronnych porozumień mających na celu zabezpieczenie wykorzystania sztucznej inteligencji w celach wojskowych, mało prawdopodobne jest, aby udało się im powstrzymać wrogie państwa, takie jak Chiny, Rosja i Iran, przed rozwijaniem niebezpiecznych technologii.
Nie można liczyć na to, że ich poczucie altruizmu lub wysokie standardy etyczne ich powstrzymają. To tak nie działa – stwierdził Herman.