R E K L A M A
R E K L A M A

AI na wojnie, czyli maszyny decydujące o ludzkim życiu. Chiny nie chcą ograniczeń

Chiny nie podpisały się pod międzynarodowym planem mający na celu wprowadzenie zabezpieczeń dotyczących wykorzystywania sztucznej inteligencji w działaniach wojskowych. Na szczyt Responsible Artificial Intelligence in the Military Domain (REAIM), który odbył się w poniedziałek i wtorek w Korei Południowej, zaproszonych było ponad 90 państw, ale tylko część poparła ograniczenia dotyczące nowych technologii.

Fot. Flickr

Arthur Herman, ekspert ds. sztucznej inteligencji, starszy pracownik naukowy i dyrektor Quantum Alliance Initiative w Hudson Institute, powiedział w wywiadzie dla Fox News Digital, iż około 30 państw z 90 zrezygnowało z udziału w tym ważnym wydarzeniu. Jego zdaniem niekoniecznie jest to powód do obaw, choć w przypadku Chin prawdopodobnie powodem jest ogólny sprzeciw tego kraju wobec podpisywania umów wielostronnych.

Sprowadza się to do tego, że Chiny zawsze są ostrożne w stosunku do wszelkich międzynarodowych porozumień, w których nie były architektem ani nie brały udziału w tworzeniu i organizowaniu sposobu, w jaki to porozumienie będzie kształtowane i wdrażane – powiedział Herman. Dodał, że Chińczycy postrzegają takie przedsięwzięcia jako ograniczające ich możliwości do zwiększenia przewagi militarnej.

Decyzję powinien podjąć człowiek

Plan działania uzgodniony przez kilkadziesiąt krajów ma na celu ochronę rozwijającej się technologii związanej ze sztuczną inteligencją. Chodzi o to, by zagwarantować, że systemy te będą zawsze pod ludzką kontrolą, zwłaszcza w kontekście zastosowań wojskowych i obronnych.

Algorytmy, które sterują systemami obronnymi i systemami uzbrojenia, w dużej mierze zależą od tego, jak szybko mogą działać – tłumaczył Herman. – Szybko się poruszają, aby zebrać informacje i dane, które następnie można szybko przekazać do dowodzenia i kontroli, aby mogły podjąć decyzję.

Jak podkreślił ekspert prędkość podejmowania decyzji przez AI jest szczególnie ważna na polu bitwy, gdy należy zadecydować o ludzkim życiu. Większość krajów jest zgodna, że ostatecznie powinien o tym rozstrzygać człowiek, a nie sztuczna inteligencja. W innym przypadku rozwój kolejnych konfliktów mogły by być napędzany przez same maszyny.

Niebezpieczne technologie

Szczyt, którego współgospodarzami były Holandia, Singapur, Kenia i Wielka Brytania, był drugim tego typu wydarzeniem – w pierwszym spotkaniu, które odbyło się w ubiegłym roku w stolicy Holandii, wzięło udział ponad 60 państw.

Herman ostrzegł, że choć kraje takie jak USA i ich sojusznicy będą dążyć do zawarcia wielostronnych porozumień mających na celu zabezpieczenie wykorzystania sztucznej inteligencji w celach wojskowych, mało prawdopodobne jest, aby udało się im powstrzymać wrogie państwa, takie jak Chiny, Rosja i Iran, przed rozwijaniem niebezpiecznych technologii.

Nie można liczyć na to, że ich poczucie altruizmu lub wysokie standardy etyczne ich powstrzymają. To tak nie działa – stwierdził Herman.

2024-09-13

Anna Jadowska-Szreder na podst. Fox News, Arirang News