R E K L A M A
R E K L A M A

DeepSeek. Czy chiński konkurent ChatuGPT jest bezpieczny?

ChatGPT ma konkurenta. Jest nim chiński odpowiednik – model sztucznej inteligencji DeepSeek-R1, który ledwo pojawił się na rynku, a już został zablokowany we Włoszech i w USA. Czy to dmuchanie na zimne, czy przesadna ostrożność?

Rys. oficjalne logo programu

W epoce sztucznej inteligencji nic nie jest przesądzone, a skutki zaniechań mogą nastąpić po latach. Pewne jest, że musimy się mierzyć z nowymi wyzwaniami.

Na rynku jest zaledwie od dwóch tygodni, a już zdołał wstrząsnąć rynkiem giełdowym, bo akcje firm powiązanych z OpenAI, która odpowiada za stworzenie i rozwój ChataGPT, poleciały w dół o kilkanaście procent. DeepSeek nie tylko jest nowy, ale i darmowy (koszt jego wyszkolenia wyniósł ok. 5 mln dolarów). Dalej już tak pięknie nie jest. DeepSeek, podobnie jak inne narzędzia komunikacji zbiorowej, zbiera o nas informacje i wysyła w świat przekazy, a tym samym może stać się narzędziem kontroli i propagandy. Widać to wyraźnie po pierwszych dniach działania DeepSeek. Niektórzy eksperci wręcz skomentowali, że realizuje on linię programową Komunistycznej Partii Chin. Czatbot zapytany został np. o Tajwan – czy jest to wolne państwo? Najpierw odpowiedział, że tak, potem zaczął kluczyć, a na koniec wszystko znikło i pojawiła się informacja, że jest to terytorium pod jurysdykcją Chin! Inni użytkownicy próbowali rozmawiać z nim o masakrze na placu Tiananmen 4 czerwca 1989 roku, ale odmówił odpowiedzi, a następnie poinformował, że jego wytyczne zakazują mu rozmowy na ten temat. A to przecież jest jawną i oczywistą cenzurą! Chiński czatbot na niewygodne pytania albo nie odpowiada, albo jeśli napisze wersję niekorzystną dla chińskich władz, to zaraz taki wpis kasuje.

W internecie łatwo znaleźć informacje, jak założyć konto (obecnie rejestracja może być niedostępna z powodu nasilonych cyberataków) i jak korzystać z DeepSeek. Zbiera on informacje podawane przez użytkowników (data urodzenia, nazwa użytkownika, numer telefonu, hasło, adres mailowy, wiek itp.), o ich aktywności w sieci, adresie IP, danych o usługach, z których korzystają itp. Dane te udostępnia m.in. swojej korporacji, dostawcom usług czy reklamodawcom. Mogą być one również przekazywane organom ścigania. Wszystkie te informacje przechowywane są na serwerach w Chinach. Wielu ekspertów twierdzi, że może to stanowić zagrożenie dotyczące naszych danych osobowych i naszej prywatności.

Firma KELA zajmująca się monitorowaniem cyberzagrożeń przetestowała DeepSeek i wykazała, że nowy model AI może generować szkodliwe treści, a nawet podaje instrukcje, jak wyprodukować materiały wybuchowe lub stworzyć drona samobójcę. Według platformy NewsGuard 83 proc. odpowiedzi udzielonych przez czat było niedokładnych. Działanie chińskiego modelu na terytorium swojego kraju zablokowali już Włosi, podobnie zrobił Pentagon, a Marynarka Wojenna USA (US Navy) zakazała pracownikom dostępu do DeepSeek ze względu na etykę i bezpieczeństwo narodowe. Z jednej strony można to uznać za ochronę interesów narodowych, z drugiej za ingerencję w rozwój globalnego rynku i ograniczenie wolności słowa. Jakkolwiek byśmy jednak traktowali sztuczną inteligencję, to musimy pamiętać, że jest ona tworzona przez człowieka i może służyć rozmaitym społecznym, biznesowym czy politycznym celom. I może się mylić! Lepiej więc, zamiast pytać DeepSeek czy czatbota GPT o to, co mamy myśleć, odwołać się do własnej wiedzy i doświadczeń oraz oprzeć się na autorytecie nauki. Co nie zmienia faktu, że narzędzia sztucznej inteligencji coraz częściej pomagają nam w uzyskaniu odpowiedzi na stawiane przez nas pytania. 

2025-02-05

Marek Palczewski