R E K L A M A
R E K L A M A

Medyczna porada od AI? Lepiej uważaj na szkodliwe halucynacje

Śledztwo przeprowadzone przez „Guardiana” wykazało, że nieprawdziwe i mylące informacje na temat zdrowia, pojawiające się w podsumowaniach generowanych przez sztuczną inteligencję Google’a, mogą stanowić zagrożenie dla użytkowników i prowadzić do realnych szkód.

Fot. PxHere

Zawodna niezawodność

Dochodyzenie brytyjskiego dziennika „The Guardian” wykazało, że funkcja Przegląd od AI dostępna w wyszukiwarce Google może prezentować użytkownikom nieprawdziwe i mylące informacje. Takie fałszywe porady czy odpowiedzi dotyczą praktycznie każdej dziedziny, o jaką spytamy bota, również sytuacji, gdy poszukujemy treści związanych z medycyną.

Gazeta przypomniała, że sam Google zapewnia o „przydatności” i „niezawodności” danych generowanych w Przeglądach od AI. Narzędzie to tworzy syntetyczne opracowania wyszukiwanych zagadnień na podstawie treści odnalezionych przez algorytmy w internecie.

„The Guardian” zwrócił uwagę, że podsumowania AI wyświetlane są na samej górze wyników wyszukiwania, natomiast dostęp do oryginalnych źródeł wymaga przewinięcia strony. Jak wykazało śledztwo, generowane streszczenia zawierają błędne informacje, także dotyczące zdrowia, co może narażać użytkowników na realne zagrożenia.

Porady, które szkodzą

The Guardian podaje kilka przykładów, kiedy porady AI okazały się sprzeczne z dostępną wiedzą naukową z zakresu medycyny.

W jednym z przypadków, uznanym przez ekspertów za szczególnie groźny, system Google błędnie sugerował osobom chorującym na raka trzustki ograniczenie spożycia tłuszczów. Specjaliści podkreślili, że takie zalecenie jest sprzeczne z obowiązującą wiedzą medyczną i może prowadzić do zwiększenia ryzyka śmierci pacjentów.

W innym, określonym jako niepokojący, przykładzie wyszukiwarka prezentowała nieprawdziwe informacje dotyczące podstawowych badań oceniających funkcjonowanie wątroby. W efekcie osoby cierpiące na poważne schorzenia tego narządu mogły błędnie uznać, że ich stan zdrowia nie budzi zastrzeżeń.

Również zapytania związane z badaniami onkologicznymi u kobiet przynosiły całkowicie nieprawidłowe odpowiedzi. Specjaliści zwracają uwagę na nieprawidłowości w informacjach dotyczących raka pochwy. Jak wskazują, system sugeruje, że właściwym sposobem wykrycia tej choroby jest badanie cytologiczne, podczas gdy według ekspertów takie zalecenie jest błędne i nie odpowiada aktualnej wiedzy medycznej.

Naukowcy wskazują również, że Przeglądy od AI przekazują „całkowicie błędne informacje” w przypadku zapytań dotyczących diagnozowania raka piersi u kobiet, choć nie ujawnili szczegółów tych przypadków. Zdaniem ekspertów takie błędne dane mogą sprawić, że osoby chore zlekceważą niepokojące objawy, co opóźni wykrycie i leczenie choroby.

Porady psychiatryczne również zawodzą

„The Guardian” ujawnił również, że Przeglądy od AI Google generowały mylące informacje na temat zdrowia psychicznego. Stephen Buckley, dyrektor ds. informacji w organizacji charytatywnej Mind, określił to jako poważny problem. Wskazał, że niektóre podsumowania dotyczące schorzeń takich jak psychoza czy zaburzenia odżywiania zawierały „bardzo niebezpieczne porady”, były niepoprawne i szkodliwe i mogły zniechęcać osoby potrzebujące do szukania profesjonalnej pomocy.

Dodał, że sztuczna inteligencja często pomija ważny kontekst lub subtelności, a także może sugerować informacje pochodzące z nieodpowiednich źródeł. Zauważył przy tym, że algorytmy AI, tworząc streszczenia, mogą odzwierciedlać istniejące uprzedzenia, stereotypy i stygmatyzujące narracje.

Google zarzuca wybiórczość

Google ma jednak inne zdanie na ten temat i zapewnia, że większość jego Przeglądów od AI jest oparta na faktach i użyteczna, a firma nieustannie wprowadza usprawnienia w jakości tych narzędzi. Dokładność podsumowań AI, według Google, jest porównywalna z innymi funkcjami wyszukiwarki, takimi jak wyróżnione fragmenty, które funkcjonują od ponad dekady.

Firma dodała również, że w przypadkach, gdy AI Overviews błędnie interpretuje treść strony lub nie uwzględnia właściwego kontekstu, podejmowane są odpowiednie działania zgodnie z obowiązującą polityką.

Rzecznik Google, komentując sprawę dla „The Guardian”, wskazał, że dziennik dysponował „niekompletnymi zrzutami ekranu”. Podkreślił, że w podsumowaniach AI zamieszczane są linki do „znanych, rzetelnych źródeł” i że zdecydowana większość Przeglądów od AI jest „oparta na faktach” oraz „pomocna”. Zapewnił również, że Google nieustannie pracuje nad poprawą jakości tych narzędzi.

2026-01-05

SJS na podst. The Guardian