Strona główna Prawo medyczne Do Chata GPT w zastępstwie lekarza?…

Do Chata GPT w zastępstwie lekarza?…

Do Chata GPT w zastępstwie lekarza? Tak właśnie wielu użytkowników modelu językowego może potraktować Chat GPT Health, który nie będzie nową funkcjonalnością popularnej platformy, ale osobnym modułem, dla którego Open AI stworzyło oddzielne środowisko z własną pamięcią, dodatkowymi zabezpieczeniami i odmiennymi od standardowych zasadami przetwarzania danych. Użytkownik (na razie wyłącznie w Stanach Zjednoczonych) może w module dobrowolnie połączyć wszystkie swoje dane zdrowotne (tj. załadować do pamięci posiadaną dokumentację medyczną i dane z aplikacji typu welness), dzięki czemu odpowiedzi będą bardziej kontekstowe. OpenAI podkreśla jednak, że narzędzie ma wyłącznie wspierać, a nie zastępować opiekę kliniczną.

Producent wskazuje przede wszystkim na zastosowania „okołowizytowe” i „organizacyjne”: wyjaśnianie wyników badań i trendów (np. „jak mogą zmieniać się wyniki cholesterolu lub cukru?”), podsumowania przed wizytą oraz generowanie listy pytań do lekarza, a także wsparcie w rozmowach o diecie i aktywności, oraz porządkowanie i systematyzowanie informacji z wielu źródeł (np. portale pacjenta, PDF-y z dokumentacją medyczną i wynikami badań, aplikacje). Gwarancją bezpieczeństwa ma być dla pacjenta to, że konwersacja nie będzie przechowywana w głównej przestrzeni, ale osobnej pamięci, która – jak gwarantuje producent – nie będzie wykorzystywana do trenowania modeli bazowych. Użytkownik w każdej chwili będzie mógł usunąć bezpowrotnie dane zdrowotne i odłączyć aplikacje monitorujące. Dane wprowadzane do modułu mają być też bezpiecznie szyfrowane podczas przesyłania i przechowywania.

Zastosowane lub deklarowane przez OpenAI systemy bezpieczeństwa wydają się rozwiązywać problem związany z przechowywaniem danych i ewentualną możliwością ich wycieku, po amerykańskiej premierze modułu pojawiły się już jednak ostrzeżenia ekspertów, że ChatGPT Health nie jest regulowany jak wyrób medyczny, a ryzyko błędnej lub niepełnej odpowiedzi nie znika tylko dlatego, że interfejs jest „zdrowotny”. W Australii (za: The Guardian) szeroko opisywano przypadek, w którym użytkownik – kierując się sugestią chatbota – kupił bromek sodu jako zamiennik soli i trafił do szpitala z objawami bromizmu; ten temat stał się punktem wyjścia do dyskusji o nadzorze i „guardrails” (zestawie mechanizmów, które sprawiają, że sztuczna inteligencja działa bezpiecznie, przewidywalnie i zgodnie z intencją użytkownika). Media (jak np. Time) podnoszą w niej klasyczne ryzyka generatywnej AI w zdrowiu: nadmierną pewność wypowiedzi, możliwe błędne wnioski przy niekompletnych danych oraz niejasność, gdzie kończy się edukacja, a zaczyna rekomendacja terapeutyczna. OpenAI odpowiada, że moduł był rozwijany z udziałem setek lekarzy i oceniany w ramach własnych benchmarków (HealthBench), co ma poprawiać bezpieczeństwo odpowiedzi.

Zachowanie nawet maksymalnego bezpieczeństwa odpowiedzi nie zmieni jednak z pewnością możliwości przekazywania przez pacjentów wspomnianych „niepełnych danych”, które – co prawda nie z winy modułu – ale mogą istotnie zafałszować uzyskiwaną odpowiedź. Nie byłby to zbyt duży problem, gdyby założyć, że uzyskana odpowiedź zawsze i w każdym przypadku zostanie skonsultowana przez lekarza prowadzącego pytającego pacjenta i będzie przez pacjenta traktowana wyłącznie jak wskazówka, tej pewności nie ma jednak nigdy. Tymczasem już teraz na całym świecie tygodniowo o zdrowie pyta moduły sztucznej inteligencji ponad 230 milionów ludzi. W Polsce – jak podaje Marcin Kubik z Agencji Whites – informacji o zdrowiu w Internecie szuka już 80% użytkowników, z czego aż 78% deklaruje, że w razie potrzeby zapyta o diagnozę właśnie ChatGPT, a dodatkowo: aż 79% pacjentów preferuje odpowiedzi AI i uważa je za bardziej empatyczne i lepsze jakościowo od odpowiedzi lekarzy.

Czy należy więc sądzić, że w Polsce – lub szerzej: w Europie – moduł ChatGPT Health będzie cieszył się popularnością? Wydaje się, że tak. Nawet, jeśli udostępniony zostanie jako moduł dodatkowo płatny (zapewne w modelu subskrypcyjnym). Jeżeli moduł Health upowszechni się w Europie, najbardziej racjonalne scenariusze użycia będą prawdopodobnie „niskiego ryzyka”: porządkowanie dokumentów i tworzenie listy pytań do lekarza, tłumaczenie języka medycznego na zrozumiały opis i monitorowanie trendów w danych (z zastrzeżeniem, że interpretacja kliniczna wymaga weryfikacji). Wysokiego ryzyka pozostają natomiast sytuacje, w których użytkownik oczekuje decyzji terapeutycznej, doboru leków, suplementów czy „zamienników” – dokładnie tam, gdzie błąd może szybko przełożyć się na szkodę.

„Ważna będzie edukacja pacjenta: uczenie pacjenta, w jaki sposób można i należy bezpiecznie korzystać z tego modułu.” – zwraca uwagę prawnik in-house i dziennikarz medyczny Grupy Medialnej „Estetyka i Chirurgia – Medyczna TV” mgr Andrzej Gross – „Ważne będzie też to, aby w przestrzeni Internetu pojawiały się zweryfikowane i wysokie jakościowo treści medyczne, z których nie tylko moduł ChatGPT Health, ale także klasyczny ChatGPT, Gemini i inne modele językowe będą pozyskiwać treści służące do generowania odpowiedzi”.

To ważne tym bardziej dlatego, że w Europie specyfikowany i oparty na wybranych treściach Chat GPT Health nie zostanie na razie udostępniony ani w formie dostępu bezpłatnego, ani płatnego, a pacjenci w dalszym ciągu korzystać będą z klasycznych wersji sztucznej inteligencji. Już na starcie OpenAI uruchomiło dostęp w modelu waitlisty i z wyłączeniami regionalnymi. Według informacji z oficjalnej strony produktu, we wczesnym etapie kwalifikują się użytkownicy mieszkający poza EOG (Europejskim Obszarem Gospodarczym), Szwajcarią i Wielką Brytanią. Firma zapowiada rozszerzenie dostępu na web i iOS „w nadchodzących tygodniach”, niemniej na razie wyłącznie na terenie Stanów Zjednoczonych. Równie istotne są ograniczenia funkcjonalne: integracje z dokumentacją medyczną (EHR/portale pacjenta) są wskazywane jako dostępne tylko w USA, a połączenie Apple Health wymaga iOS.