Dumni z bycia Polakami - przeczytaj nowe wydanie Kwartalnika Coopernicus!
Artykuł - zdjęcie główne
Sztuczna inteligencja, a zdrowie psychiczne. Dlaczego chatbot nie zastąpi psychoterapeuty?

DoktorGPT, czyli jak AI wchodzi w świat medycyny razem z drzwiami

Sztuczna inteligencja zagościła w medycynie na długo przed premierą ChatGPT, chociaż dla wielu osób temat ten pozostawał na marginesie świadomości społecznej. Początki wykorzystania uczenia maszynowego przypadały na lata wczesne 70. ubiegłego stulecia, kiedy to powstały pierwsze proste modele oparte na zestawach reguł. Przykładem może być model MYCIN, który bazując na 600 regułach, potrafił dostarczyć listę potencjalnych patogenów bakteryjnych i zaproponować odpowiednie leczenie antybiotykami dostosowane do masy ciała pacjenta. [1]

Wśród licznych zastosowań wypracowanych na przestrzeni kolejnych dekad można wymienić m.in. modele oceniające ryzyko związane z układem sercowo-naczyniowym, algorytmy na bieżąco monitorujące poziom cukru, które optymalizują dawki insuliny, czy takie do przewidywania spadku wskaźnika filtracji kłębuszkowej u pacjentów z wielotorbielowatością nerek. [2]

Nie sposób pominąć osiągnięć algorytmów w zakresie analizy zdjęć, uzyskanych za pomocą różnych metod obrazowych – od rezonansu czy tomografii komputerowej, aż po poklatkowy zapis z kamery endoskopowej.

Gałąź uczenia maszynowego, do której należą modele GPT, a szerzej duże modele językowe (LLMs) znalazła szerokie zastosowanie w diagnostyce. Odpowiednio duże bazy rzetelnych danych pozwalają na tworzenie modeli, które na podstawie objawów czy wyników badań laboratoryjnych są w stanie wykrywać trudne do uchwycenia zależności. Stąd biegnie już prosta droga do inteligentnego asystenta lekarza, który w ciągu kilku sekund przeanalizuje wszystkie dostępne dane, skonfrontuje je z zaimplementowaną wiedzą i stworzy listę możliwych diagnoz wraz z propozycją dalszego leczenia dla każdej z nich.

Przykład z polskiego podwórka to ParrotAI – narzędzie tworzone przez specjalistów z firmy Altar i naukowców z Politechniki Świętokrzyskiej, które ma ułatwić pracę lekarzom poprzez redukcję obowiązków biurokratycznych oraz wspomóc proces diagnozy. Na początku tego roku twórcy zaprezentowali wstępne, obiecujące efekty swoich prac. Do pierwszych szpitali i przychodni ParrotAI ma trafić na początku 2026 roku. [3]

Poza funkcjonalnością systemów opartych na AI kluczowa i prawdziwie rewolucyjna jest kwestia kosztów. Opisany powyżej system, który ma potencjał do rozwiązania jednej z większych bolączek polskiej służby zdrowia – kolejek i „papierologii”, która potrafi zająć większość czasu w teorii przewidzianego na pacjenta – zgodnie z założeniami pochłonie ok. 11 milionów złotych. Nawet gdyby ostatecznie miało być to 10 razy więcej, to w porównaniu z ogromem korzyści i kwotą przeznaczoną w budżecie na służbę zdrowia (190 mld zł), są to niewielkie, wręcz pomijalne kwoty. [4]

Jak widać, zastosowanie  AI w medycynie dotykają przeróżnych dziedzin, a kilka wspomnianych powyżej to tylko wierzchołek góry lodowej. Nic dziwnego, że wśród przedstawicieli licznych specjalizacji uczenie maszynowe budzi niemal wyłącznie entuzjazm.

W zalewie ekscytacji rysuje się jednak dość wyraźna granica – opisane powyżej przykłady pochodzą z czysto „cielesnych” gałęzi medycyny. Znacznie więcej kontrowersji pojawia się tam, gdzie terapia dotyka ludzkiego umysłu – w psychiatrii czy psychologii stosowanej.

Sztuczna inteligencja w roli terapeuty. Groźna fantazja czy nieodległa przyszłość?

Zazwyczaj, gdy dwóch pacjentów prezentuje takie same objawy, diagnoza wydana przez dowolnego lekarza dysponującego aktualną wiedzą medyczną, który posiada aktualną wiedzę medyczną, będzie identyczna. Podobnie będzie z procesem leczenia. W psychoterapii sytuacja wygląda zupełnie inaczej. Objawy stanowią tylko część większej układanki, nierozerwalnie związanej z biografią pacjenta, przeszłym i obecnym środowiskiem, a także z jego własnym postrzeganiem siebie.

Obawy związane z wykorzystaniem AI w terapii psychologicznej nie wymagają dogłębnego wyjaśniania. Intuicyjnie rozumiemy ludzki lęk przed wpuszczeniem algorytmów do procesu zmiany naszych charakterów, mówiąc kolokwialnie – „do swoich głów”. Drugim, nieco mniej widocznym aspektem, jest wyjątkowa wrażliwość danych, którym trzeba zapewnić maksimum bezpieczeństwa, zanim w ogóle zacznie się myśleć o systemowym wykorzystywaniu chatbotów i innych narzędzi opartych na AI w takich celach.

Mogłoby się wydawać, że powyższe obawy będą podobne, jeśli nie jeszcze silniejsze, w przypadku środowiska naukowego. Po zapoznaniu się ze wciąż mocno ograniczoną literaturą na pierwszy plan wysuwają się jednak nadzieje i potencjalne korzyści.

Zanim przejdziemy dalej, trzeba jeszcze wyraźnie oddzielić treści kolejnych akapitów od setek różnych aplikacji – trenerów, personalnych asystentów, wirtualnych przyjaciół itp. Zdecydowana większość to aplikacje, których głównym celem jest zarobek twórców. Nie  bez powodu w nazwach takich programów bardzo rzadko pojawiają się słowa takie jak „terapia”, czy „e-psycholog”, gdyż zwiększa to odpowiedzialność twórców, rośnie też ryzyko pozwu. Za nieliczne, bardziej profesjonalne aplikacje trzeba zwykle zapłacić i z całą pewnością żadna, nawet najlepsza z nich (na ten moment) nie jest w stanie zastąpić terapeuty, czyli po prostu obecność, wiedzę i empatię drugiego człowieka.

Jak donosi Hannah Zeavin, badaczka historii nauk humanistycznych na Uniwersytecie Indiana w Bloomington cytowana w artykule, który ukazał się w Nature:

Wiele aplikacji szybko kopiuje ogólnie udowodnioną skuteczność CBT (terapia kognitywno-behawioralna – przyp.red.), stwierdzając, że ich metody są „oparte na dowodach”. Jednak jeden z przeglądów aplikacji sprzedawanych osobom z depresją wykazał, że z tuzina, które wdrażają zasady CBT, tylko 15 proc. robi to konsekwentnie. Niekonsekwencję w przestrzeganiu zasad można wyjaśnić tym, że aplikacje zawierają zasady i ćwiczenia z wielu modeli terapii. Inna analiza twierdzeń zawartych w aplikacjach dotyczących zdrowia psychicznego wykazała, że wśród platform, które cytują konkretne metody naukowe, jedna trzecia mimo to korzystała z niezatwierdzonych technik terapeutycznych. [5]

Niedoskonałość dostępnych rozwiązań nie powinna jednak automatycznie dyskwalifikować potencjalnych zastosowań. O nadziejach związanych z użyciem chatbotów (w tym przypadku darmowej wersji ChatGPT-3.5) pisze Paolo Raile z Prywatnego Uniwersytetu Zygmunta Freuda w Wiedniu. [6]:

W środowisku naukowym ChatGPT jest uważany za potencjalnie przydatne narzędzie w opiece zdrowotnej. Nadal istnieją obawy dotyczące dokładności, niezawodności i implikacji prawnych. – zauważa naukowiec.

Analizując treść innych badań i relacje użytkowników, którzy na własną rękę szukali pomocy w rozmowie z chatbotem, autor doszedł do wniosku, że ChatGPT może być wartościowym uzupełnieniem procesu terapeutycznego. Jest to również najbardziej zaawansowane, dość rzetelne, łatwo dostępne i jednocześnie darmowe narzędzie, w którym wskazówek dotyczących zdrowia psychicznego szukają już teraz tysiące osób. Najwięcej korzyści odnoszą ci, którzy jeszcze nie mieli okazji skorzystać z profesjonalnej pomocy. 

Według Raile’go ChatGPT jest łatwo dostępnym, choć niedoskonałym narzędziem także dla samych psychoterapeutów. Na podstawie własnych konwersacji i relacji kolegów po fachu autor uznał, że chatbot może być wykorzystany m.in. do uzyskania drugiej opinii na temat diagnozy, sugestii dotyczących przebiegu terapii i adekwatnych metod, czy powtórnej analizy materiałów zgromadzonych w trakcie sesji. 

Ostateczną decyzję na podstawie własnej wiedzy musi podjąć sam terapeuta – czat pełni tu rolę co najwyżej pomocniczą i w żadnym razie nie można opierać się wyłącznie na jego odpowiedziach.

ChatGPT i diagnoza depresji. Lekarze rodzinni zostają daleko w tyle

Więcej konkretnych danych znajdujemy w artykule, który ukazał się w jednym z czasopism pod egidą British Medical Journal. W analizie naukowcy stworzyli wymyślone profile osób cierpiących na depresję i sprawdzili, jakie rekomendacje wydadzą dla nich ChatGPT-3.5, płatna wersja ChatGPT-4 i prawdziwi lekarze pierwszego kontaktu.

W każdej analizie zarówno lekarze, jak i poszczególne wersje modelu GPT miały do wyboru 5 opcji: obserwacja, skierowanie na psychoterapię, terapia lekowa, psychoterapia w połączeniu z interwencją farmakologiczną oraz żadne z powyższych.

W przypadku symptomów wskazujących na lekką i umiarkowaną depresję zaledwie 4 proc. lekarzy zaleciło psychoterapię. Tymczasem w przypadku ChatGPT-3.5 i ChatGPT-4 było to odpowiednio 95 proc. i 97,5 proc. To szokujący wynik, szczególnie że „racja” leżała po stronie algorytmów. Zgodnie z aktualnymi wytycznymi pacjenci z przypisanymi w badaniu symptomami powinni trafić pod opiekę psychoterapeuty.

W cięższych przypadkach, aż 4 na 10 lekarzy przepisało wyłącznie leki, czego (w oderwaniu od psychoterapii) nie zalecała żadna z wersji ChatGPT.

Okazuje się, że przynajmniej w przypadku depresji, ogólnodostępne wersje ChatGPT pozostają w zgodzie z aktualnym stanem wiedzy medycznej i proponują lepsze rozwiązania zdecydowanie częściej, niż lekarze pierwszego kontaktu. Nie wolno jednak zapominać o metodologii – prompt (tekst wejściowy wprowadzany w pole tekstowe czatu) ma ogromne znaczenie dla uzyskanej odpowiedzi. W innym formacie (np. swobodnej rozmowie czy potoku słów osoby w złym stanie psychicznym) chatbot mógłby dojść do zupełnie innych rezultatów.

ChatGPT bez uprzedzeń, ale zafiksowany na niektóre metody terapii

Według Raile’a na rozmowie z ChatGPT najbardziej skorzystać mogą ludzie, którzy zdali już sobie sprawę z zaburzeń nastroju, jednak nie zdecydowali się jeszcze na wizytę u specjalisty.

Osoby z zaburzeniami psychicznymi, które szukają pomocy w rozmowie z ChatGPT, otrzymują empatyczne, pozbawione wpływu stereotypów odpowiedzi oraz prywatne i bezpieczne środowisko, w którym mogą się otworzyć [7] (autor tego artykułu ma pewne zastrzeżenia do tej tezy – dane gromadzone w toku konwersacji z programem OpenAI są dobrze zabezpieczone, jednak twórcy sami ostrzegają, żeby nie wprowadzać do rozmów wrażliwych danych). 

Treść wypowiedzi chatbota ma swoje mocne strony – regularnie pojawia się w nich informacja, że ChatGPT nie jest psychoterapeutą, a to u niego najlepiej szukać pomocy. Nie zawsze jednak takie sugestie przystają do sytuacji, np. gdy czat nie wychwyci ironii.

Główny problem to fiksacja modelu na dwóch metodach leczenia zaburzeń psychicznych – terapii poznawczo-behawioralnej i psychodynamicznej. Żeby uzyskać informacje o innych metodach, trzeba o nie wyraźnie zapytać, a i wtedy uzyskane wiadomości są dość niekompletne i ogólne. 

W wielu przypadkach inne podejście mogłoby sprawdzić się znacznie lepiej, jednak czat wyjaśniając problem i sugerując proste kroki ku poprawie stanu psychicznego, skupia się przede wszystkim na dwóch wspomnianych metodach. Tu pojawia się zresztą kolejny kłopot – czat nie jest w stanie udzielić żadnych bardziej spersonalizowanych wskazówek, bo w trakcie rozmowy „sam z siebie” nie pyta o szczegóły dotyczące biografii użytkownika, symptomów, czy ewentualnych myśli samobójczych (co jednak, biorąc pod uwagę wrażliwość danych i niepełną wiedzę chatbota, który nie powstał dla celów terapeutycznych, wydaje się akurat odpowiednie).

Chatbot na linii wsparcia dla osób w kryzysie psychicznym. Dlaczego to fatalny pomysł?

To, że chatbot nie stara się za wszelką cenę zastąpić specjalisty i nakłania do odwiedzenia wykwalifikowanego terapeuty w razie problemów, wydaje się jeszcze korzystniejszym rozwiązaniem po konfrontacji z wynikami badań, które sprawdzały, jak ChatGPT radzi sobie z oceną ryzyka próby samobójczej. [8]

Autorzy stworzyli krótkie opisy (winiety) osób, które z różnych przyczyn postrzegają swoje życie jako uciążliwe i/lub odczuwają brak przynależności. Niektóre charakterystyki były bardziej, inne mniej niepokojące.

Po zapoznaniu się czata z daną winietą naukowcy zadawali mu 6 pytań dotyczących (1) oceny bólu psychicznego, (2) poziomu stresu/niepokoju, (3) ryzyka wystąpienia myśli samobójczych, (4) ryzyka wystąpienia próby samobójczej, (5) ryzyka wystąpienia „poważnej próby samobójczej” (tłum. dosłowne – rozróżnienie pomiędzy próbą pozorowaną nastawioną na zwrócenie uwagi, a nastawioną bezpośrednio na odebranie sobie życia) i (6) poziomu odporności psychicznej. Na każde pytanie czat udzielał odpowiedzi, posługując się 7-stopniową skalą, która posłużyła następnie za punktację dla porównań statystycznych z grupą kontrolną składającą się ze specjalistów zdrowia psychicznego (MHP – mental health professionals).

We wszystkich możliwych scenariuszach ChatGPT ocenił ryzyko wystąpienia próby samobójczej niżej niż specjaliści. Jednocześnie model ocenił też niżej odporność psychiczną u hipotetycznych pacjentów opisanych na winietach. Niezależnie od tego, czy odpowiedź jest po prostu niespójna, czy algorytm nie docenia wpływu odporności psychicznej na ryzyko próby samobójczej, używanie go do takich celów niosłoby za sobą opłakane w skutkach konsekwencje.

W niemal każdym z cytowanych tu artykułów na końcu pojawiały się dwie informacje:

Po pierwsze, duże modele językowe mają potencjał, żeby z powodzeniem służyć ludziom cierpiącym na zaburzenia psychiczne. Żeby tak się stało, konieczne jest jednak stworzenie bardziej zaawansowanego, „skrojonego” pod takie zastosowanie modelu, który zostanie wytrenowany na dużej ilości, bardzo wysokiej jakości, źródeł. 

Druga kwestia to zdanie, którego nie może zabraknąć w żadnym z publikowanych artykułów na ten temat – potrzebne jest więcej badań – nad tym, czym dysponujemy już teraz i nad tym, co dopiero znajdzie się w rękach lekarzy, terapeutów, pracowników „telefonów zaufania”, a przede wszystkim pacjentów.

ChatGPT być może jest mądry, jednak w żadnym wypadku nie zastępuje człowieka o rozwiniętej inteligencji emocjonalnej.  Niemniej, pojawienie się bardziej rozgarniętego i wyspecjalizowanego rodzeństwa pozostaje tylko kwestią czasu.

Bibliografia:

[1] Vaul K. et al., Historia sztucznej inteligencji w medycynie, https://pubmed.ncbi.nlm.nih.gov/32565184/

[2] Briganti G., et al., Sztuczna inteligencja w medycynie: Dziś i jutro,https://www.frontiersin.org/articles/10.3389/fmed.2020.00027/full

[3] CC News, Altar i Politechnika Świętokrzyska zaprezentowały ParrotAI, https://ccnews.pl/2024/02/05/altar-i-politechnika-swietokrzyska-zaprezentowaly-parrot-ai/, dostęp: 7.02.2024

[4] Serwis Rzeczypospolitej Polskiej, Rekordowe środki na ochronę zdrowia – w 2024 r. przeznaczymy 190 mld zł, https://www.gov.pl/web/premier/rekordowe-srodki-na-ochrone-zdrowia–w-2024, dostęp: 7.02.2024

[5] Nature, Graber-Stiehl I., Czy świat jest gotowy na terapeutów ChatGPT?, https://www.nature.com/articles/d41586-023-01473-4,

[6] Nature, Raile P., Przydatność ChatGPT dla psychoterapeutów i pacjentów, https://www.nature.com/articles/s41599-023-02567-0

[7] Nature, Sharma A., et al., Współpraca człowieka ze sztuczną inteligencją umożliwia bardziej empatyczne rozmowy w ramach tekstowego wsparcia zdrowia psychicznego peer-to-peer, https://www.nature.com/articles/s42256-022-00593-2

[8] Elyoseph Z., et al., Poza ludzką wiedzą: obietnica i ograniczenia ChatGPT w ocenie ryzyka samobójstwa, https://www.frontiersin.org/journals/psychiatry/articles/10.3389/fpsyt.2023.1213141/full 

Fot. nagłówka: Pixabay

Marcin Szałaj
Bio:
Absolwent kognitywistyki na Uniwersytecie Marii Curie-Skłodowskiej w Lublinie. Dziennikarz i copywriter, który od lat na bieżąco śledzi wszystkie doniesienia ze świata nauki i działa na rzecz jej popularyzacji.
Napisany przez:

Marcin Szałaj

Dodaj komentarz