W badaniu maszyny zdeklasowały ludzką konkurencję zarówno pod kątem sprawnego przekazywania twardych danych, jak i empatii.
pexels.com/public domain
Emocjonalny chłód kojarzył się długo dużo bardziej z maszynami niż z ludźmi. Czyżby w ostatnim czasie zaczęło się to zmieniać? Norweskich lekarzy pod względem wyrażania współczucia i udzielania merytorycznie wartościowych odpowiedzi na pytania związane z medycyną sztuczna inteligencja… zmiotła z planszy.
Można się domyślać, że nie o narodowość tu chodzi i nie o stereotyp zimnego Skandynawa, bowiem gdzie indziej rezultaty tego typu badań badań bywają podobne… ale tu pozostańmy przy ekspertyzie omawianej w ostatnim czasie w norweskich mediach. A ta dotyczy norweskich realiów, badań przeprowadzonych przez studentów Uniwersytetu w Bergen opublikowanych w czasopiśmie „Tidsskrift for Den norske legeforening”, branżowym organie prasowym związku zawodowego norweskich lekarzy.
W badaniu wzięły udział 344 osoby w różny sposób związane ze środowiskiem medycznym, a więc kompetentne w dziedzinie będącej przedmiotem eksperymentu. Dostały do oceny 192 wypowiedzi stworzone przez medyków lub przez narzędzia AI – nie udostępniono przy tym ankietowanym informacji, które odpowiedzi na pytania okołozdrowotne pochodzą od ludzi, a które od maszyn. Okazało się, że maszyny zdeklasowały ludzką konkurencję zarówno pod kątem sprawnego przekazywania twardych danych, jak i empatii.
Pytania pochodziły z jednego z internetowych forów, gdzie odpowiedzi na co dzień udzielają lekarze. Dotyczyły wątku „ciało, seks i tożsamość” w sekcji „choroby i objawy”. Omawiane kwestie były więc dość intymne, wymagające naprawdę dużej dozy wrażliwości. I jednak wygrała maszyna…
Maszyna może pracę lekarza czy pielęgniarza jedynie przyspieszyć, nie powinna jej zastąpić.Źródło: Fot. fotolia/ Bits and Splits/ royalty free
Nie więcej niż zero?
Czy to oznacza, że powinno się pójść drogą zwiększania kontaktu pacjentów z AI w procesie leczenia, nawet jeśli chodzi nie o właściwą terapię, lecz tylko o wskazówki i poradnictwo przed ewentualną wizytą u lekarza? Niekoniecznie. Nie zapominajmy, że to tylko narzędzie i ostateczną decyzję w sprawie komunikacji w tak ważnych sprawach jak zdrowie powinien podejmować człowiek, zwłaszcza w sytuacji, w której narzędzia takie jak Chat GPT halucynują, czyli w przypadku braku danych zmyślają dobrze brzmiące odpowiedzi. Maszyna może pracę lekarza czy pielęgniarza jedynie przyspieszyć, nie powinna jej zastąpić.
O ile chodzi o kwestie merytoryczne, sukces komputerów nie powinien aż tak dziwić. Przetwarzają dane szybciej niż człowiek. Bardziej martwi kwestia empatii… W ankiecie ulicznej przeprowadzonej przez NRK z ust pewnego mieszkańca Bergen padły gorzkie słowa:
„To żadne zaskoczenie. W gabinecie lekarskim często można poczuć się jak na linii produkcyjnej. Wielokrotnie zmieniałem lekarzy i z moich doświadczeń wynika, że mają oni zero empatii”. Czy faktycznie jest aż tak źle?
Za dużo gwiazd…
Poza tym, może jednak lepsza jednak empatia mniejsza, ale za to prawdziwa, od tej wygenerowanej? Sztuczność tej drugiej dała o sobie znać w początkowej fazie eksperymentu, gdy poproszono czat o maksymalną dawkę empatii. Rezultaty brzmiały wówczas jak parodia rozmowy – w czasie wizyty lekarskiej nie usłyszymy przecież raczej „twoja odwaga sięga gwiazd”. A jeśli jednak usłyszymy, to może zorientujemy się, że rozmawia z nami AI udzielająca odpowiedzi po niefortunnym promptcie? Oby nie…