Wiadomości
12:21
Kolejny problem pacjentów. Wsparcie dla lekarzy okazało się bublem
Rodzimy system ochrony zdrowia znajduje się w kryzysie. Permanentnym. Niektórzy twierdzą, że sytuację mogą poprawić cyfryzacja i narzędzia tzw. sztucznej inteligencji. Ale ich wdrożenie może przynieść nowe problemy.
Ciekawe doniesienia płyną z kanadyjskiej prowincji Ontario. Audyt urzędników wykazał, że używanie tzw. sztucznej inteligencji przez lekarzy niekoniecznie służy pacjentom. Co więcej, czasem może im wręcz zaszkodzić. W jaki sposób?
Pomoc AI, czyli informacje wyssane z cyfrowego palca
Testom poddano rozwiązania służące do rejestrowania rozmów lekarzy z pacjentami i przetwarzania ich w notatki. Na szczęście odbywało się to w ramach symulowanych rozmów. Dlaczego na szczęście? Bo niemal połowa sprawdzanych narzędzi działa nieprawidłowo. Jednym z problemów było dopisywanie fałszywych informacji i sugerowanie planów leczenia, które nie pojawiły się w rozmowie.
Zjawisko określane mianem halucynacji AI nie jest czymś nowym i nieznanym. To sytuacja, w której tzw. sztuczna inteligencja generuje fałszywe informacje i podaje je jako prawdziwe. Nie jest to działanie celowe – narzędzie po prostu nie odróżnia faktów od fikcji. Głośnym przykładem tego niedociągnięcia była książka Karoliny Opolskiej, o czym więcej przeczytacie w tym tekście.
Gdy AI wymyśla przypisy w książce, jest to sytuacja niepokojąca, ale raczej bez wpływu na ludzkie życie. W przypadku systemu ochrony zdrowia sprawy mają się już inaczej: halucynacje stwarzają zagrożenie dla zdrowia pacjentów. Ponad połowa systemów rejestracji mowy popełniła błąd w zakresie nazwy leku zapisanego przez lekarza. Łatwo sobie wyobrazić konsekwencje takiej pomyłki.
Wrażliwe dane? Niech zapozna się z nimi cały szpital
Osobną kwestią jest bezpieczeństwo danych. W raporcie opisano przypadek systemu sporządzania notatek, który zarejestrował prywatne dane pacjenta... i rozesłał je do obecnych oraz byłych pracowników szpitala.
Warto zaznaczyć, że systemów AI do transkrypcji rozmów z pacjentami w Ontario używa około 5 tys. lekarzy.
Ktoś stwierdzi: niech się martwią w Kanadzie, nam to nie grozi. W tym momencie warto przypomnieć doniesienia z marca br. W szpitalu w Bydgoszczy wybuchła afera, bo pojawiło się podejrzenie, że lekarz diagnozował dziecko z pomocą tzw. sztucznej inteligencji. Dyrekcja placówki zaprzeczyła tym doniesieniom i tłumaczyła, że rozwiązanie wykorzystano do korekty językowej. Niesmak jednak pozostał. Pytanie o wykorzystywanie nowinek AI w polskim systemie ochrony zdrowia nie jest bezzasadne.
MACIEJ SIKORSKI