Prof. Halina Kwaśnicka: Sztuczna inteligencja w polskiej medycynie? Koniecznie, ale dajcie nam dostęp do danych
Katedra Inteligencji Obliczeniowej Wydziału Informatyki i Zarządzania na Politechnice Wrocławskiej, gdzie pracuję, wspólnie z lekarzami tworzy użyteczne dla nich systemy komputerowe.
Kierowałam trzema projektami naukowymi realizowanymi wspólnie z lekarzami z Wrocławskiego Uniwersytetu Medycznego: „Budowa kompleksowego systemu komputerowej analizy i pomiaru nadmiaru płynu mózgowo-rdzeniowego śródmózgowia, wspomagającego decyzje radiologiczne oraz neurochirurgiczne” (2006-2008); „Opracowanie kompleksowego systemu automatycznej diagnostyki drobnych naczyń na podstawie komputerowej analizy obrazów kapilaroskopowych” (2007-2009); „Zastosowanie metod komputerowej analizy obrazów do oceny ekspresji receptora HER-2 w komórkach raka gruczołu piersiowego” (2011-2014).
Oto czym się w nich zajmowaliśmy.
Projekt 1: choroby otępienne i udary
Zanik mózgu jest jedną z cech chorób otępiennych, ale także innych zaburzeń neurodegeneracyjnych, również fizjologicznego starzenia się mózgu. Zainteresowaliśmy się określeniem zależności między pomiarami atrofii mózgu a stopniem nasilenia procesu otępiennego opartego na testach neuropsychologicznych. U 68 pacjentów z rozpoznaniem upośledzenia funkcji poznawczych spowodowanych otępieniem wykonaliśmy testy neuropsychologiczne oraz badania CT [tomografia komputerowa – red.].
Nie udało się znaleźć statystycznej korelacji między wynikami testów neuropsychologicznych a pomiarami atrofii mózgu (zarówno korowej, jak i podkorowej). Pomiary uogólnionej atrofii korowo-podkorowej mogą być wykorzystane w procesie leczenia, aby porównywać postęp zmian zanikowych ze zmianami wyników testów neuropsychologicznych.
Opracowaliśmy system wsparcia medycznego, w tym segmentację, ekstrakcję cech i procesy decyzyjne. W systemie stosowane są różne techniki: logika rozmyta, deskryptory kształtu, klasyfikatory i struktura automatycznego opisu obrazu. Zaproponowaliśmy prostą metodę wczesnego wykrywania udaru mózgu na podstawie obrazów CT.
We wszystkich tych badaniach, zwłaszcza dotyczących wczesnego etapu udaru, dysponowaliśmy małą próbką danych – od 40 do 70 obrazów, pochodzących z jednego tomografu i jednego zespołu lekarzy. To zdecydowanie za mało, aby stwierdzić, że opracowane metody czy systemy nadają się do powszechnego użytku.
Projekt 2: naczynia włosowate
Kapilaroskopia jest gałęzią medycyny koncentrującą się na analizie zmian naczyń włosowatych. Istnieje wiele ważnych aspektów analizy kapilarnej obrazu: grubość, kształt, rozkład i gęstość kapilary [kapilara – bardzo cienka rurka, tu: naczynie włosowate – red.]. Analiza tych obrazów jest pomocna w diagnozowaniu wielu chorób reumatycznych.
Ponieważ w tamtym czasie pracowaliśmy nad metodami automatycznej anotacji obrazów na podstawie ich zawartości wizualnej, podejście to zastosowaliśmy do rzeczywistych danych kapilaroskopowych. Było to interesujące, bo nie wymagało wyodrębniania cech samych kapilar widocznych na obrazie.
W badaniach z dostępną, niewielką próbką danych uzyskaliśmy dokładność rzędu 77 procent. To dobry wynik. Dalsze badania miały się skupiać na tworzeniu znacznie większego zbioru danych kapilarnych oraz dodaniu do słownika nowych możliwych diagnoz. Nie mogliśmy jednak zweryfikować tego podejścia, bo nie mieliśmy danych rzeczywistych.
Problemem wydaje się brak czasu i brak młodych ludzi do pracy za wynagrodzenie, które można im zaoferować
Zaproponowaliśmy również metodę mierzenia krzywizny naczyń włosowatych, która na danych rzeczywistych działała z dokładnością 84 procent. I tu jednak powtórzył się problem z rozmiarem zbioru danych rzeczywistych i ich jakością: stary kapilaroskop nie robił dobrych, profesjonalnych zdjęć naczyń włosowatych. Największy problem stanowiło rozpoznanie rozgałęziania się oraz nakładających się naczyń.
Jednym z najważniejszych wskaźników w kapilaroskopii jest grubość naczyń włosowatych. Na tej podstawie naczynia włosowate mogą być podzielone na trzy odrębne kategorie: zdrowe, te ze zwiększonymi pętlami oraz megakapilary [naczynia o średnicy znacznie przekraczającej średnicę prawidłowych naczyń włosowatych – red.]. Dlatego zajmowaliśmy się automatyzacją analizy grubości kapilar. Eksperymentowaliśmy z różnymi klasyfikatorami. Najlepsza osiągnięta dokładność sięgała 97 procent, co można uznać za satysfakcjonujące – system działający z taką dokładnością mógłby wspierać diagnozowanie.
Skupiliśmy się też na automatycznej analizie rozmieszczenia i gęstości naczyń włosowatych. Nowe podejście w wykrywaniu obszarów niedokrwiennych, które zaproponowaliśmy, wykorzystuje analizę histogramu i klasyfikację.
Zaproponowaliśmy też nowatorską, półautomatyczną metodę śledzenia naczyń kapilarnych. Powstały metody automatycznej analizy (o różnym stopniu dokładności) wszystkich ważnych w diagnozowaniu właściwości kapilar na obrazie. Problemem było opracowanie uniwersalnej metody segmentacji, która radziłaby sobie ze wszystkimi anomalnymi obrazami kapilaroskopowymi.
Projekt 3: rak piersi
Uznanym biomarkerem oceny diagnostycznej i prognostycznej raka sutka jest tak zwany receptor 2 ludzkiego naskórkowego czynnika wzrostu HER-2/neu. Identyfikacji osób chorych na raka piersi dokonuje się przez dokładne rozpoznanie na obrazach uzyskanych z odpowiednich preparatów histopatologicznych błon komórkowych, wizualizowanych jako „HER2/neu o nadmiernej ekspresji”. Tradycyjna „ręczna” analiza tych obrazów jest zajęciem żmudnym i czasochłonnym, zaś automatyczna analiza jest procesem trudnym. Komórki o nadmiernej ekspresji należy nie tylko rozpoznać, ale też określić, jak dużo ich jest w stosunku do wszystkich komórek na obrazie.
Do segmentacji tych struktur zaproponowaliśmy odpowiednio przybliżenia zestawu rozmytego. Kontynuacją tych badań jest analiza połączeń komórkowych błony komórkowej HER-2/neu poprzez analizę zaproponowanych współczynników kształtu.
Badania są podstawą do wprowadzenia pełnej procedury rozpoznawania raka piersi. Projekt zakończyliśmy propozycją pełnego systemu automatycznego wspomagania diagnozy raka piersi, szczególną uwagę zwracając na dokładność rozpoznawania granicy pomiędzy drugim a trzecim stopniem choroby. Z punktu widzenia leczenia to bardzo ważne, a rozpoznanie eksperckie przypadków będących blisko tej granicy jest bardzo trudne.
Jako że dysponowaliśmy małą ilością danych do uczenia i testowania systemu (pochodziły z jednego ośrodka medycznego), jego pełna, wiarygodna weryfikacja nie była możliwa.
Mało czasu, mało pieniędzy
W ramach pracy naukowej pracowników Katedry Inteligencji Obliczeniowej kontynuujemy wspólne badania z lekarzami, choć nie na szeroką skalę. Przed wakacjami w 2018 roku odbyliśmy kilka spotkań z zespołami z Wrocławskiego Uniwersytetu Medycznego. Dostrzegamy potencjał sztucznej inteligencji w zadaniach medycznych, medycy także rozumieją potrzebę i sens takiej współpracy. Problemem wydaje się brak czasu i brak młodych ludzi do pracy za wynagrodzenie, które można im zaoferować.
Nieformalna współpraca z medykami dotyczyła kilku problemów.
Zespół dr. Martina Tabakowa z Zakładu Rehabilitacji Leczniczej w Urazach i Chorobach Kręgosłupa „Akson” we Wrocławiu szukał modelu opartego na sterowaniu rozmytym, który mógłby być zastosowany do pracy bionicznej ręki. Skupialiśmy się na jej działaniu w czasie rzeczywistym (zaciskanie dłoni).
Na podstawie prawdziwych sygnałów sEMG (czynności elektrycznych mięśni) pobranych od osób, którym amputowano rękę, zaproponowaliśmy sposób działania potencjalnego sterownika według danych z sygnału sEMG i danych z założonego czujnika nacisku. Powstał model sterownika, który działa zgodnie z założeniami dla ręki bionicznej.
Współpraca z Aksonem dotyczyła śledzenia nawet małych zmian kondycji pacjenta, co jest istotne zwłaszcza podczas rehabilitacji. Wykorzystano dane z sygnału sEMG w trakcie wykonywania ćwiczenia przez pacjenta z urazem kręgosłupa, jak również ocenę fizjoterapeuty dotyczącą „jakości” wykonywanego ćwiczenia. Zaproponowaliśmy nowy, obiektywny współczynnik oceny kondycji rehabilitowanych pacjentów, tzw. współczynnik neuromotoryczności.
Do problemu diagnozowania raka piersi powróciliśmy w 2018 roku. Tym razem analizowaliśmy segmentację i rozpoznawanie komórek nowotworowych z badania Ki-67 [Ki-67 to białko, którego wykrycie w komórkach jest wskazówką, że komórki te się dzielą, co może być wskazówką, że mamy do czynienia z nowotworem – red.]. Zaproponowano nowatorski sposób zliczania komórek sklejonych lub nachodzących na siebie – takie komórki są „zliczane” przez wyuczoną sieć konwolucyjną [rodzaj sieci neuronowej – red.]. Dla testowanych danych otrzymane wyniki są lepsze niż wyniki oprogramowania komercyjnego.
Pod kierunkiem dr. Jerzego Sasa prowadzone były prace, które co prawda nie mają bezpośredniego związku z diagnozowaniem medycznym, ale są użyteczne w polskiej służbie zdrowia. Dotyczyły one algorytmów rozpoznawania ręcznie pisanych tekstów medycznych, co jest ważne z punktu widzenia digitalizacji dokumentów medycznych.
Równie ważnym problemem jest opracowanie systemu rozpoznającego mowę w zakresie medycznym. Taki system powinien umożliwiać np. lekarzowi radiologowi ustne omawianie analizowanego obrazu. System zapisywałby „opis” do dokumentu tekstowego.
Potencjał jest wielki, ale…
Potencjał sztucznej inteligencji w medycynie jest ogromny, ale zależy od wielu czynników. Podstawowym elementem utrudniającym bądź wręcz uniemożliwiającym powstawanie dobrych rozwiązań jest brak ogromnych i zróżnicowanych zbiorów danych, które można by udostępniać badaczom i zainteresowanym firmom.
Kolejny problem to brak dobrze wykształconych młodych ludzi chętnych do pracy naukowej. Wynagrodzenia asystentów na uczelniach polskich są kilka razy niższe niż płace informatyków w firmach. Firmy często wręcz podkupują pracowników, w tym z uczelni. Zbyt słaba jest też współpraca przemysłu z nauką.
Tekst jest opracowaniem pracy prof. Haliny Kwaśnickiej pt. „Uwagi do strategicznego programu sztucznej inteligencji w Polsce. Rozwój metod maszynowego uczenia z uwzględnieniem zastosowań medycznych, a także zagrożeń wynikających z tempa rozwoju sztucznej inteligencji na świecie” (Wrocław 2018), przygotowanej dla OPI PIB.