Dziś lekarzowi interpretacja radiologiczna zmian w mózgu zajmuje nawet 30 minut. Wkrótce dzięki sztucznej inteligencji ten proces może się skrócić nawet do kilku minut, a w przyszłości – sekund. A czas jest ważny – opowiada Dariusz Wiśniewski z BrainScan.ai w rozmowie z Tomaszem Jurczakiem

Tomasz Jurczak: BrainScan.ai chce ratować zdrowie i życie osób, które są zagrożone udarem czy guzem mózgu, zanim pojawią się poważne zmiany. Stworzyliście algorytmy bazujące na danych medycznych. Jak to działa?

Dariusz Wiśniewski*: Razem z naszymi partnerami badawczo-rozwojowymi pozyskaliśmy bazę zawierającą w tym momencie 24 tysiące badań obrazowych tomografii komputerowej mózgu wraz z ich opisami. Zarówno obrazy TK, jak i opisy są w 100 procentach zanonimizowane. Nie ma możliwości identyfikacji ani lekarza opisującego badanie, ani pacjenta.

Są to zatem „czyste dane” na temat zmian patologicznych w mózgu – zdjęcia plus opisy, czyli tzw. interpretacja radiologiczna.

Jak działa algorytm? Czy dane są wcześniej w jakiś sposób sklasyfikowane?

Mając wspomnianą bazę danych, normalizujemy ją, aby można było z niej korzystać. Opisy są często w plikach WORD, PDF, EXCEL. My musimy je doprowadzić do takiej formy, aby dało się je wykorzystać w procesie uczenia maszynowego. Następnie zarzucamy sieć neuronową zestawami klas badań, które udało nam się przesiać. Chodzi o to, że analizujemy badania pod kontem występowania w nich konkretnych zmian patologicznych (które uzyskujemy przez analizę danych i tagowanie). Potem jesteśmy w stanie uczyć sieci rozpoznawania konkretnych klas patologii, na przykład krwawień, guzów czy udarów.

W życiu bym nie pozwolił ludziom z IT oznaczać badań medycznych na podstawie zebranych i przenalizowanych danych. Wszelkie badania, które analizujemy, robią wyłącznie specjaliści

Wyobraźmy sobie, że mamy badania udarowe i „karmimy” sieć neuronową obrazami tych badań. Algorytm w trzech wymiarach zaczyna kontekstowo rozumieć, w którym miejscu znajdują się jakie zmiany patologiczne, i na podstawie tego dochodzi do konkretnych wniosków. Tak właśnie go uczymy. Ale jest to tylko jedna z trzech metod, jakiej używamy, jeśli chodzi o obraz. Gotowy algorytm w kontekście produkcyjnym (w szpitalu czy jako API – interfejs programowania aplikacji) pozwala na analizę jednego badania czasie poniżej sekundy, natomiast uczenie algorytmów rozpoznawania zmian to wieloetapowy proces, który trwa bardzo długo, w zależności od użytych procesorów graficznych.

Druga metoda to znakowanie – używając opisu i obrazu, znaczymy i wyciągamy z opisu pewne konteksty, używając przy tym silnika do rozumienia tekstu pisanego. Dzięki temu wiemy, w jaki sposób to badanie jest klasyfikowane i jak oznaczona jest ta zmiana patologiczna.

Dariusz Wiśniewski

Trzecim modelem jest sytuacja, w której lekarz radiolog dostaje badanie przeanalizowane przez algorytm i wtórnie mu się przygląda. Następnie etykietuje je, to znaczy w trzech wymiarach oznacza miejsce zmiany patologicznej oraz oznacza dokładnie, co to jest za zmiana.

Każdy z tych trzech modeli łączymy w jedno, czyli jakby uczymy naszą siec neuronową trzema metodami przyglądania się danym, które uzyskaliśmy: obrazy, konteksty i etykietowanie, plus do tego oczywiście uczenie sieci na podstawie silnika, który rozumie tekst.

Skąd pozyskaliście dane?

Dane, na podstawie których uczymy obecną sieć neuronową, pochodzą z badań wyłącznie na pacjentach z polskich placówek, ale rozmawiamy oczywiście z partnerami z zagranicy.

Już w połowie 2020 roku pierwsze szpitale zaczną korzystać z certyfikowanej wersji BrainScan. Będą to w pierwszej kolejności nasi partnerzy badawczo-rozwojowi. Ciągle jesteśmy otwarci na współpracę z nowymi podmiotami diagnostycznymi i serdecznie prosimy o kontakt, jeśli ktoś jest zainteresowany SI w radiologii.

Jaka jest skuteczność takiego rozwiązania?

Aby uzyskać certyfikat na rozwiązania oparte o sztuczną inteligencję, trzeba mieć ok. 70 procent skuteczności, a my mamy pomiędzy 86 a 88 procent.

Na razie to narzędzie nie jest wykorzystywane w żadnych klinikach czy szpitalach ze względu na to, że chcemy ustalić pewną strukturę jego działania. Nie trzeba go instalować w szpitalu, jest dostępne w chmurze. Potrzebujemy jednak chwili, aby sprawić, by chmura ta była stabilna. Certyfikowana wersja BrainScan będzie dostępna niedługo.

Jak rozumiem, firma z obszaru IT nie działa sama. Musicie mieć wsparcie merytoryczne ze środowiska medycznego?

Oczywiście, że tak. Współpracujemy z Gdańskim Uniwersytetem Medycznym i ze szpitalami takimi jak Copernicus, TOMMA Diagnostyka Obrazowa, TK Medica ze Starogardu Gdańskiego – to są nasi partnerzy z obszaru R&D. Do tego współpracujemy z Uniwersytetem Warszawskim i Politechniką Gdańską.

Współpraca z lekarzami jest szalenie ważna choćby w kwestii etykietyzacji, w życiu bym nie pozwolił ludziom z IT oznaczać badań medycznych na podstawie zebranych i przenalizowanych danych. Wszelkie badania, które analizujemy, robią wyłącznie specjaliści.

Wiemy, jak działa rozwiązanie, ale jakie korzyści może przynieść pacjentom i lekarzom w Polsce?

Nie jest to produkt lokalny, ale zdecydowanie globalny, choć rzeczywiście rozpoczynamy jego wdrożenie od Polski.

Korzyści to przede wszystkim zmniejszenie kosztów hospitalizacji przez wczesne wykrywanie różnych zmian patologicznych w określonych miejscach w organizmie. My zajęliśmy się głową, ponieważ tomografia komputerowa mózgu to ok. 60 do 65 proc. wszystkich badan tomograficznych, które są przepisywane przez lekarzy w ogóle.

Ta technologia pozwoli też na zmniejszenie kolejek do interpretacji radiologicznej – przyspieszy jej wykonanie i poprawi jej jakość, zmniejszając ryzyko pominięcia zmian chorobowych czy niepoprawnej oceny.

Jak działa algorytm w praktyce, w szpitalu?

Przy użyciu naszego oprogramowania lekarz radiolog otrzymuje informację o tym, jaka zmiana patologiczna występuje w danym badaniu.

W tym momencie wykrywamy i klasyfikujemy dwie najbardziej powszechne zmiany patologiczne – udar i krwawienia, które wykrywamy na bardzo dobrym poziomie. Docelowo będziemy w stanie rozpoznawać za pomocą sztucznej inteligencji aż 26 zmian.

Dzięki temu lekarz od razu będzie wiedział, czy coś jest nie tak, gdzie znajduje się zmiana patologiczna, jaka jest wstępna klasyfikacja.

Czyli skróci to czas przeprowadzenia interpretacji radiologicznej przy zachowaniu lub zwiększeniu jakości?

Dokładnie tak. Wyobraźmy sobie, że dziś lekarzowi radiologowi taka interpretacja zajmuje nawet 25-30 minut w zależności od doświadczenia lekarza i poziomu skomplikowania przypadku. Specjalista musi na oknach kontrastowych pięciokrotnie „przejrzeć mózg” i wyobrazić sobie w trzech wymiarach, jak wygląda zmiana. Następnie musi zmienić kontrast okna diagnostycznego, aby ujrzeć inny rodzaj zmian. I w ten sposób lekarz radiolog poszukuje zmian patologicznych – do momentu, kiedy znajdzie anomalię w obrazie. Następnie opisuje i stwierdza: to jest ta zmiana, początek guza lub początek udaru.

Czy wie pan, że początki zmian udarowych mogą wyglądać jak mała, szara plamka pomiędzy jedną a drugą warstwą? Ale w ciągu trzech godzin ta zmiana może gwałtownie się powiększyć, bo pacjent ma już pół mózgu zalane krwią. Lekarz radiolog po wielogodzinnej pracy w natłoku zadań i przy wysokim poziomie stresu lub zmęczenia po prostu taką niewyraźną zmianę pominie, i nie jest to jego wina, tylko skutek jego biologicznych ograniczeń. Natomiast algorytm patrzy na wszystkie barwy od razu, analizuje cały kontekst w kilka sekund.

W tym momencie wykrywamy i klasyfikujemy dwie najbardziej powszechne zmiany patologiczne – udar i krwawienia. Docelowo będziemy w stanie rozpoznawać za pomocą sztucznej inteligencji aż 26 zmian

Jeżeli nauczymy maszynę rozpoznawać kontekstowo pewne rzeczy, ułatwi to dokonanie skutecznej analizy. To, co robimy w BrainScan, pozwoli wykrywać bardzo wczesne zmiany patologiczne różnych chorób.

W przypadku udaru, jeśli algorytm odczyta tę małą, szarą plamkę, to wystarczy podać lek i pacjent powróci do zdrowia. Natomiast po trzech godzinach będzie miał paraliż połowy ciała.

Wczesne wykrycie jest kluczowe także przy guzach mózgu. Jeśli guz zostanie wykryty dużo wcześniej, zmniejsza to nie tylko zagrożenie dla zdrowia i życia, zmiany w działaniu mózgu, ale i czas hospitalizacji. Oznacza to też mniejszą ingerencję w ciało człowieka podczas operacji.

Na ile to wasz produkt jest innowacyjny?

Jesteśmy jednymi z pionierów tego typu rozwiązań na świecie. O sztucznej inteligencji w medycynie mówi się od dawna, pierwsze firmy zaczęły pracę w tym obszarze w 2012 roku. Wtedy jeszcze był problem z dostępem do zaawansowanych kart graficznych i nowych systemów, które pozwoliłyby na skuteczne działanie algorytmów. Także podejść do samej interpretacji radiologicznej są dziesiątki.

Na świecie obecnie jest 30-36 firm, które robią coś sensownego, choć proszę zwrócić uwagę, że część z nich zajmuje się wyłącznie mammografią, kośćmi, perfuzją, prześwietleniami rentgenowskimi (RTG), rezonansem magnetycznym czy choćby jak my tomografią komputerową. Czyli każda firma zajmuje się tym wertykalnie. Jeszcze inne zespoły nie wykorzystują tekstu, skupiając się tylko na obrazach, itd.

Rozwiązań takich jak BrainScan nie ma na świecie, przynajmniej jeśli chodzi o cele. Są dwie firmy, które wykrywają po kilka zmian, w tym jedna izraelska, której udaje się skutecznie wykryć 11 zmian w mózgu. My docelowo – jak mówiłem – chcemy wykrywać aż 26 zmian w mózgu.

Inni nie mają też w aplikacjach tych funkcjonalności, które my mamy, na przykład automatycznego wyrównywania obrazu mózgu. Pozwala to sprawdzać symetrię półkul mózgu, co z kolei umożliwia łatwiejsze dojrzenie zmian, jeśli chodzi o wielkość prawej lub lewej półkuli. Mamy również coś unikalnego na skalę światową, czyli porównywanie w czasie rzeczywistym przypadków, które badamy dziś, z tymi z przeszłości.

Jak to działa?

Lekarz radiolog zaznacza sobie warstwę w badaniu, a system skanuje bazę tysięcy obrazów i pokazuje mu wcześniejszy w jakimś procencie podobny przypadek wraz z interpretacją, dzięki czemu lekarz otrzymuje coś w rodzaju szytej na miarę informacji z atlasu radiologicznego. Dowiaduje się nie tylko, co to jest za zmiana patologiczna, ale również jak została opisana przez innego lekarza. Kiedyś specjalista musiałby szukać takich podobieństw o wiele dłużej, w archiwum, w internecie, konsultować się. Myśmy to scyfryzowali, choć było to bardzo żmudnym procesem.

Kiedy możemy się spodziewać pierwszych testów w szpitalach współpracujących z BrainScan?

Komercyjnie produkt chcemy zaproponować do końca 2020 roku, natomiast informację o przetestowania demo planujemy na koniec 2019, początek 2020 roku.


*Dariusz Wiśniewskidyrektor operacyjny BrainScan.ai. Specjalista do spraw komunikacji z wieloletnim doświadczeniem w zarządzaniu zespołami projektowymi i początkujący programista Pythona. Wcześniej koordynator hubu Clipster, który został nagrodzony w Polskim finale konkursu Central European Startup Awards, i doradca projektów technologicznych w fazie pre-seed. Obecnie w BrainScan.ai jest odpowiedzialny za proces i strategie pozyskiwania danych wykorzystywanych w procesie uczenia maszynowego w kontekście oprogramowania do interpretacji badań TK głowy. Laureat Innolabs Pitching Challenge w Oslo, Health Challenges Congress w Katowicach, zdobywca wyróżnienia w finale EIT Health Innoastars w Portugalii i Startup Days by Roche w Warszawie.