- Sztuczna inteligencja dorwała się do ludzkich genów
- Udoskonalana aplikacja już pomaga w diagnozie rzadkich schorzeń
- Choroby genetyczne dotykają 8 procent ludzi na całym świecie
Sieć neuronowa może pomóc lekarzom w diagnozie rzadkich chorób genetycznych. Analizuje ona twarze w poszukiwaniu rysów wskazujących na schorzenie.
Budowniczym sieci jest Yaron Gurovich z firmy biotechnologicznej FDNA w Bostonie wraz z zespołem. Sieci neuronowe to inaczej programy komputerowe i struktury danych, których działanie przypomina pracę ludzkiego mózgu.
Algorytmy, wspólnie określane przez firmę jako DeepGestalt (Gestalt, niem. kształt, forma), stosują metodę głębokiego uczenia się.
Głębokie uczenie polega na tworzeniu sieci neuronowych, które mają za zadanie udoskonalać rozpoznawanie np. głosu, obrazu komputerowego czy przetwarzanie naturalnego języka. W przypadku DeepGestalt chodzi o obraz.
Bystra sieć neuronowa
Naukowcy przeszkolili sieć neuronową na 17 tysiącach zdjęć twarzy osób z ponad 200 różnymi syndromami. Następnie poprosili sztuczną inteligencję o zidentyfikowanie potencjalnych zaburzeń genetycznych z dalszych 502 zdjęć osób z takimi zaburzeniami. Sieć okazała się … błyskotliwa. W końcowym eksperymencie DeepGestalt osiągnął 91 procent dokładności.
„DeepGestalt ułatwi ocenę zależności fenotypowych w genetyce klinicznej, badaniach genetycznych i medycynie precyzyjnej” – podsumowali naukowcy w opublikowanych niedawno wynikach swoich badań, w Nature Medicine. Fenotyp to zespół cech, które wpływają na wygląd i funkcjonowanie organizmu w danym środowisku.
DeepGestalt zna źródło naszego wyglądu
Gurovich i jego zespół testowali także zdolność SI do identyfikacji różnych mutacji genetycznych, które mogą prowadzić do tego samego syndromu. Użyli do tego obrazów osób z zespołem Noonana, który może wynikać z mutacji w jednym z pięciu genów. Wywołują one zespół wad genetycznych u dziecka.
Zespół Noonana występuje raz na 1-2,5 tysiąca urodzeń. Naukowcy poprosili sieć o określenie, która z pięciu możliwych mutacji genetycznych kryje się za każdym z przypadków.
DeepGestalt z wyższą niż zakładana precyzją rozpoznał genetyczne źródło wyglądu fizycznego. Algorytmy osiągnęły 64-procentową dokładność. To wynik lepszy od badania klinicystów z 2010 r., którzy przyznali, że nie są w stanie aż tak precyzyjnie zidentyfikować mutacji danego genu w zespole Noonana z fenotypu twarzy.
„W przypadku niektórych wyjątkowo rzadkich chorób tradycyjny proces diagnozy może trwać wiele lat. Technologia może pomóc zawęzić obszar poszukiwań (…) – mówi Gurovich.
System daje lekarzom podgląd obszarów twarzy, które były pomocne w komputerowej diagnozie. Dzięki temu mogą oni lepiej zrozumieć zależności między układem genetycznym a wyglądem fizycznym.
Szybsza diagnoza dzięki Face2Gene
DeepGestalt zasila aplikację firmy, Face2Gene, która jest już dostępna dla pracowników służby zdrowia. To kombinacja aplikacji opracowanych przez bostońską firmę, które działają na bazie sztucznej inteligencji i technologii głębokiego uczenia się.
„To rozwiązanie jest ogromnym krokiem naprzód w dziedzinie dysmorfologii. Oszczędza mój czas, kiedy oceniam pacjentów w mojej klinice i zapewnia wnikliwe narzędzia, które pomagają mi postawić diagnozę” – uważa dr David A. Chitaya, kierownik diagnostyki prenatalnej i programu genetyki medycznej szpitala Mount Sinai w Toronto.
Stosując analizę twarzy, system Face2Gene ocenił do tej pory ponad 150 tysięcy pacjentów, a porównanie ich fenotypów do rosnącej bazy danych, zawierającej ponad 10 tysięcy chorób genetycznych, pomaga w szybszym i dokładniejszym diagnozowaniu – przekonują twórcy.
„W przyszłości genom każdej osoby będzie służył jako dokumentacja medyczna do kierowania decyzjami zdrowotnymi. Świat zmierza w stronę genomiki konsumenckiej” – twierdzi Dekel Gelbman, dyrektor generalny FDNA.
Lekarze już zaczęli używać tej technologii, chociaż narzędzie nie jest przeznaczone do ostatecznego diagnozowania. Gurovich i jego współpracownicy pracują teraz nad tym, aby algorytm mógł być zastosowany szerzej oraz nad poprawą różnorodności swoich zbiorów danych.