Czy zastanawiałeś się, jak wiarygodne są wiadomości o zdrowiu w internecie? To pytanie zadała sobie Aleksandra Nabożny, doktorantka Polsko-Japońskiej Akademii Technik Komputerowych (PJATK), i postanowiła stworzyć algorytm do oceny takich materiałów
– Celem mojej pracy jest ułatwienie zwykłemu użytkownikowi omijania treści, które są niezgodne z aktualną wiedzą medyczną. Taki antywirus na fałszywe zalecenia – mówi Nabożny w rozmowie z portalem sztucznainteligencja.org.pl.
„Aż 60 proc. polskich rodziców szuka dzisiaj porad na temat zdrowia swoich dzieci u „doktora Google” – podała niedawno dr hab. Katarzyna Śledziewska, dyrektor zarządzająca DELab UW, która wraz z prof. Renatą Włoch prowadzi badania na temat transformacji cyfrowej Polaków.
W internecie działają tysiące portali, blogów i forów poświęconych tematyce zdrowotnej. Niestety, spora część z nich zawiera informacje nieaktualne, niepełne lub po prostu nieprawdziwe.
Teksty o zdrowiu żyją dłużej
Dochodzą do tego fake newsy na temat diagnoz, objawów, schorzeń, skutków ubocznych, leków, suplementów, metod leczenia itp. Ile ich jest? Tego nie wie nikt. Korzystanie z niesprawdzonego źródła może doprowadzić do nieszczęścia.
„Taka manipulacja może przekonać część pacjentów do przerwania lub niepodejmowania leczenia ratującego zdrowie i życie” – ostrzega prof. Piotr Jankowski z Polskiego Towarzystwa Kardiologicznego. Skutkiem tego może być przedwczesny zawał serca lub udar mózgu.
Krajowy konsultant w dziedzinie zdrowia publicznego, jednocześnie pełniący funkcję Głównego Inspektora Sanitarnego dr hab. Jarosław Pinkas zwraca uwagę, że w sieci coraz więcej jest nieprawdziwych informacji na temat zdrowia.
Jako przykład podaje opinie zniechęcające do stosowania szczepień ochronnych. „Ruch antyszczepionkowy w znacznym stopniu został wygenerowany właśnie przez internet, który jest coraz częstszym źródłem informacji o zdrowiu, szczególnie wśród ludzi młodych” – podkreśla specjalista.
Dlatego Aleksandra Nabożny, doktorantka PJATK, chce dać Polakom narzędzie do filtrowania zdrowotnych treści pod kątem ich wiarygodności. Ma ono ostrzegać użytkowników przed kontrowersyjnymi wpisami w sieci. Algorytm do wychwytywania niewiarygodnych informacji wśród wyników wyszukiwarki internetowej ma wyświetlać użytkownikowi ostrzeżenie. Czyli działać podobnie, jak alert programu antywirusowego.
Aż 60 proc. polskich rodziców szuka dzisiaj porad na temat zdrowia swoich dzieci u „doktora Google”
– Treści o zdrowiu mają inny charakter niż na przykład polityczne. Żyją w sieci nieporównywalnie dłużej. Gdy np. rodzą się teorie spiskowe dotyczące zdrowia, rozwijane i rozbudowywane są one przez lata. Tworzą się społeczności, znikąd pojawiają się tajemniczy eksperci. To nie jest coś, co ma się pojawić, silnie zadziałać na emocje, przetrwać w świadomości ludzi najwyżej do najbliższych wyborów, a potem wygasnąć. Fake news to wiadomości, które są intencjonalnie zafałszowane lub zmanipulowane, a treści o zdrowiu mogą się zwyczajnie przedawniać. Coś, co jeszcze wczoraj było zgodne z wytycznymi, dzisiaj może już nie obowiązywać, ale przecież osoba opisująca wczorajsze terapie mogła mieć rzetelną wiedzę i słuszne intencje – przyznaje w rozmowie z portalem sztucznainteligencja.org.pl Aleksandra Nabożny.
Ocena ekspertów
Doktorantka chce stworzyć bazę kontrowersyjnych informacji ze stwierdzeń niepopartych dowodami naukowymi, co w sposób częściowo zautomatyzowany pomoże odsiać z wyników wyszukiwania niewiarygodne artykuły. Algorytm może być używany również do certyfikowania tekstów medycznych.
– Na mojej uczelni temat wiarygodności treści online był badany przez kilka lat w ramach międzynarodowego grantu, w związku z tym jest tutaj kilku specjalistów z tego obszaru. Gdy wybierałam o czym napisać pracę magisterską, temat nasunął się sam. Różnica pomiędzy badaniami grantowymi, o których mowa, a moimi jest taka, że tamte prace skupiały się mocno na odczuciu wiarygodności przez odbiorców nie posiadających wiedzy eksperckiej. Moje natomiast to próba algorytmicznego odwzorowania oceny eksperckiej – wyjaśnia Aleksandra Nabożny.
Promotorem jej rozprawy doktorskiej jest dr hab. inż. Adam Wierzbicki, aktualny prorektor Polsko-Japońskiej Akademii Technik Komputerowych i prof. PJATK.
Obiecujące kierunki
Aby stworzyć algorytm badaczka przeanalizowała informacje na temat: szczepionek, amigdaliny zdobywającej popularność jako remedium na nowotwory, leczenia raka witaminą C, pigułek na odchudzanie, wyższości porodu naturalnego lub przez cesarskie cięcie. Dotychczas zgromadziła kilkaset artykułów, które pod względem rzetelności mają ocenić lekarze i studenci ostatniego roku studiów medycznych. Eksperci analizowali je w dwóch trybach: kontekstowym, znając treść całego tekstu, oraz losowym, w którym oceniali je bez kontekstu. Mieli do wyboru miary oceny zdania: wiarygodny, neutralny, niewiarygodny. Ta część prac ma pozwolić na ustalenie, ile kontekstu potrzeba, aby poprawnie ocenić jedno niepewne zdanie.
Do tej pory za niewiarygodne uznana została jedna trzecia zgromadzonych do analizy artykułów. Jak twierdzi prof. PJATK Andrzej Wierzbicki oraz dr Bartłomiej Balcerzak, współpracujący z doktorantką, docelowo zespół ma zamiar wykorzystywać algorytm również wobec tekstów dotyczących klimatu, ekologii i innych dziedzin specjalistycznych.
– Mam nadzieję, że moją pracę będzie można rozszerzać na inne dziedziny. Nie mam w planach zakładania start-upu, natomiast jeżeli ktoś z przemysłu będzie zainteresowany wdrożeniem podobnego rozwiązania na masową skalę, to chętnie z kimś takim porozmawiam – dodaje Nabożny. – To, czym się zajmuję, to przede wszystkim badanie najbardziej obiecujących kierunków, które później mogą zostać zaadaptowane w przemyśle. Sprawdzam na przykład, czy rozwiązania “neuronowe” (oparte o algorytmy głębokiego uczenia sieci neuronowych) nadają się do wykorzystania, czy lepiej skupić się na bardziej przejrzystych metodach regułowych. A jeżeli rozwiązania neuronowe, to jakie architektury, na jakich zbiorach trenowane? Jeżeli np. rozwiązania kombinowane (człowiek + maszyna), to jak powinien wyglądać interfejs dla eksperta wciągniętego do pętli weryfikacyjnej?
– Im więcej czasu spędzam nad tym projektem, tym więcej rodzi się nowych pytań i wątpliwości, które trzeba na bieżąco rozwiązywać. To żmudna praca badawcza – dodaje doktorantka. – Rozwiązanie nie jest gotowe; póki co prowadzone są prace w celu ustalenia najbardziej obiecującej ścieżki rozwoju. Teraz na przykład sprawdzam, jak radzą sobie najbardziej aktualne modele do określania semantycznego podobieństwa zdań w grupowaniu podobnych do siebie stwierdzeń z dziedziny medycznej i czy powstałe z użyciem takich modeli podobne pary mają też tę samą wiarygodność – mówiąc prościej, czy wiedząc, że A jest podobne do B, to czy możemy założyć, że B jest wiarygodne, jeżeli A jest wiarygodne? – tłumaczy Aleksandra Nabożny.