Prof. Leszek Rutkowski: W minionej dekadzie SI rozwijała się w Polsce szybciej niż inne dziedziny badań

W ostatnim dziesięcioleciu metody sztucznej inteligencji rozwijały się w Polsce bardzo intensywnie, szybciej niż inne wątki badawcze w różnych dyscyplinach naukowych.

W Polsce od 1994 roku organizowana jest konferencja poświęcona tej tematyce. Konferencja zaplanowana na rok 2019 (16-20 czerwca), podobnie jak poprzednie, nosi nazwę The International Conference on Artificial Intelligence and Soft Computing. Od wielu lat materiały z tej konferencji są wydawane w ramach serii Springera Lecture Notes in Artificial Intelligence (materiały z konferencji w 2018 roku są dostępne tutaj: https://www.springer.com/us/book/9783319912523, https://www.springer.com/us/book/9783319912615).

W Polsce aktywne zespoły badawcze zajmujące się metodami sztucznej inteligencji skupione są wokół kilkunastu, a może nawet kilkudziesięciu liderów

W ciągu ostatnich 20 lat w konferencji brały udział prawie wszystkie zespoły badawcze zajmujące się metodami sztucznej inteligencji. W charakterze invited speakers występowali na niej najznakomitsi uczeni z całego świata, na przykład prof. Lotfi Zadeh, prof. Shun-Ichi Amari, prof. Ronald Yager czy prof. Jose Principe. Uczestnicy mieli więc okazję zapoznać się z wynikami badań czołowych uniwersytetów amerykańskich i japońskich oraz skonfrontować swoją wiedzę i tematykę badawczą z innymi naukowcami.

Liderzy i ich zespoły

W Polsce aktywne zespoły badawcze zajmujące się metodami sztucznej inteligencji skupione są wokół kilkunastu, a może nawet kilkudziesięciu liderów, z których poniżej wymienię jedynie niektórych:

Warto też wspomnieć o polskich uczonych pracujących za granicą w zakresie sztucznej inteligencji:

Dobrą ilustracją aktywności zespołów naukowych w Polsce w zakresie sztucznej inteligencji byłby przegląd tematyki laureatów konkursów Narodowego Centrum Nauki. Analizując np. konkursy OPUS i tematy realizowane w zakresie sztucznej inteligencji, można wyróżnić cztery obszary tematyczne:

  • przetwarzanie obrazów;
  • duże zbiory danych;
  • metody analizy i eksploracji danych;
  • zastosowania medyczne.

Interesująca byłaby też bardziej szczegółowa analiza tych tematów i ośrodków, w których one są lub były realizowane w ciągu ostatnich kilku lat:

Przetwarzanie obrazów

  1. „Metody detekcji i śledzenia obiektów w czasie rzeczywistym w oparciu o analizę map 3D oraz nienadzorowane uczenie cech”, AGH w Krakowie.
  2. „Rozpoznawanie obiektów w obrazach o słabej jakości z wykorzystaniem połączonych metod klasyfikacji wzorców oraz algorytmów rekonstrukcji informacji wizyjnej działających w trybie czasu rzeczywistego”, AGH w Krakowie.
  3. „Opracowanie metod i algorytmów detekcji zdarzeń nietypowych do rozpoznawania obiektów i analizy scen podwodnych”, AGH w Krakowie.
  4. „Odporne metody redukcji szumów mieszanych w barwnych obrazach cyfrowych”, Politechnika Śląska.
  5. „Efektywne metody percepcji sceny w czasie rzeczywistym w oparciu o analizę danych wielomodalnych oraz nienadzorowane uczenie cech”, AGH w Krakowie.
  6. „Konstrukcje zbiorów obrazów całkowych do szybkiej ekstrakcji cech i uczenia maszynowego w zadaniach detekcji”, ZUT w Szczecinie.

Duże zbiory danych

  1. „Semantyczne sieci tensorowe do analizy wielkich zbiorów danych”, Instytut Informatyki Teoretycznej i Stosowanej PAN.
  2. „Ekstrakcja niskowymiarowych faktorów ukrytych z dużych zbiorów nieujemnych danych”, Politechnika Wrocławska.
  3. „Modele, metody i algorytmy obliczeniowej nauki o sieciach”, Politechnika Wrocławska.
  4. „Strategiczna analiza sieci społecznych”, Uniwersytet Warszawski.

Metody analizy i eksploracji danych

  1. „Wykorzystanie metod kompozycyjnej semantyki dystrybucyjnej do identyfikacji i rozróżniania znaczeń w języku polskim”, Instytut Podstaw Informatyki PAN.
  2. „Nowe podejścia do efektywnego uczenia złożonych systemów inteligentnych”, Wyższa Szkoła Informatyki i Zarządzania w Rzeszowie.
  3. „Implikacje rozmyte i ich wpływ na różnorodne metody wykorzystywane w systemach inteligentnych”, Uniwersytet Śląski w Katowicach.
  4. „Metody klasyfikacji wieloklasowej danych niezbalansowanych”, Politechnika Wrocławska.
  5. „Parakonsystentne wnioskowanie w systemach autonomicznych usytuowanych w środowiskach złożonych informacyjnie”, Uniwersytet Warszawski.
  6. „Przetwarzanie analityczne i eksploracyjne danych sekwencyjnych: modele, algorytmy i struktury danych”, Politechnika Poznańska.
  7. „Algorytmy i metody dla platform Crowdsourcing nowej generacji”, Polsko-Japońska Akademia Technik Komputerowych.
  8. „Teoria analizy niekompletnych danych”, Uniwersytet Jagielloński.
  9. „Algorytmiczna i aksjomatyczna analiza systemów punktowania komitetów”, AGH w Krakowie.
  10. „Efektywne metody uczenia nienadzorowanego z zastosowaniami w głębokim nauczaniu”, Uniwersytet Jagielloński.
  11. „Głębokie architektury maszyn wektorów podpierających tworzone z wykorzystaniem algorytmów ewolucyjnych”, Politechnika Śląska.
  12. „Rozwój metod głębokiego uczenia sieci neuronowych”, Politechnika Częstochowska.
  13. „Algorytmy klasyfikacji niezbalansowanych strumieni danych”, Politechnika Wrocławska.
  14. „Specyfikacje ilościowe: uczenie się, algorytmy i zastosowania”, Uniwersytet Wrocławski.
  15. „Randomizowane metody uczenia sztucznych sieci neuronowych”, Politechnika Częstochowska.
  16. „Klasyfikacja z grupą otwartą na podstawie danych o dużej wymiarowości – z zastosowaniami w dziedzinie Text Mining”, Politechnika Wrocławska.

Zastosowania w medycynie

  1. „Algorytmy kompresji i analizy danych genomowych”, Politechnika Śląska.
  2. „Narzędzia bioinformatyczne do automatycznej identyfikacji obszarów guza i jego heterogeniczności na bazie profili metabolomicznych pozyskiwanych spektrometrycznymi technikami obrazowania molekularnego”, Politechnika Śląska.
  3. „Włączenie informacji o genetycznej różnorodności do analizy danych z sekwencjonowania DNA”, Uniwersytet Warszawski.
  4. „Nowe algorytmy do oceny struktur klonalnych oraz do modelowania niejednorodnych ewolucji dla zastosowań w genomice nowotworów”, Politechnika Śląska.
  5. „Metody wnioskowania gramatycznego w klasyfikacji białek amyloidowych”, Politechnika Wrocławska.
  6. „RNApolis – metody i algorytmy do modelowania i analizy struktury RNA”, Politechnika Poznańska.
  7. „Modele matematyczne i morfologiczne w problemach analizy i rekonstrukcji zmian nowotworowych nerek”, Politechnika Warszawska.
  8. „Kompresja wielkoskalowych kolekcji danych genomowych”, Politechnika Śląska.
  9. „Zastosowanie klasyfikatorów rozmytych działających na danych niepewnych, niepełnych i niezbalansowanych do predykcji zagrożenia pacjentki porodem przedwczesnym”, Instytut Techniki i Aparatury Medycznej ITAM.

Bardzo ciekawie wygląda konfrontacja tych tematów z tematyką realizowaną w najlepszych ośrodkach światowych, np. z laboratoriami Massachusetts Institute of Technology lub laboratoriami takich firm jak Google, Facebook lub Microsoft.

Wniosek jest następujący: tematyka realizowana na polskich uczelniach jest aktualna i koresponduje z tematyką czołowych laboratoriów światowych. Jedynie w zakresie autonomicznych inteligentnych robotów w mniejszym stopniu prowadzone są w Polsce intensywne badania. Odstajemy też od dynamicznie rozwijających się dziś czołowych ośrodków światowych w zakresie neuromorficznych komputerów, działających na takiej samej zasadzie jak ludzki mózg.


Materiał jest opracowaniem pracy prof. Leszka Rutkowskiego pt. „Rozwój Sztucznej Inteligencji w Polsce ze szczególnym uwzględnieniem instytucji i osób zajmujących się ww. tematyką w Polsce, jak również wskazanie kierunków rozwoju badań w tym obszarze oraz ich zastosowań na świecie” (Częstochowa 2018), przygotowanej dla OPI PIB.