Chiny trochę mnie przerażają. Nie mają żadnych hamulców przed zbieraniem danych. Nie używają nawet dokumentów tożsamości, tylko skanują twarz na posterunku policji. Coś takiego w Europie się nie wydarzy – mówi dr Anne Elster w rozmowie z Maciejem Chojnowskim
Maciej Chojnowski: Gdy korzystamy z inteligentnych narzędzi, jak Asystent Google czy wyszukiwarka, zazwyczaj nie zdajemy sobie sprawy, czego trzeba, by działały. Mamy urządzenie lub aplikację i wszystko wydaje się łatwe. Czy jednak stosowane w nich technologie sztucznej inteligencji byłyby możliwe bez obliczeń dużej mocy (High Performance Computing, HPC)?
Dr Anne Elster*: Wszystko zależy od tego, jak zdefiniujemy sztuczną inteligencję i HPC. Na ogólnym poziomie odpowiedziałabym: nie, oczywiście, że nie. Czy przetwarzanie języka potrzebne do rozpoznawania mowy byłoby możliwe bez obliczeń dużej mocy? Zapewne nie.
Dzisiejsze inteligentne urządzenia wykorzystujące SI mają związek ze zbiorami wielkich danych. By wytrenować system do rozpoznawania mowy, potrzeba ich naprawdę dużo.
A do przetwarzania tych danych potrzebujemy superkomputerów?
Tak – albo przynajmniej dużych mocy obliczeniowych. Myślę, że kwestia ilości danych potrzebnych do tego, by SI mogła dobrze działać, jest za słabo akcentowana. Sztuczna inteligencja to bardzo szerokie pojęcie, ale jeśli skupimy się na uczeniu maszynowym, sieciach neuronowych i uczeniu nadzorowanym, to potrzeba do tego naprawdę wielkich zbiorów danych.
W przypadku SI trzeba też pamiętać o kategoryzacji danych, Big Data. Kiedy kategoryzacje są gotowe, służą jako punkty odniesienia. Ale nawet wtedy jest to spore wyzwanie – przecież nie zainstalujesz superkomputera w autonomicznym samochodzie. Jeśli takie auto ma jeździć, potrzeba bazy danych.
Superkomputery są potrzebne do wstępnego przetwarzania, służącego budowaniu modeli.
By pojazdy rozpoznawały sytuacje na drodze?
Tak. Sytuacje są „wbudowane” w system, ponieważ on już widział większość z nich. Oczywiście, zawsze istnieje niebezpieczeństwo, jak taki autonomiczny system zareaguje. Nieprzewidywalne zachowania, nietypowe sytuacje – to zawsze wyzwanie. I sztuczna inteligencja musi sobie z tym radzić.
Jednak największe wyzwanie nie jest natury technicznej, ale etycznej. Dylematy etyczne czy prawne biorą się stąd, że to, które zachowania uznajemy za właściwe, ma podłoże kulturowe. Wyobraźmy sobie, że matka z dzieckiem jedzie autonomicznym samochodem, a na jezdnię wchodzi starsza kobieta, grupa wygłupiających się dzieciaków i kilku narkomanów. Jeśli pojazd ma wybór, to kogo powinien poświęcić? Kogoś z ulicy? Trzeba podjąć jakąś decyzję. Jeśli ma być podjęta przez sztuczną inteligencję, to jakie będą jej prawne konsekwencje? To etyczne dylematy niełatwe do rozwiązania.
Największa różnica między Europą a USA polega na tym, że w Stanach, gdy ktoś pozyska twoje dane, tracisz do nich dostęp. A w Europie możesz przynajmniej powiedzieć, że to twoje dane i chcesz, by je usunięto z bazy
Wybór może być uwarunkowany kulturowo. W Polsce niektóre zasady są inne niż w USA czy w Chinach. Szczególnie w Chinach – tam inaczej patrzy się na kulturę. Miałam trochę do czynienia z ludźmi z Huawei. Wydawali się nie rozumieć, dlaczego Norwegowie są tacy wyczuleni na prywatność. Ich zdaniem nie powinniśmy się nią przejmować, bo jeśli mamy coś do ukrycia, to znaczy, że jesteśmy przestępcami. My w Norwegii po doświadczeniach z nazizmem widzimy to inaczej.
Kolejna sprawa to stosunek do wieku. W niektórych kulturach zdecydowano by się ocalić raczej młodą osobę niż starszą, ponieważ w młodych widzi się przyszłość. Tymczasem inne kultury wyżej od młodych stawiają ludzi starszych, bo są oni uważani za źródło mądrości, której brakuje młodym. Co więcej, w starych społeczeństwo już zainwestowało.
Zachód ma inne podejście do prywatności niż Wschód.
Oczywiście, choć podejście do prywatności także tutaj się zmienia. Kiedy w latach 80. przyjechałam do Stanów Zjednoczonych, byłam zszokowana, że mój rachunek za telefon zawierał wyciąg z rozmów, które przeprowadziłam, włącznie z czasem trwania i numerem, z którym się kontaktowałam. Pomyślałam: Cóż za naruszenie prywatności! W tamtym czasie w Norwegii byłoby to niedopuszczalne. A dziś wszyscy takie rzeczy akceptują. Poziom przyzwolenia na ingerencję w prywatność zmienił się. Właściwie cały czas się zmienia. Jestem pewna, że podobnie jest w Polsce.
Największa różnica między Europą a USA polega na tym, że w Stanach, gdy ktoś pozyska twoje dane, tracisz do nich dostęp. A w Europie możesz przynajmniej powiedzieć, że to twoje dane i chcesz, by je usunięto z bazy. Choć, przyznajmy, RODO nie jest lekarstwem na wszystkie nasze bolączki.
Wróćmy do autonomicznych pojazdów. Czy damy radę współdziałać z autonomicznymi maszynami? A może powinno się dla nich wydzielić osobne obszary?
To jasne, że niedługo liczba wypadków zmaleje, jeśli nie będą w nich brali udziału ludzie. Mamy więc kolejny dylemat etyczny.
Rocznie na świecie dochodzi do ponad miliona wypadków drogowych! Milion poszkodowanych na drogach to więcej niż ofiar niejednej wielkiej wojny czy katastrofy. Ludzie nie zdają sobie sprawy z tego, że najbardziej niebezpieczną czynnością, jaką wykonują, jest prowadzenie samochodu.
Brzmi dramatycznie.
Bardzo. Czy więc mamy moralny obowiązek to naprawić? A jeśli autonomiczne samochody to właściwy sposób, to czy powinny poruszać się po specjalnych pasach? Być może. Pytanie tylko, kogo powinno się chronić: ludzi przed autonomicznymi pojazdami czy odwrotnie.
Na konferencji Supercomputing Frontiers Europe 2019 w Warszawie wspomniała pani dr Geneverę Allen z Uniwersytetu Rice’a, która zajmuje się odtwarzalnością badań w dziedzinie uczenia maszynowego. Czy kłopot z odtwarzaniem wyników badań to głównie specyfika uczenia maszynowego, czy może szerszy problem, który tylko częściowo łączy się z SI?
Ten problem występuje w przypadku każdego artykułu z dziedziny informatyki! I sprawa tylko się pogarsza, ponieważ oprogramowanie jest bardzo złożone. Ludzie nie precyzują, jakich kodów używają. Nie informują nawet o wykorzystywanej wersji systemu czy biblioteki. Wszystko zmienia się tak szybko, że niemal niemożliwe jest powtórzenie testowania wzorcowego. Wszyscy ekscytują się benchmarkami, ale jakie jest prawdopodobieństwo przeprowadzenia dokładnie takiego samego testu?
Europa powinna jednak pozostać wierna temu, w co wierzy. Nie sądzę, byśmy chcieli społeczeństwa, w którym rząd i wielkie korporacje nas kontrolują
Problem z odtwarzalnością wyników badań ma jeszcze jeden aspekt. W przypadku uczenia maszynowego nie wiemy dokładnie, jak ani dlaczego zaszło dane wnioskowanie. Bo model został stworzony maszynowo. Jeśli uzupełni się zbiór danych lub skorzysta z innego, może powstać zupełnie inny model z innymi wynikami. To bardzo denerwuje i martwi większość z nas.
Teraz więc mamy próby wyjaśniania, jak to działa, szczególnie w dziedzinie uczenia ze wzmocnieniem.
Pracuje pani i w Europie, i w USA. Są dwa globalne supermocarstwa technologiczne, Chiny i USA. Europa robi, co może, by dogonić tych dwóch gigantów: mamy program Cyfrowa Europa, EuroHPC, mamy etyczną SI. Odmienne podejście do technologii ma nam zapewnić przewagę konkurencyjną. Czy Europa też może stać się technologicznym supermocarstwem?
Chiny trochę mnie przerażają. Nie mają żadnych hamulców przed zbieraniem danych. Nie używają nawet dokumentów tożsamości, tylko skanują twarz na posterunku policji. Coś takiego w Europie się nie wydarzy, choć właściwie jeśli chińskie firmy zbierają dane na nasz temat, to może już idziemy w tamtym kierunku… Firmy, które gromadzą nasze dane bez względu na to, czy o tym wiemy lub czy nam się to podoba, to poważny problem.
Obecnie w Chinach kształci się więcej specjalistów i badaczy z obszaru informatyki niż we wszystkich pozostałych państwach razem wziętych. To powinno nas niepokoić. Ktoś powie, że Chiny nie są aż tak wydajne ani innowacyjne. Ale czy to się nie zmieni? Czy ich struktura społeczna będzie zawsze ograniczeniem rozwoju?
W USA i Europie struktura społeczna jest podobna, także w Stanach ludzie martwią się prywatnością. Nie bez przyczyny wybuchło tyle skandali wokół Facebooka, Google’a czy National Security Agency. Oczywiście, nasze prawo jest bardziej restrykcyjne niż amerykańskie. Ale musimy znowelizować je tak, by odzwierciedlało sposób, w jaki chcemy sobie radzić z wpływem tych ogromnych korporacji oraz agend rządowych. Bo czy to w porządku, że mogą przetwarzać i analizować nasze dane, by kierować do nas spersonalizowane komunikaty i wpływać na nasze zachowanie?
Czy europejskie, etyczne podejście do technologii rozprzestrzeni się na cały świat?
W Chinach nawet tego nie zauważają. Europa powinna jednak pozostać wierna temu, w co wierzy. Nie sądzę, byśmy chcieli społeczeństwa, w którym rząd i wielkie korporacje nas kontrolują.
Tyle że nie pozwalając firmom na zbieranie danych na nasz temat, możemy utrudnić rozwój sztucznej inteligencji. Tymczasem Chiny dzięki wsparciu ze strony rządu będą zbierać tych danych coraz więcej – i o konsumentach, i o obywatelach.
Będziemy musieli być bardziej innowacyjni. Lubię dostrzegać pozytywne strony spraw. My także możemy mieć przewagę, nie rezygnując z naszych zasad.
*Dr Anne C. Elster – wykładowca na Wydziale Informatyki na Norweskim Uniwersytecie Naukowo-Technicznym w Trondheim, gdzie prowadzi laboratorium badawcze poświęcone obliczeniom heterogenicznym w obszarze High Performance Computing. Zajmuje też stanowisko Visiting Scientist na Uniwersytecie Teksańskim w Austin.
W pracy badawczej skupia się m.in. na równoległych obliczeniach dużej mocy oraz zastosowaniu uczenia maszynowego do optymalizacji kodu oraz przetwarzania obrazu. Jest członkinią Institute of Electrical and Electronics Engineers (IEEE). Brała udział w projektach z unijnego „Horyzontu 2020” i współpracowała m.in. z firmami ARM, Nvidia czy Statoil.
Dziękujemy organizatorom konferencji Supercomputing Frontiers Europe 2019 za pomoc w zaaranżowaniu rozmowy z dr Anne Elster.
Read the English version of this text HERE