Jeśli zadbamy o to, by trenować algorytmy na obiektywnych, nieuprzedzonych danych, to jest szansa, że nawet uprzedzeni ludzie zaczną z ich pomocą podejmować lepsze decyzje – mówił dr Vince Madai z Uniwersyteckiego Szpitala Klinicznego Charité w Berlinie podczas spotkania HumanTech
O uprzedzeniach sztucznej inteligencji, po której spodziewaliśmy się, że będzie niewinna niczym tabula rasa, a tymczasem co i rusz wyskakuje a to z rasizmem (platforma Google, która zidentyfikowała czarnoskórą parę na zdjęciu jako parę goryli), a to z seksizmem (program rekrutacyjny Amazona, który faworyzował mężczyzn) dyskutowali 11 grudnia uczestnicy spotkania na Uniwersytecie SWPS w Warszawie. A także o potrzebie staranności, z jaką powinniśmy pochylać się nad danymi, którymi karmimy algorytmy sztucznej inteligencji i potrzebie różnorodności wśród tych, którzy je tworzą. Dziś, jak wiadomo, przeważają wśród nich biali, heteroseksualni mężczyźni z kilku najbogatszych krajów świata.
Potrzebna różnorodność
Wiadomo, że potrzebny jest tu bardziej sprawiedliwy podział, choć zaraz pojawia się bardzo trudne pytanie: co to znaczy sprawiedliwy? Idea jest taka, żeby wśród tych, którzy kształtują ten świat, byli przedstawiciele wszystkich ras, płci, orientacji seksualnych i różnych światopoglądów, bo też ludzie, odbiorcy tej technologii, bywają różni. Wiadomo, że taką równowagę, która odzwierciedlałaby rzeczywiste proporcje tych grup w społeczeństwie trudno będzie osiągnąć. Jest to wizja raczej utopijna, a jednak do niej właśnie musimy dążyć, zupełnie tak samo jak dążymy do innych platońskich cnót bez przesadnej nadziei na ostateczny sukces.
W ramach spotkania zatytułowanego „Technologiczne i etyczne aspekty SI” odbyły się cztery wykłady: dra Vince Madai’a , dra Sebastiana Szymańskiego z UW, Łukasza Bargiełowskiego z F5 Networks i Malte Pietsch z Deepset, a także dwa panele dyskusyjne, poprowadzone przez Leona Ciechanowskiego z Centrum Human Tech i Kubę Piwowara z SWPS-u.
Rozstrzał tematów był spory: od wpływu sztucznej inteligencji na rynek pracy przez najnowsze modele przetwarzania języka naturalnego, na etyce sztucznej inteligencji kończąc. Ale też taka jest idea tych interdyscyplinarnych spotkań: zbliżenie technologii i nauk społecznych, spojrzenie na sztuczną inteligencję i nowe technologie z różnych perspektyw.
Z pewnością potrzeba publicznej dyskusji na temat, edukacji, a także regulacji prawnych, które wprowadziłyby sprawiedliwe zasady dostępu do SI, wymogły przejrzystość podjętych przez nią decyzji, a także wyznaczyły tych, którzy są odpowiedzialni za ewentualne pomyłki.
Ciekawe statystyki przytoczył dr Sebastian Szymański z wydziału Artes Liberales Uniwersytetu Warszawskiego. Otóż regulacje prawne dotyczące etycznych aspektów sztucznej inteligencji tworzy się głównie w Stanach Zjednoczonych (21), Unii Europejskiej (19), Wielkiej Brytanii (13) i Australii (4), a w sumie jest ich raptem 84. Co z resztą świata? W dodatku tylko połowa z nich powstała w instytucjach rządowych; reszta pochodzi z prywatnych firm. Tylko czy prywatna firma, kierująca się swoim interesem, powinna decydować o tym, co jest dobre, a co złe?
Fake newsy SI wykryje tylko SI
Druga część spotkania upłynęła pod hasłem NLP. O transfer learning (po polsku: transfer początkowych wartości wag), czyli wykorzystywaniu wstępnie wytrenowanej sieci neuronowej do rozwiązywania nowego problemu opowiadał Malte Pietsch z firmy Deepset, która rozwija nowatorskie modele NLP dla biznesu.
Zrozumienie języka naturalnego jest dla programów komputerowych wielkim wyzwaniem, ale ostatnimi czasy uczą się szybko. W 2018 roku Google opracował metodę Bidirectional Encoder Representations from Transformers, czyli w skrócie BERT. BERT okazał się niezwykle sprawny w „rozumieniu” języka, a informacja o tym, co potrafi, trafiła nawet na pierwsze strony gazet. Osiągnął bowiem w testach ponad 80 punktów na 100, czyli taki wynik jak większość ludzi.
Równolegle rozwijają się programy wykrywające fake newsy, które są, jak wiadomo, plagą współczesnych środków przekazu. Sztuczna inteligencja potrafi w ciągu kilku sekund wygenerować poprawny artykuł. Żeby nam to zaprezentować, Malte Pietsch wpisał w wyszukiwarkę platformy Grover zdanie „Angela Merkel została zaatakowana przez prawicowców” i po paru sekundach pojawił się sążnisty artykuł na ten temat, od razu z tytułem, autorem, datą publikacji i źródłem wiadomości.
Wygląda na to, że tak dobrze skonstruowane fake newsy jest już w stanie wykryć tylko inna sztuczna inteligencja. Generating aRticles by Only Viewing mEtadata Records, w skrócie Grover, platforma stworzona w Allen Institute of Artificial Intelligence na University of Washington w Seattle, wykrywa 97 proc. maszynowych i 98 proc. ludzkich fałszywek. Jest tak skuteczna właśnie dlatego, że sama potrafi je świetnie tworzyć – w dowolnym stylu.
– Okazuje się, że artykuł wygenerowany przez Grovera jest przez nas odbierany jako bardziej wiarygodny niż fake news stworzony przez człowieka. Maszynowa propaganda jest już lepsza i tańsza, a jej wpływ może być olbrzymi – podsumował Pietsch. Tym to sposobem dyskusja zatoczyła zgrabne koło i powróciła do źródeł: zagadnień etycznych i społecznych.
17 grudnia odbędzie się kolejne spotkanie z tego cyklu zatytułowane „Śladami Big Data”. Gośćmi będą tym razem dr Michał Kosiński z Uniwersytetu Stanforda i dr Mirosław Sopek z MakoLab.