Nie będziemy budować broni i technologii do szpiegowania ludzi – zapewnia dyrektorka wykonawcza w Google’u. A miesiąc później mówi, że jej firma chce wpłynąć na wybory prezydenckie w USA
Słuchając zapewnień Jen Gennai o tym, jak Google dba o pozytywny wpływ sztucznej inteligencji na świat, można by dać się oczarować. Ale ponieważ własną radę etyki sztucznej inteligencji gigant z Doliny Krzemowej rozwiązał niespełna dwa tygodnie po jej powołaniu, dla wielu przestaje on już być zbyt wiarygodny.
Pozytywny wpływ na świat
Na majowej konferencji Impact’19 w Krakowie, której była jednym z gości, Jen Gennai, kierująca w Google’u zajmującym się etyką SI tzw. zespołem odpowiedzialnych innowacji, też czarowała:
– Chcę wam pokazać, jak sztuczna inteligencja rozwiązuje problemy już dzisiaj. Częścią mojej pracy jest dopilnowanie, by Google pracował nad technologią sztucznej inteligencji, która ma pozytywny wpływ na świat.
Ostatnio Amerykanka coraz częściej udziela się w rozmaitych wydarzeniach związanych z SI i jej etycznym stosowaniem, mimo iż od pewnego czasu jej firma właśnie w tym kontekście jest głośno krytykowana. W oczach gospodarzy sympozjów wydaje się jednak wiarygodna, bo to m.in. jej opinie spowodowały, że Google zrezygnował z kontynuowania wartego wiele milionów dolarów projektu na rozwiązania z dziedziny SI dla Pentagonu.
Wszyscy zostali wkręceni
Film opublikowany pod koniec czerwca przez organizację Project Veritas, na którym nagrana z ukrycia Gennai w prywatnej rozmowie w restauracji omawia politykę informacyjną macierzystej firmy, znacznie komplikuje sprawy. Amerykanka przyznaje na nim bowiem, że Google trenuje swoje algorytmy tak, by w przyszłorocznych wyborach prezydenckich w USA „zapobiec powtórzeniu się wyników wyborów w 2016”.
W 2016 roku wszyscy zostaliśmy wkręceni, nie tylko my, ale i ludzie, ludzie zostali wkręceni, media informacyjne zostały wkręcone
– W 2016 roku wszyscy zostaliśmy wkręceni, nie tylko my, ale i ludzie, ludzie zostali wkręceni, media informacyjne zostały wkręcone – dodaje.
Ta wypowiedź ściągnęła na głowę jej i Google’a potężną falę krytyki w USA – za plan manipulowania procesem wyborczym i opinią publiczną. Krytyki tym gwałtowniejszej, że film, udostępniony na YouTube, szybko z tej platformy usunięto. Dziś jednak jest znowu dostępny.
Pewien rodzaj faszyzmu
Sama Gennai tłumaczy się dziś, że w rozmowie użyła „nieprecyzyjnego języka”, a Project Veritas zmanipulował nagranie, by zniekształcić jej słowa i działania jej pracodawcy.
Project Veritas też odpowiedział wywiadem. Zamaskowany (w kominiarce, ze zmodulowanym głosem) aktywista tej organizacji mówi, że w całej tej historii najbardziej przerażające jest to, że to Google decyduje dziś, co jest ważne, a co nie.
– To przypomina pewien rodzaj faszyzmu – stwierdza mężczyzna.
Co z tą etyką?
Podczas krakowskiej konferencji, miesiąc przed wybuchem skandalu, Amerykanka, dużo mówiąc o standardach etycznych, zdawała się wyrażać nader precyzyjnie. Podkreślała rolę etycznych regulacji określających działanie sztucznej inteligencji i zaleciła, by stosowało się do nich jak najwięcej podmiotów. Zapewniała, że produkty Google’a nie wzmacniają ani nie propagują nieuczciwych uprzedzeń i stereotypów.
– Za sprawą tych zasad Google jest ostrożny i rozważny w upowszechnianiu sztucznej inteligencji – mówiła, uwodząc krakowską publiczność promiennym uśmiechem. – Chcemy mieć pewność, że dostarczamy społeczeństwu przydatne technologie, nie tworzymy i nie podtrzymujemy uprzedzeń. Dlatego testujemy nasze rozwiązania, nim udostępnimy je użytkownikom. Nie będziemy budować broni, technologii używanej do monitorowania i szpiegowania ludzi.
Giganci pod lupą
Niedługo po ujawnieniu nagrań Gennai, gdy szum nad sprawą zrobił się już ogromny, senator Teksasu Ted Cruz przesłuchał Maggie Stanphill, dyrektor Google User Experience. Po przesłuchaniu zaś stwierdził, że nagranie i raport Project Veritas rodzą bardzo poważne pytania o polityczne uprzedzenia.
Ale na tym nie koniec. Biały Dom podał w oświadczeniu, że na zaplanowany na 11 lipca Social Media Summit zaprosi grupę „cyfrowych liderów”, by zbadali „strategiczne wyzwania dzisiejszego środowiska online”. Głos zabrał też prezydent Donald Trump, stwierdzając m.in., że Twitter blokuje użytkownikom mediów społecznościowych śledzenie jego konta.
– Powinniśmy pozywać Google’a i Facebooka, i te wszystkie duże firmy. Być może tak zrobimy – powiedział.
Bunt i „wyciąganie wtyczki”
Sytuacja Google’a wydaje się jednak najtrudniejsza nie tylko z powodu skandalu z nagraniem Gennai. Problemów tej firmy z własną wiarygodnością w kwestiach etyki zdaje się też dowodzić pospieszne rozwiązanie przez nią w kwietniu wewnętrznego zespołu ds. etyki. Miał się on zajmować doradztwem w dziedzinie uczenia maszynowego.
Zacznijmy traktować Google’a jak światową potęgę, a nie tylko firmę technologiczną
Niczym się nie zajął, bo na pokładzie Google’a wybuchł bunt części załogi i przez media przetoczyła się potężna fala krytyki pod adresem firmy. W etycznej radzie znalazła się bowiem m.in. 69-letnia Kay Coles James, niedawna członkini Partii Republikańskiej, znana m.in. z działalności przeciw ruchowi LGBTQ, imigrantom i prawu do aborcji.
Prof. Joanna Bryson, była członkini etycznej rady Google’a, zaraz po rozwiązaniu rady skrytykowała koncern za to, że się nie bronił, tylko po prostu „wyciągnął wtyczkę”. Trzy tygodnie temu, podczas konferencji CognitionX, zasugerowała, by rządy współpracowały z Google’em w kształtowaniu przyszłości SI.
Pogodzić się z gigantem
– Zacznijmy traktować Google’a jak światową potęgę, a nie tylko firmę technologiczną, (…) która musi angażować się we współdziałanie ze wszystkimi stronami politycznego spektrum – zaapelowała prof. Joanna Bryson.
Tym samym zasugerowała, że incydent z radą etyki Google’a powinien skłonić ustawodawców na całym świecie do zastanowienia się, w jaki sposób należy uregulować działalność koncernu, biorąc pod uwagę ogromny zasięg międzynarodowy tej firmy.
A takie zadanie to za duża sprawa, by poradził z nią sobie rząd jednego kraju. Nawet tak dużego, jak Ameryka.
Zasady etycznej SI według Google’a
Sztuczna inteligencja ma:
1. przynosić korzyści społeczeństwu;
2. nie tworzyć i nie utrwalać niesprawiedliwych stereotypów;
3. być budowana i testowana pod kątem bezpieczeństwa;
4. być kontrolowana przez ludzi;
5. uwzględniać zasady ochrony prywatności;
6. trzymać się wysokich standardów naukowych;
7. być wykorzystywana w sposób, który nie jest sprzeczny z tymi zasadami.