- Człowiek, budując maszyny wkłada w nie własne, często ukryte uprzedzenia
- Podświadomie mniej boimy się maszyn w jasnych obudowach
- Twórcy powinni dbać o różnorodność robotów, by eliminować negatywne zjawisko
Czy ludzie mają uprzedzenia rasowe do robotów? Badacze twierdzą, że tak. I tym tłumaczą fakt, że większość inteligentnych maszyn społecznych ma obudowy w jasnych kolorach.
Nie od dziś wiadomo, że sztuczna inteligencja miewa rasistowskie, seksistowskie i homofobiczne podejście do ludzi. Przykładem jest platforma rozpoznawania obrazów Google Photos, która identyfikowała czarnoskórych na zdjęciach jako goryli, a aplikacja Flickr jako małpy. Amazon skonstruował program rekrutacji, który faworyzował mężczyzn. A sztuczna inteligencja wykorzystywana przez kilka banków do oceny kredytobiorców w Stanach Zjednoczonych dyskryminowała Latynosów. Przykłady można mnożyć. Teraz naukowcy postanowili sprawdzić czy istnieje zjawisko odwrotne.
Tym bardziej odrażające
Efekt „doliny niesamowitości”, który zbadał i opisał w 1970 roku japoński inżynier i konstruktor robotów Masahiro Mori, wtedy profesor robotyki w tokijskim Instytucie Technologicznym, dotyczy emocjonalnej reakcji ludzi na wygląd zewnętrzny robotów. Na czym polega? Z początku gdy robot coraz bardziej przypomina człowieka, tym sympatyczniejszy się wydaje. Jednak jest granica, za którą zbliżona wyglądem i zachowaniem do człowieka maszyna wywołuje strach, odrazę i wstręt.
Ten spadek komfortu przebywania w towarzystwie humanoidalnego robota, nazwany został „doliną niesamowitości”. Ruch robota zbliżony do ludzkiego pogłębia dolinę i zaostrza jej zbocza. Im bardziej robot przypomina człowieka, tym jest dla nas mniej przyjemny. Okazuje się też, że podświadomie wolimy i mniej boimy się robotów o jasnych powłokach.
Biały jest lepszy?
Sophia o twarzy wzorowanej na Audrey Heppburn ma jasną, silikonową skórę. Pokrywy Atlasa są białe, podobnie jak robotycznej pielęgniarki Moxi. Rosyjski FEDOR jest stalowo-szary, a Tengai, robot rekruter, w którym wyeliminowano ludzkie uprzedzenia wobec płci, rasy czy wyglądu, ma alabastrową karnację.
Prawie wszystkie filmowe, fabularne historie z robotami w roli głównej czy w tle pokazują nam maszyny o białym lub metalicznym „ubarwieniu”. Wszystko wynika ze stereotypów. Temat nie jest nowy, ale co jakiś czas powraca. Ostatnio naukowcy z Nowej Zelandii przeprowadzili na ten temat badania.
Czarny jest zły?
„Czarne lustro” to serial science fiction o niedalekiej przyszłości, w którym nowe technologie będą miały przerażające konsekwencje dla życia człowieka. W filmach serii Netflixa pozbawiają nas godności, niezależności, podważają wartości społeczne, wyzwalają niekontrolowaną przemoc.
W jednym z odcinków serialu czarnym charakterem jest mały, niekomunikatywny robot, uzbrojony w pistolet umieszczony w przedniej części nogi. Porusza się na czterech odnóżach i jest czarnej maści. Ściga kobietę desperacko uciekającą przez las. Jeśli ktoś kontroluje robota, nie jest to ujawnione, maszyna wygląda, jakby działała sama. Dlaczego jest czarny i tak przerażający? Białego balibyśmy się mniej, czy mniej pasowałby do roli oprawcy?
Głębokie korzenie
Gdy Hanson Robotics wyprodukował Binę48, pierwszego humanoidalnego, sztucznie inteligentnego robota o ciemnej karnacji, można by pomyśleć, że to ze względu na chęć udowodnienia, że człowiek nie ma uprzedzeń rasowych wobec robotów. Wcale tak nie było.
Właścicielem Biny jest fundacja Terasem Movement, prowadząca projekt badawczy, sprawdzający możliwość przedłużenia życia ludzkiej osobowości. To coś na kształt pozagrobowej egzystencji dla ludzkiego ducha. Binie48, gadającemu popiersiu o afroamerykańskich rysach, swój wizerunek wraz ze wspomnieniami, opiniami, przekonaniami przekazała prawdziwa ciemnoskóra Bina Rothblatt.
Ta współzałożycielka fundacji Terasem Movement, przesłała uczącemu się systemowi setki godzin samej siebie w różnych nagraniach. Po co? W Terasem Movement wierzą, że jeśli kiedyś uda się odtworzyć ludzkie ciało, to będzie można implementować w nie zachowane cyfrowo cechy charakteru i osobowość właściciela.
Binie48, gadającemu popiersiu o afroamerykańskich rysach, swój wizerunek wraz ze wspomnieniami, opiniami, przekonaniami przekazała prawdziwa ciemnoskóra Bina Rothblatt
„Niechęć do czarnych robotów jest wynikiem uprzedzeń wobec Afroamerykanów” – przyznał główny autor badań nad rasizmem wobec robotów prof. Christoph Bartneck. Zespół badaczy z Uniwersytetu Canterbury w Nowej Zelandii pod jego przewodnictwem zaprosił do udziału w badaniu 163 ochotników. Zastosowali tak zwany paradygmat nastawienia strzelca, zadali im również szereg szczegółowych pytań. Żaden z uczestników nie był jawnym rasistą, ani też nie miał wobec ciemnoskórych zidentyfikowanych obiekcji.
Wyczuć zagrożenie
„Odchylenie strzelca” to koncepcja, mająca na celu ustalenie, czy policjanci częściej strzelają do osób, które nie są białe, niezależnie od rzeczywistego zagrożenia życia. Bartneck i jego zespół pokazali uczestnikom serię zdjęć: człowieka i robota, uzbrojonych i nieuzbrojonych, czarnych i białych. Badani wciskali przycisk, jeśli zauważali zagrożenie, symulując pociągnięcie za cyngiel pistoletu. Następnie badacze sprawdzili, czy uczestnicy poprawnie zidentyfikowali agresorów, a jeśli zdecydowali się odstrzelić domniemanego wroga, badano czas między obejrzeniem obrazu a naciśnięciem przycisku.
Okazało się, że do nieuzbrojonych czarnych robotów strzelano częściej niż do białych. Uczestnicy badania strzelali do nich również szybciej, co wskazuje raczej na instynktowną reakcję niż ocenę informacji wizualnej.
„To uprzedzenie jest zarówno wyraźnym przejawem rasizmu wobec czarnoskórych, jak i automatycznością jego rozszerzenia na czarne roboty” – twierdzą autorzy raportu, opublikowanego przed kilkoma tygodniami.
Rzeczniczka afromaszyn
Swego rodzaju „rzeczniczką” polityki tożsamości jest ciemnoskóra maszyna Bina48, a fundacja Terasem Movement w jej rozwój i wspomnienia o przypadkach rasowej dyskryminacji angażuje znane ciemnoskóre postacie, jak Whoopi Goldberg czy Morgan Freeman.
Bruce Duncan, dyrektor zarządzający Terasem Movement stwierdził w rozmowie z Medium, że „teraz, gdy budujemy architekturę przyszłości SI, nadszedł czas, aby upewnić się, że jest reprezentatywna i różnorodna”. Konstruowanie wyłącznie białych robotów porównał do ratowania wyłącznie czterech gatunków roślin lasu deszczowego. Jak dodał, byłaby to ogromna niesprawiedliwość i krzywda dla nas samych.