IBM szkoli swoje algorytmy rozpoznawania twarzy na publicznie dostępnych zdjęciach. Ale o zgodę sfotografowanych nie pyta
Algorytmy rozpoznawania twarzy, aby działać skutecznie, muszą być szkolone na potężnych bazach zdjęć. Kiedyś naukowcy tworzyli zestawy treningowe, mozolnie zbierając zdjęcia (i zgody na użycie wizerunku) od ochotników. Wraz z rozwojem internetu zdjęcia znanych ludzi, a potem także osób prywatnych, stały się łatwo dostępne. Skorzystali z tego twórcy oprogramowania, często niespecjalnie przejmując się opinią autorów i bohaterów zdjęć.
Chcieli dobrze, wyszło źle
Jak podaje NBC News, jest wśród nich IBM, który w styczniu udostępnił kolekcję niemal miliona zdjęć pozyskanych z serwisu Flickr. Firma zachęca twórców SI do używania bazy jako zestawu treningowego. Ma to poprawić rozpoznawanie twarzy osób w różnym wieku, różnych ras i narodowości i zmniejszyć tzw. stronniczość algorytmów (bias).
IBM bazował na kolekcji 100 milionów zdjęć udostępnionych przez właściciela Flickra, firmę Yahoo! Zawęził ją do miliona zdjęć, które zostały następnie opisane częściowo przez algorytmy, częściowo przez ludzi. Każdej twarzy przypisano prawie dwieście wartości, określając między innymi wymiary, wyraz, odcień skóry, płeć czy szacowany wiek.
Wszystkie wykorzystane zdjęcia zostały dodane do Flickra na licencji Creative Commons, co oznacza, że inne podmioty mogą z nich bezpłatnie korzystać. Mimo to część autorów zdjęć krytykuje poczynania IBM. Zauważają, że licencja Creative Commons pozwala na użycie tylko do celów niekomercyjnych. I wątpią, by firma nie miała z ich użycia żadnych zysków.
Podejrzliwi aktywiści
Firma zastrzega, że baza nie łączy wizerunków z danymi umożliwiającymi identyfikację fotografowanych osób. Jednak naukowcy i działacze zajmujący się prawami obywateli z podejrzliwością patrzą na postępowanie IBM.
Eksperci cytowani przez NBC News zauważają, że osoby udzielające zgody na publikację wizerunku na Flickrze nie mogły zakładać, że ich twarz zostanie użyta do stworzenia technologii, która może być wykorzystana np. w celu inwigilacji mniejszości etnicznych.
Autorzy materiału przypominają, że po atakach 11 września IBM sprzedał nowojorskiej policji narzędzie pozwalające kamerom monitoringu wyszukiwać ludzi o określonym odcieniu skóry i kolorze włosów.
Jak zauważa NBC News, to tylko jeden z wielu przypadków szkolenia algorytmów rozpoznawania twarzy na udostępnianych badaczom bazach zdjęć. Niektóre z nich mają wiele mówiące nazwy: MegaFace, CelebFaces czy Faces in the Wild. Wielu badaczy pobierało zdjęcia bezpośrednio z internetu bez zgody i wiedzy autorów i osób na nich widniejących.