Zachować twarz w e-świecie
Z obrazu twarzy człowieka można wyczytać jego poglądy polityczne. Taki wniosek wypływa z badań przeprowadzonych przez zespół naukowców pod wodzą Polaka, dr. Michała Kosińskiego z Uniwersytetu Stanforda, specjalistę w zakresie psychologii społecznej oraz psychometrii.
W 2013 r. jako pierwszy na świecie opublikował on badania na temat technologii, która pozwala przewidywać osobowość i inne cechy psychologiczne na podstawie facebookowych lajków. Wyniki przeprowadzonej przez niego analizy były szeroko komentowane w światowych mediach i doprowadziły do tego, że Facebook zmienił zasady prywatności dotyczące zdjęć profilowych użytkowników.
Co kryją social media
Podczas badań, których rezultaty opublikowano w 2021 r., uczestników zapytano o poglądy polityczne, wiek i płeć, zaś wizerunki ich twarzy zostały pozyskane z profili na Facebooku lub w popularnym serwisie randkowym. Naukowcy opracowali algorytm, mający za zadanie przewidzieć poglądy polityczne osób, które wzięły udział w badaniu właśnie w na podstawie ich zdjęć. Próbie poddano wizerunki dokładnie 1 085 795 osób z trzech krajów (Stany Zjednoczone, Wielka Brytania i Kanada). Okazało się, że pobrane fotografie zawierają wiele potencjalnych wskazówek dotyczących poglądów politycznych, począwszy od wyrazu twarzy i autoprezentacji po morfologię twarzy.
Jaki był efekt pracy algorytmu? W największej próbie obejmującej 862 770 użytkowników serwisów randkowych w USA orientację polityczną – konserwatywną albo liberalną – udało się prawidłowo sklasyfikować w przypadku 72 proc. osób. To lepszy wynik niż w sytuacji, gdy poglądy polityczne danej osoby definiują inni ludzie (wówczas trafność wynosi 55 proc.) i lepszy niż uzyskany po wypełnieniu 100-elementowego kwestionariusza osobowości (trafność rzędu 66 proc.). Podobną dokładność uzyskano w przypadku użytkowników serwisów randkowych w Kanadzie (71 proc.) i Wielkiej Brytanii (70 proc.). Sukces algorytmu nie ograniczył się do środowiska randkowego online – jego dokładność osiągnęła 73 proc. wśród amerykańskich użytkowników Facebooka.
To jednak nie koniec informacji, które można pozyskać, analizując ludzką twarz. Dr Michał Kosiński wraz innym naukowcem z Uniwersytetu Stanforda – Yilunem Wangiem udowodnił również, że algorytm rozpoznawania twarzy jest w stanie ocenić orientację seksualną człowieka i – tak jak w przypadku „skanowania” poglądów politycznych – robi to dokładniej niż ludzie.
Badacze wykorzystali głębokie sieci neuronowe, żeby wyodrębnić cechy z 35 326 obrazów ludzkiej twarzy. Następnie posłużyli się regresją logistyczną (jedna z metod regresji w statystyce, stosowana, gdy zmienna zależna jest na skali dychotomicznej, czyli przyjmuje tylko dwie wartości), aby dokonać klasyfikacji orientacji seksualnej osób przedstawionych na zdjęciach. Analizując jedną fotografię twarzy, algorytm potrafił prawidłowo odróżnić osoby homoseksualne od heteroseksualnych w przypadku 81 proc. mężczyzn oraz 74 proc. kobiet. Ludzki mózg okazał się znacznie mniej dokładny. Osoby, których zadaniem było dokonanie oceny orientacji seksualnej uczestników badania, miały słuszność w przypadku 61 proc. mężczyzn i 54 proc. kobiet. Jednocześnie dokładność stworzonego przez naukowców algorytmu wzrosła odpowiednio do 91 proc. i 83 proc., kiedy jego analizie poddano pięć fotografii twarzy jednej osoby. Cechy twarzy wykorzystane przez algorytm obejmowały zarówno cechy stałe (np. kształt nosa), jak i przejściowe (np. styl uczesania).
Unikalna tożsamość
Twarz jest ważnym elementem biometrii, rozpoznawania ludzi na podstawie cech fizycznych. Najbardziej powszechne jest wykorzystanie tego rozwiązania w smartfonach. Jeśli ktoś chce korzystać z takiego zabezpieczenia, powinien jednak sprawdzić, czy technologia zastosowana w określonym aparacie opiera się na obrazie 3D. Inaczej da się ją oszukać zwykłym zdjęciem, co wykazano w rozmaitych testach praktycznych.
Zwykły śmiertelnik może się również zetknąć z technologią rozpoznawania twarzy w portach lotniczych. Automatyczne bramki do kontroli granicznej zamontowano między innymi na lotniskach w Warszawie, Poznaniu i Wrocławiu. Wystarczy włożyć dokument biometryczny do czytnika, poczekać na skanowanie twarzy – i to wszystko. Taka kontrola może potrwać zaledwie kilkanaście sekund. Pasażer zyskuje czas, a strażnikom granicznym pozostaje tylko nadzorowanie całego procesu ABC (automated border control). Rozwiązania tego typu bywają jednak wspierane przez czytniki odcisków palców. Zasadniczo zaawansowana biometria daje niepodważalne wyniki, co jednak podwójne zabezpieczenie, to podwójne.
Osobną kategorią jest identyfikacja człowieka na podstawie siatkówki albo tęczówki oka. Nie jest rozwiązaniem powszechnym, a próbuje to zmienić m.in. polski start-up PayEye. Rozwija on płatności wzrokiem, które opierają się na identyfikacji tęczówki. Do swojej usługi firma z Wrocławia przekonała na razie blisko 60 partnerów. Wygodne płacenie wzrokiem jest kuszącą opcją, ale ma – zwłaszcza w Polsce – silną bezdotykową konkurencję. Zresztą również w postaci smartfonów.
Globalne sukcesy takich gigantów jak Facebook czy Google kuszą, pojawił się również chętny do zdominowania rynku ludzkich twarzy, jakkolwiek to zabrzmi. Chodzi o firmę ClearView AI z siedzibą w USA, której prezesem i współzałożycielem jest Hoan Ton-That, inżynier pochodzenia australijskiego i wietnamskiego (rodzina jego ojca ma wywodzić się z rodziny królewskiej Wietnamu).
Aplikacja ClearView AI przeszukuje internet – przede wszystkim media społecznościowe, ale nie tylko – i buduje bazę danych na podstawie udostępnionych fotografii ludzi. Pozwala to zleceniodawcy na podstawie wykonanego zdjęcia anonimowej osoby ustalić jej imię i nazwisko, a także wszelkie inne informacje, jeśli tylko ClearView AI do nich dotarła. Firma, jak twierdzi, ma ponad 20 mld zdjęć – i nadal je zbiera. Budzi to kontrowersje, sama spółka zapewnia, że jej celem jest współpraca z instytucjami publicznymi w celu przeciwdziałania łamaniu prawa i utrzymania bezpieczeństwa. Od połowy marca jej klientem stały się władze Ukrainy, usługi ClearView AI służą identyfikacji rosyjskich żołnierzy.
Moja twarz, moją twierdzą
W dobie wszechobecnych kamer monitoringu w miejscach publicznych rodzi się pytanie o problem inwigilacji w kontekście identyfikacji na podstawie twarzy. Nie umknął on uwadze instytucji, które mają stać na straży naszej prywatności. Polski Urząd Ochrony Danych Osobowych (UODO) przypominał, że dane biometryczne są chronione, a ich przetwarzanie obwarowane jest ograniczeniami. Nie może się ono odbywać m.in. z pominięciem zasady minimalizacji (określonej w art. 5 ust. 1 lit. c RODO). Zgodnie z nią administrator danych może pozyskiwać tylko te dane, które są niezbędne dla zrealizowania konkretnych celów. UODO przywoływał na przykład decyzję swojego holenderskiego odpowiednika z 2020 r., który podkreślił, że należy ocenić, czy identyfikacja za pomocą danych biometrycznych jest konieczna i proporcjonalna do celów uwierzytelniania lub bezpieczeństwa. Biometria może być na przykład wykorzystywana do kontroli wstępu do tych pomieszczeń, gdzie niezbędny jest bardzo wysoki poziom ochrony. W Szwecji i Francji podważono prawa szkół, które chciały ułatwić sobie kontrolę obecności uczniów poprzez identyfikację twarzy. Tu chodziło o brak dobrowolności zgody na takie działania.
Natomiast 28 stycznia 2021 r., w Dniu Ochrony Danych Osobowych, Komitet Konwencji nr 108 Rady Europy o ochronie osób w związku z automatycznym przetwarzaniem danych, przyjął „Wytyczne dotyczące rozpoznawania twarzy”, w celu „zapewnienie nienaruszalności godności ludzkiej, praw człowieka i podstawowych wolności każdej osoby, w tym prawa do ochrony danych osobowych”. Są one adresowane do ustawodawców i decydentów, twórców, producentów i dostawców usług oraz podmiotów wykorzystujących technologie rozpoznawania twarzy. Stwierdzono na przykład, że zabronione powinno być powiązanie rozpoznania emocji z zatrudnianiem personelu. Wskazano też, że wykorzystywanie obrazów cyfrowych, które zostały umieszczone w internecie, w tym w mediach społecznościowych lub internetowych witrynach do zarządzania zdjęciami, albo zostały przechwycone przez obiektyw monitorujących kamer wideo, nie może być uznane za zgodne z prawem tylko dlatego, że tego typu dane osobowe zostały udostępnione przez osoby, których one dotyczyły. Mówiąc po prostu, chodzi o poruszanie się bez zasłoniętej twarzy.
Jak widać, wizja zobrazowana w znanym filmie „Raport mniejszości”, nakręconym na podstawie opowiadania Philippa K. Dicka, kiedy to prześladowany bohater musi wymienić sobie oczy, aby uniknąć rozpoznania w tłumie, pozostaje w sferze science fiction. Inna sprawa, że akcja rozgrywała się dopiero w roku 2054.