Sztuczna inteligencja potrzebuje nadzoru
Sztuczna inteligencja (SI) może pomóc zwalczać głód, biedę, choroby, nierówności społeczne, a także przeciwdziałać zmianom klimatu. To szczególnie ważna kwestia w dobie podejmowanych przez międzynarodową społeczność starań, aby deklaracje w tym zakresie wyszły poza ramy podpisywanych dokumentów.
Technologia vs prawa człowieka
Na zakończonym niedawno COP26 w Glasgow światowi przywódcy zobowiązali się do ograniczenia emisji metanu i gazów cieplarnianych do 2030 r. Problem w tym, że każda strategia dochodzenia do tego celu musi zależeć od dokładnego pomiaru bieżących emisji, wpływu na klimat, gospodarkę i na społeczeństwa. Tych obliczeń nie da się przeprowadzić bez odpowiedniego modelowania ryzyka, przygotowania analiz i scenariuszy także przy wykorzystywaniu rozwiązań z arsenału SI czy uczenia maszynowego.
ONZ widzi te potrzeby i wspiera sektor prywatny w dążeniu do opracowywania rozwiązań służących ludzkości. Zauważa jednak potrzebę pilnego działania w związku z zagrożeniem praw człowieka przez tę technologię. Nie da się bowiem wyłączyć pewnych sfer z analiz przeprowadzanych z wykorzystaniem SI, a wspierać pozostałych, które są uznawane za bardziej bezpieczne. Rozwój technologii musi następować równomiernie, w wielu sektorach. Dlatego zdaniem szefowej ONZ ds. praw człowieka Michelle Bachelet, państwa powinny wprowadzić moratorium na sprzedaż i używanie systemów sztucznej inteligencji do czasu wdrożenia odpowiednich „bezpieczników”.
Działania w tym zakresie trzeba podjąć jak najszybciej, ponieważ ocena i zajęcie się poważnymi zagrożeniami, jakie ta technologia stwarza dla praw człowieka, może zająć sporo czasu. Rozwiązania już powstają, ale nierzadko są wdrażane bezrefleksyjnie.
Im wyższe ryzyko, tym surowsze wymogi
Podczas wrześniowego wystąpienia na posiedzeniu Rady Europy Michelle Bachelet wezwała nawet wprost do zakazania rozwiązań sztucznej inteligencji, których nie można używać zgodnie z międzynarodowym prawem dotyczącym praw człowieka.
– Sztuczna inteligencja może być siłą dobra, pomagając społeczeństwom przezwyciężyć niektóre z wielkich wyzwań naszych czasów. Ale technologie sztucznej inteligencji mogą mieć negatywne, a nawet katastrofalne skutki, jeśli są używane bez dostatecznego uwzględnienia tego, jak wpływają na prawa człowieka – zaznaczyła Bachelet.
Jej zdaniem im wyższe ryzyko dla praw człowieka stanowi wykorzystywanie danej technologii, tym wyższe wymogi powinny stawiać państwa, instytucje i firmy wobec tych rozwiązań. Szefowa ONZ ds. praw człowieka wyraziła zaniepokojenie m.in. bezprecedensowym poziomem nadzoru na całym świecie przez podmioty państwowe i prywatne, który, jak twierdziła, jest niezgodny z prawami człowieka. Zarzuty te dotyczyły m.in. oprogramowania szpiegującego Pegasus, które masowo jest wykorzystywane w wielu krajach.
To jednak nie koniec litanii zarzutów wobec rozwiązań z obszaru sztucznej inteligencji czy uczenia maszynowego. Ale dopiero początek.
Raport, który nie pozostawia złudzeń
Apel wysokiego komisarza w Radzie Europy zbiegł się z opublikowaniem przez jej biuro — OHCHR, raportu, w którym przeanalizowano, w jaki sposób sztuczna inteligencja wpływa na prawo ludzi do prywatności, zdrowia, edukacji, swobody przemieszczania się, wolność zgromadzeń i zrzeszania się czy wolności wypowiedzi. Dokument zawiera negatywną ocenę profilowania, automatycznego podejmowania decyzji i innych technologii uczenia maszynowego.
„Sytuacja jest tragiczna, a co więcej nie poprawiła się przez lata, ale pogorszyła się – stwierdził Tim Engelhardt, urzędnik ds. praw człowieka w sekcji praworządności i demokracji, przestawiając wnioski z niedawno opublikowano raportu, o czym informuje ONZ na swojej stronie internetowej.
Zdaniem autorów dokumentu, państwa i koncerny technologiczne często pospiesznie włączają aplikacje SI, nie dochowując należytej staranności. Raport wskazuje wiele przypadków niesprawiedliwego traktowania osób z powodu niewłaściwego wykorzystania sztucznej inteligencji, takich jak odmowa świadczeń socjalnych z powodu zastosowania wadliwych algorytmów lub aresztowanie z powodu wadliwego oprogramowania do rozpoznawania twarzy.
Główne grzechy SI
W raporcie wysokiego komisarza Narodów Zjednoczonych ds. praw człowieka pod tytułem „Prawo do prywatności w erze cyfrowej” przedstawiono istotne cechy systemów sztucznej inteligencji, które mogą bezpośrednio wpływać na kwestię bezpieczeństwa danych i praw człowieka z tym związanych.
Systemy te zazwyczaj opierają się na dużych zbiorach danych, często zawierających dane osobowe. Zdaniem autorów raportu sprzyja to szerokiemu gromadzeniu, przechowywaniu i przetwarzaniu danych. Wiele firm z sektora prywatnego optymalizuje usługi, aby zebrać jak najwięcej danych. Na przykład serwisy społecznościowe polegają głownie na gromadzeniu i komercjalizacji ogromnych ilości danych o użytkownikach internetu.
Z kolei tak zwany internet rzeczy jest szybko rosnącym źródłem danych wykorzystywanych zarówno przez przedsiębiorstwa, jak i państwa. Zbieranie informacji odbywa się w przestrzeniach intymnych, prywatnych i publicznych. Korzystający z nich brokerzy danych pozyskują, łączą, analizują i udostępniają dane osobowe niezliczonym odbiorcom. Brakuje jednak kontroli publicznej nad tymi procesami. Pozostaje jeszcze kwestia, w jakim celu te dane są pozyskiwane.
Raport wskazuje też, że decyzje oparte na sztucznej inteligencji nie są wolne od błędów, a efekty mogą powodować ograniczenia dostępu do praw człowieka. Także dokładność wykorzystywanych danych jest często wątpliwa. Wydatnie okazało się to podczas wielu badań w czasie pandemii koronawirusa. Z raportu dowiadujemy się, że analiza setek medycznych narzędzi działających z wykorzystaniem sztucznej inteligencji do diagnozowania i przewidywania ryzyka COVID-19, opracowanych z dużymi nadziejami, wykazała, że żadne z nich nie nadało się do użytku klinicznego.
Jakość danych, na których pracują algorytmy sztucznej inteligencji, to ogromny problem. Mogą być wadliwe, dyskryminujące, nieaktualne lub nieistotne, a zbiory danych określanych jako stronnicze są często podstawą do podejmowania i wprowadzania w życie decyzji, które są dyskryminujące i stanowią poważne zagrożenie dla mniejszości. Pokazały to między innymi odkryte w ramach Facebook Papers efekty działania algorytmów.
W raporcie „dostało” się też technologiom biometrycznym jako istotnemu elementowi możliwej inwigilacji bez odpowiednich regulacji bezpieczeństwa.
ONZ zauważa i nakazuje
Organizacja Narodów Zjednoczonych stwierdza niezaprzeczalny i stale rosnący wpływ technologii sztucznej inteligencji na korzystanie z prawa do prywatności i innych praw człowieka. Głównie ten negatywny. Wskazała na niepokojące zmiany, w tym na rozległy ekosystem w dużej mierze nieprzejrzystego gromadzenia i wymiany danych osobowych, który stanowi podstawę części powszechnie stosowanych systemów sztucznej inteligencji.
Dlatego ONZ rekomenduje potrzebę ochrony i wzmocnienia wszystkich praw człowieka w zakresie rozwoju i wykorzystania sztucznej inteligencji. To główny cel i kierunek zapewnienia równego poszanowania i egzekwowania wszystkich praw człowieka w internecie i poza nim.
Zarówno organizacje, państwa, jak i firmy muszą upewnić się, że korzystanie ze sztucznej inteligencji jest zgodne ze wszystkimi prawami człowieka, a wszelka ingerencja w prawo do prywatności i inne prawa człowieka poprzez korzystanie ze sztucznej inteligencji jest przewidziana przez prawo, ma uzasadniony cel oraz jest zgodna z zasadami konieczności i proporcjonalności oraz nie narusza istoty przedmiotowych praw.
Jednym z głównych wniosków z raportu jest zakaz wdrażania zastosowań sztucznej inteligencji, które nie mogą być obsługiwane zgodnie z międzynarodowym prawem w zakresie praw człowieka. Dlatego tak kluczowe jest moratorium na sprzedaż i używanie systemów sztucznej inteligencji, które niosą za sobą wysokie ryzyko dla korzystania z praw człowieka, dopóki nie zostaną zapewnione odpowiednie zabezpieczenia. ©℗