Kto będzie odpowiadał za błąd sztucznej inteligencji? AI Act i nowa mapa odpowiedzialności w firmach
Odpowiedzialność za działanie AI obejmuje cały cykl życia systemu – od projektowania przez wdrożenie aż po wykorzystanie w konkretnych procesach decyzyjnych. Ta logika jest wyraźnie widoczna w strukturze AI Act.
Jeszcze do niedawna sztuczna inteligencja w organizacjach była traktowana głównie jako narzędzie wspierające pracę człowieka. System analizował dane, porządkował informacje i generował rekomendację, ale ostateczna decyzja należała do człowieka – menedżera, analityka albo specjalisty odpowiedzialnego za dany obszar działalności firmy. Dziś ten model zaczyna się zmieniać. W coraz większej liczbie organizacji proces decyzyjny przebiega według podobnego schematu: najpierw system analizuje duże zbiory danych i identyfikuje zależności trudne do uchwycenia tradycyjnymi metodami, potem generuje rekomendację, a dopiero na końcu człowiek zatwierdza wynik. Formalnie decyzję nadal podejmuje człowiek, ale w praktyce coraz częściej jest ona efektem współdziałania człowieka i algorytmu.
Nie dotyczy to wyłącznie firm technologicznych. Systemy AI wspierają dziś decyzje kredytowe w bankach, ocenę ryzyka w ubezpieczeniach, strategie marketingowe, procesy rekrutacyjne, a w ochronie zdrowia także analizę wyników badań i kwalifikowanie pacjentów do określonych procedur. Im większa rola AI w takich procesach, tym trudniej utrzymać przekonanie, że technologia jest jedynie neutralnym narzędziem.
AI w procesach decyzyjnych. Kto odpowiada za rekomendację algorytmu
Wraz z rosnącą rolą systemów AI pojawia się więc pytanie, które jeszcze niedawno wydawało się czysto teoretyczne: kto odpowiada za decyzję, której logika została w dużej mierze wygenerowana przez algorytm? Odpowiedź nie jest oczywista. W wielu przypadkach system analizuje tysiące zmiennych jednocześnie, a jego rekomendacja jest wynikiem złożonych procesów statystycznych i uczenia maszynowego. Człowiek zatwierdzający wynik nie zawsze jest w stanie prześledzić logikę modelu ani samodzielnie odtworzyć wszystkich danych, które doprowadziły do określonego wniosku. Właśnie tu pojawia się problem odpowiedzialności. Jeżeli algorytm zaczyna współtworzyć decyzje biznesowe, trzeba na nowo zdefiniować nie tylko to, kto odpowiada za jego działanie, lecz także to, jak powinna wyglądać struktura odpowiedzialności w organizacji korzystającej z takich systemów.
Na te pytania próbuje odpowiedzieć AI Act – rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji w Unii Europejskiej. Regulacja weszła w życie 1 sierpnia 2024 r., a co do zasady zacznie być stosowana od 2 sierpnia 2026 r. Jej celem jest stworzenie jednolitych ram prawnych dla rozwoju, wprowadzania na rynek i wykorzystywania systemów AI w Unii Europejskiej. AI Act ma jednocześnie wspierać innowacje i zapewniać wysoki poziom ochrony zdrowia, bezpieczeństwa oraz praw podstawowych osób, na które mogą oddziaływać systemy AI.
Na pierwszy rzut oka AI Act może wydawać się regulacją technologiczną. W rzeczywistości jego znaczenie jest szersze. Rozporządzenie nie koncentruje się wyłącznie na samych systemach sztucznej inteligencji, lecz także na tym, jak organizacje zarządzają ich wykorzystaniem i kto odpowiada za decyzje podejmowane przy ich wsparciu. AI Act nie reguluje więc wyłącznie technologii. Reguluje sposób organizowania odpowiedzialności za decyzje podejmowane przy jej użyciu.
Bądź na bieżąco ze zmianami w prawie i podatkach.
Czytaj raporty, analizy i wyjaśnienia ekspertów.
Bądź na bieżąco ze zmianami w prawie i podatkach.
Czytaj raporty, analizy i wyjaśnienia ekspertów.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.