Autopromocja
Dziennik Gazeta Prawana logo
Prawo internetu i ochrony danych

Gdy AI nakłania do złego

29 sierpnia 2025
Ten tekst przeczytasz w 3 minuty

Sztuczna Inteligencja (AI), choć tak młoda, jest już częścią naszego życia. Wszelkiej maści chatów pytamy się w zasadzie o wszystko – od przepisu na zupę pomidorową aż po radę, czy zerwać z przyjaciółką, która zapomniała o naszych imieninach. Skutki tak bezkrytycznego przyjęcia AI już się objawiają. O kilku z nich przeczytać można w pracy Margarity Leib (Uniwersytet Amsterdamski), Nilsa Kobisa (Uniwersytet Duisburga i Essen) oraz Ivana Soraperry (Max-Planck-Institut für Bildungsforschung). Chodzi o odpowiedzialność za korzystanie z rad wygenerowanych przez AI.

Mamy za sobą kilka spraw sądowych, w których oskarżeni przyjmowali linię obrony wskazującą, że padli ofiarą „złej rady AI”. I tak na przykład w ubiegłym roku w USA pewnego adwokata przyłapano na przedłożeniu sądowi dokumentów zawierających nieprawdziwe informacje, dzięki którym wygrał sprawę. Gdy rzecz wyszła na jaw, to okazało się, że prawnik konsultował się przy podejmowaniu decyzji z AI. I to właśnie ona doradziła mu, żeby na takie działanie się zdecydował, bo nic mu nie grozi.

W literaturze oraz orzecznictwie temat odpowiedzialności cywilnej albo karnej AI to wciąż terra incognita. Ale nawet jeśli zdecydujemy się jej odpowiedzialności nie przypisywać (AI to w końcu tylko model językowy, a nie istota), to i tak pozostaje wątpliwość, czy jak sztuczna inteligencja wprowadzi kogoś w błąd albo nakłoni do niecnego zachowania, to czy taka osoba powinna liczyć na łagodniejszy wymiar kary? Analogicznie wobec sytuacji, w której nieco łagodniej traktuje się człowieka, który został do złego nakłoniony przez osobę, której bezgranicznie ufał albo która była dla niego autorytetem.

Źródło: Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.