Autopromocja
Dziennik Gazeta Prawana logo

AI nakłania do złego? Czy możemy liczyć na łagodniejszy wyrok?

sztuczna inteligencja, głos AI
W literaturze oraz orzecznictwie temat odpowiedzialności cywilnej albo karnej AI to wciąż terra incognita.shutterstock
31 sierpnia 2025

Sztuczna Inteligencja (AI), choć tak młoda, jest już częścią naszego życia. Wszelkiej maści chatów pytamy się w zasadzie o wszystko – od przepisu na zupę pomidorową aż po radę, czy zerwać z przyjaciółką, która zapomniała o naszych imieninach. Skutki tak bezkrytycznego przyjęcia AI już się objawiają. O kilku z nich przeczytać można w pracy Margarity Leib (Uniwersytet Amsterdamski), Nilsa Kobisa (Uniwersytet Duisburga i Essen) oraz Ivana Soraperry (Max-Planck-Institut für Bildungsforschung). Chodzi o odpowiedzialność za korzystanie z rad wygenerowanych przez AI.

Mamy za sobą kilka spraw sądowych, w których oskarżeni przyjmowali linię obrony wskazującą, że padli ofiarą „złej rady AI”. I tak na przykład w ubiegłym roku w USA pewnego adwokata przyłapano na przedłożeniu sądowi dokumentów zawierających nieprawdziwe informacje, dzięki którym wygrał sprawę. Gdy rzecz wyszła na jaw, to okazało się, że prawnik konsultował się przy podejmowaniu decyzji z AI. I to właśnie ona doradziła mu, żeby na takie działanie się zdecydował, bo nic mu nie grozi.

Pozostało 80% treści
Możesz czytać nasze artykuły dzięki partnerowi PWC.
Załóż konto lub zaloguj się
i zyskaj dostęp na 14 dni za darmo.
Źródło: Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.