Dziennik Gazeta Prawana logo

Gdzie kończy się wsparcie, a zaczyna decyzja wysokiego ryzyka? AI Act w zawodach prawniczych

sztuczna inteligencja ai autor prawo
Jeżeli sztuczna inteligencja generuje projekt pozwu, a prawnik czyta go, poprawia i podpisuje, to mówimy o narzędziu pomocniczym.Shutterstock
wczoraj, 21:00

AI Act nie wprowadza nowych zasad etyki prawniczej, ale w praktyce może stać się ich testem. W środowisku, w którym odpowiedzialność osobista i staranność zawodowa są fundamentem wykonywania zawodu, iluzja kontroli może okazać się bardziej niebezpieczna niż sama technologia.

AI pisze projekty pism, streszcza akta, analizuje orzecznictwo, przygotowuje oferty, a coraz częściej także odbiera telefony. W wielu zespołach sztuczna inteligencja działa już niemal niezauważalnie – jako „naturalne” wsparcie pracy prawnika. Problem w tym, że AI Act nie pyta, czy prawnik korzysta z AI. Pyta, czy organizacja wie, gdzie system zaczyna wpływać na prawa człowieka – i czy potrafi nad tym zapanować.

To zasadnicza zmiana perspektywy. AI Act wyraźnie podkreśla, że regulacja nie jest o technologii jako takiej, lecz o systemach AI funkcjonujących w określonym kontekście i generujących realne ryzyko. Nie ma znaczenia, czy model jest „duży” czy „mały”, działa w chmurze czy lokalnie. Znaczenie ma to, czy jego wynik wpływa na sytuację prawną osoby fizycznej, jej prawa, obowiązki, majątek lub dostęp do ochrony prawnej.

Źródło: Dziennik Gazeta Prawna

Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.

Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.