Gdzie kończy się wsparcie, a zaczyna decyzja wysokiego ryzyka? AI Act w zawodach prawniczych
AI Act nie wprowadza nowych zasad etyki prawniczej, ale w praktyce może stać się ich testem. W środowisku, w którym odpowiedzialność osobista i staranność zawodowa są fundamentem wykonywania zawodu, iluzja kontroli może okazać się bardziej niebezpieczna niż sama technologia.
AI pisze projekty pism, streszcza akta, analizuje orzecznictwo, przygotowuje oferty, a coraz częściej także odbiera telefony. W wielu zespołach sztuczna inteligencja działa już niemal niezauważalnie – jako „naturalne” wsparcie pracy prawnika. Problem w tym, że AI Act nie pyta, czy prawnik korzysta z AI. Pyta, czy organizacja wie, gdzie system zaczyna wpływać na prawa człowieka – i czy potrafi nad tym zapanować.
To zasadnicza zmiana perspektywy. AI Act wyraźnie podkreśla, że regulacja nie jest o technologii jako takiej, lecz o systemach AI funkcjonujących w określonym kontekście i generujących realne ryzyko. Nie ma znaczenia, czy model jest „duży” czy „mały”, działa w chmurze czy lokalnie. Znaczenie ma to, czy jego wynik wpływa na sytuację prawną osoby fizycznej, jej prawa, obowiązki, majątek lub dostęp do ochrony prawnej.
Materiał chroniony prawem autorskim - wszelkie prawa zastrzeżone.
Dalsze rozpowszechnianie artykułu za zgodą wydawcy INFOR PL S.A. Kup licencję.