Gdzie kończy się wsparcie, a zaczyna decyzja wysokiego ryzyka
AI Act nie wprowadza nowych zasad etyki prawniczej, ale w praktyce może stać się ich testem
Sztuczna inteligencja w kancelariach przestała być eksperymentem. Dziś pisze projekty pism, streszcza akta, analizuje orzecznictwo, przygotowuje oferty, a coraz częściej także odbiera telefony. W wielu zespołach działa już niemal niezauważalnie – jako „naturalne” wsparcie pracy prawnika. Problem w tym, że AI Act nie pyta, czy prawnik korzysta z AI. Pyta, czy organizacja wie, gdzie system zaczyna wpływać na prawa człowieka – i czy potrafi nad tym zapanować.
To zasadnicza zmiana perspektywy. AI Act wyraźnie podkreśla, że regulacja nie jest o technologii jako takiej, lecz o systemach AI funkcjonujących w określonym kontekście i generujących realne ryzyko. Nie ma znaczenia, czy model jest „duży” czy „mały”, działa w chmurze czy lokalnie. Znaczenie ma to, czy jego wynik wpływa na sytuację prawną osoby fizycznej, jej prawa, obowiązki, majątek lub dostęp do ochrony prawnej.




