Wiadomości branżowe

Sztuczna inteligencja może być w przyszłości asystentem sędziego. Jego samego nigdy nie zastąpi

Sztuczna inteligencja może być w przyszłości asystentem sędziego. Jego samego nigdy nie zastąpi
RozwiÄ…zania sztucznej inteligencji stosowane w wymiarze sprawiedliwoÅ›ci zaliczane sÄ… do kategorii wysokiego ryzyka, zgodnie z unijnym rozporzÄ…dzeniem AI Act. To oznacza m.in. konieczność wdrożenia procedur nadzoru nad algorytmami.

RozwiÄ…zania sztucznej inteligencji stosowane w wymiarze sprawiedliwoÅ›ci zaliczane sÄ… do kategorii wysokiego ryzyka, zgodnie z unijnym rozporzÄ…dzeniem AI Act. To oznacza m.in. konieczność wdrożenia procedur nadzoru nad algorytmami. Dlatego nie ma ryzyka, że sztuczna inteligencja zastÄ…pi sÄ™dziego i bÄ™dzie za niego wydawać wyroki. W przyszÅ‚oÅ›ci może siÄ™ jednak stać jego asystentem odpowiedzialnym m.in. za analizÄ™ dowodów czy przygotowywanie treÅ›ci orzeczeÅ„. Eksperci uważajÄ…, że może to znaczÄ…co usprawnić postÄ™powania sÄ…dowe.

– W polskich sÄ…dach sztuczna inteligencja jest już wykorzystywana w prostych zadaniach, takich jak anonimizacja dokumentów, transkrypcja, wyszukiwanie orzeczeÅ„ czy chociażby monitorowanie i Å›ledzenie zmian aktów prawnych. W przyszÅ‚oÅ›ci bÄ™dzie asystentem sÄ™dziego, pomoże w prowadzeniu akt, wyszukiwaniu dowodów czy zaproponuje treść orzeczenia na podstawie podobnych spraw – mówi agencji Newseria Sebastian SzczepaÅ„ski, prezes zarzÄ…du Currendy.

Podobne zastosowania widać wÅ›ród caÅ‚ego Å›rodowiska prawników. Jak wynika z raportu „Future Ready Lawyer 2024” opublikowanego przez Wolters Kluwer, 76 proc. prawników z dziaÅ‚ów prawnych i 68 proc. prawników z kancelarii korzysta z generatywnej AI przynajmniej raz w tygodniu, najczęściej do researchu, analizy i automatyzacji tworzenia dokumentów.

– Teraz najwiÄ™kszym problemem, przed którym stoi sÄ…downictwo, jest brak asystentów. SÄ™dziowie majÄ… bardzo dużo spraw, którymi siÄ™ zajmujÄ…, jest duża liczba dokumentów, która jest przez nich do obrobienia. W momencie kiedy byÅ›my zaprzÄ™gli do tych czynnoÅ›ci sztucznÄ… inteligencjÄ™, która np. prowadziÅ‚aby nam akta, analizowaÅ‚a dowody, proponowaÅ‚a podstawÄ™ prawnÄ…, to na pewno bardzo by to wpÅ‚ynęło na szybkość postÄ™powania – uważa prezes Currendy.

W Å›wietle raportu „Rekomendacje w zakresie zastosowania sztucznej inteligencji w sÄ…downictwie i prokuraturze” przygotowanego przez GrupÄ™ RoboczÄ… ds. Sztucznej Inteligencji (Podgrupa ds. etyki i prawa) zakres zastosowania systemów AI jest bardzo szeroki. Może sÅ‚użyć m.in. jako wsparcie organizacji pracy sÄ…dów i prokuratury, pomoc w codziennych zadaniach sÄ™dziów, prokuratorów i innych pracowników wymiaru sprawiedliwoÅ›ci czy narzÄ™dzie do proponowania projektu uzasadnienia rozstrzygniÄ™cia w konkretnej sprawie. W rekomendacjach GRAI w zakresie wdrożenia sztucznej inteligencji w sÄ…downictwie znalazÅ‚o siÄ™ kilka propozycji, w tym m.in. automatyzacja przebiegu rozprawy do pisemnego protokoÅ‚u, chatbot uzupeÅ‚niajÄ…cy pracÄ™ Biura ObsÅ‚ugi Interesanta, system do wyszukiwania podobnych spraw czy też tÅ‚umaczenie rozprawy na żywo.

A to już wiesz?  Polskie mleczarstwo na zielonej Å›cieżce. Wdrożenie proekologicznych zmian przeÅ‚oży siÄ™ na wzrost cen nabiaÅ‚u

– SÄ™dzia bot na razie to czyste science fiction, ale mogÄ™ sobie wyobrazić pojedyncze przypadki, w których orzeczenia sÄ…dowe bÄ™dÄ… podejmowane przez sztucznÄ… inteligencjÄ™. Mamy na przykÅ‚ad elektroniczne postÄ™powanie upominawcze, prowadzone przez SÄ…d Rejonowy w Lublinie, gdzie tak naprawdÄ™ jest sprawdzana tylko kompletność dokumentów i zapada orzeczenie. W takich przypadkach jak najbardziej sztuczna inteligencja mogÅ‚aby siÄ™ doskonale odnaleźć. Natomiast już w bardziej skomplikowanych, gdzie zapadajÄ… sprawy w sÄ…dzie rejonowym, okrÄ™gowym czy apelacyjnym, to jednak decyzja powinna należeć do czÅ‚owieka – uważa Sebastian SzczepaÅ„ski.

Jak dodaje, na Å›wiecie sztuczna inteligencja w sÄ…downictwie wykorzystywana jest częściej niż w Polsce.

– Na przykÅ‚ad w Chinach stosowana jest do prowadzenia rozpraw sÄ…dowych, do analizy dokumentów, do przesÅ‚uchiwania Å›wiadków i później do proponowania treÅ›ci orzeczenia. Natomiast oczywiÅ›cie, ostateczny wyrok zapada z udziaÅ‚em czÅ‚owieka – podkreÅ›la ekspert. – Sztuczna inteligencja mogÅ‚aby być dużym wsparciem dla sÄ™dziów i referendarzy sÄ…dowych, w szczególnoÅ›ci w pisaniu uzasadnieÅ„ sÄ…dowych. AI może przygotować strukturÄ™ dokumentów, przeanalizować dowody, zaproponować treść podstawy prawnej, natomiast ostateczna odpowiedzialność za treść należy oczywiÅ›cie do sÄ™dziego.

Prawnicy w badaniu Wolters Kluwer jako gÅ‚ówne wyzwania w stosowaniu GenAI wymieniajÄ… trudnoÅ›ci z jej integracjÄ… do codziennej pracy, wiarygodność wyników oraz obawy co do poufnoÅ›ci danych.

– Nie powinniÅ›my do koÅ„ca ufać sztucznej inteligencji, która jest swego rodzaju black boxem. Nie wiemy tak naprawdÄ™, co siÄ™ do koÅ„ca dzieje w tym magicznym pudeÅ‚ku i dlaczego uzyskujemy taki wynik, a nie inny. Z pomocÄ… przychodzi nam AI Act, który zostaÅ‚ wdrożony w 2024 roku i w tej chwili jest implementowany etapami – mówi Sebastian SzczepaÅ„ski. – Systemy sÄ…dowe zostaÅ‚y zaklasyfikowane jako aplikacje informatyczne wysokiego ryzyka, co oznacza, że muszÄ… być przejrzyste i używane pod nadzorem czÅ‚owieka.

WedÅ‚ug unijnego rozporzÄ…dzenia AI Act systemy sztucznej inteligencji wysokiego ryzyka podlegajÄ… rygorystycznym obowiÄ…zkom przed wprowadzeniem ich do obrotu. WymagajÄ… m.in. systemów oceny i ograniczenia ryzyka, wysokiej jakoÅ›ci zbiorów danych, odpowiednich Å›rodków nadzoru ze strony czÅ‚owieka czy też wysokiego poziomu solidnoÅ›ci, cyberbezpieczeÅ„stwa i dokÅ‚adnoÅ›ci. Zgodnie z treÅ›ciÄ… rozporzÄ…dzenia wykorzystanie narzÄ™dzi AI może wspierać uprawnienia decyzyjne sÄ™dziów lub niezależność sÄ…downictwa, ale nie powinno ich zastÄ™pować. Podejmowanie ostatecznej decyzji musi pozostać dziaÅ‚aniem kierowanym przez czÅ‚owieka.

A to już wiesz?  Szkolne ubezpieczenie NNW dla dziecka już nie tylko grupowo. Coraz wiÄ™cej rodziców zawiera je indywidualnie

Kwalifikacja systemów AI jako systemów wysokiego ryzyka nie powinna jednak obejmować systemów przeznaczonych do pomocniczych czynnoÅ›ci administracyjnych, które nie majÄ… wpÅ‚ywu na faktyczne sprawowanie wymiaru sprawiedliwoÅ›ci. Mowa m.in. o anonimizacji lub pseudonimizacji orzeczeÅ„ sÄ…dowych, dokumentów lub danych, komunikacji miÄ™dzy czÅ‚onkami personelu czy też zadaniach administracyjnych.

2 sierpnia br. zaczęły obowiÄ…zywać zapisy AI Act dotyczÄ…ce wprowadzania na rynek modeli ogólnego przeznaczenia (GPAI) – to modele projektowane nie do jednego, konkretnego zastosowania, ale do wielu różnych zadaÅ„ (to np. duże modele jÄ™zykowe czy tworzÄ…ce grafiki). Każdy podmiot, który opracowuje i wprowadza do obrotu takie modele, ma obowiÄ…zek m.in. przygotowania i udostÄ™pnienia ich dokumentacji technicznej, publikacji streszczenia zbiorów danych wykorzystanych do ich trenowania czy wdrożenia Å›rodków zapewniajÄ…cych zgodność modeli z prawem. Dostawcy GPAI o systemowym ryzyku majÄ… jeszcze bardziej rygorystyczne zadania, obejmujÄ…ce m.in. testy bezpieczeÅ„stwa.

Artykuly o tym samym temacie, podobne tematy