analiza
Sztuczna inteligencja a prawo. Gdzie kończy się wsparcie, a zaczyna wpływ?
Jest takie powiedzenie, że jeżeli coś jest do wszystkiego, to nie nadaje się do niczego. Gdyby zastosować je do ChatGPT oraz innych powszechnie dostępnych dużych modeli językowych, to należałoby przyjąć, że nie nadają się one zbytnio do zastosowań prawniczych. Można odnieść wrażenie, że takie zdanie podziela większość prawników. U źródeł tej opinii leży nie tylko fakt, że korzystanie z omawianych tu modeli może prowadzić do naruszenia obowiązku poufności (który ciąży przecież na przedstawicielach poszczególnych zawodów prawniczych), ale również ich skłonność do zmyślania (halucynacji) oraz przekonanie o braku możliwości przeprowadzenia przez duże modele językowe wieloetapowego rozumowania prawniczego.
Do przyczyn tych dokłada się również brak powtarzalności wyników uzyskiwanych na skutek interakcji użytkownika z danym modelem (można powiedzieć, że istnieje prawdopodobieństwo, że wyniki te nie będą jednolite), a także – co zresztą wiąże się z tą pierwszą cechą – jedynie niewielka możliwość regulowania parametrów danego modelu. Zarówno ChatGPT, jak i inne porównywalne, powszechnie dostępne komercyjne modele językowe (np. Claude, Gemini), należą bowiem do grupy narzędzi o




