Sztuczna inteligencja to potężny silnik dla prawnika, ale kierownica i hamulec muszą pozostać w Twoich rękach. Pamiętaj: AI nie ma uprawnień zawodowych i nie ponosi odpowiedzialności OC. Ty tak.

Każdy, kto spędził z modelem językowym (LLM) więcej niż godzinę, przeżył ten moment. Zadajesz skomplikowane pytanie prawne. Model odpowiada błyskawicznie, eleganckim językiem, sypiąc paragrafami i orzecznictwem. Wszystko brzmi logicznie, profesjonalnie i… jest kompletną bzdurą.
W branży technologicznej przyjęło się nazywać to zjawisko “halucynacjami”. My w Gaius wolimy bardziej przyziemne, ale prawdziwsze określenie: zmyślanie (lub, jeśli chcemy być uprzejmi: nadmierna kreatywność).
Dlaczego maszyna, która przeczytała więcej książek niż jakikolwiek człowiek, potrafi kłamać w żywe oczy? I dlaczego w pracy prawnika jest to znacznie bardziej niebezpieczne niż w copywritingu?
Aby zrozumieć, skąd bierze się zmyślanie, musimy odczarować magię AI. Model językowy to nie encyklopedia ani baza danych orzeń. To – w dużym uproszczeniu – statystyczny system autouzupełniania.
Wyobraź sobie studenta prawa na egzaminie ustnym, który nie zna odpowiedzi, ale bardzo chce zdać. Mówi płynnie, używa mądrych słów (“domniemanie”, “prekluzja”), brzmi pewnie, ale treść jego wypowiedzi nie ma pokrycia w faktach. Model działa podobnie. Jego celem nie jest “prawda”, ale “prawdopodobieństwo”. Maszyna przewiduje, jakie słowo najlepiej pasuje do poprzedniego.
Jeśli zapytasz o nieistniejący wyrok, model nie powie “nie wiem”. On spróbuje stworzyć coś, co wygląda jak wyrok. I zrobi to tak przekonująco, że bez weryfikacji w LEX-ie czy Legalisie, nie zorientujesz się, że właśnie czytasz fikcję literacką.
W prawie precyzja jest wszystkim. Dlatego zmyślanie modeli podzieliliśmy na trzy kategorie ryzyka – od irytujących po krytyczne.
Model myli daty, przekręca nazwisko autora komentarza lub używa sformułowań z systemu anglosaskiego (np. “ławy przysięgłych” w kontekście polskiego sądu).
To słynny przypadek z USA, gdzie prawnik użył ChatGPT do napisania pisma procesowego. Model wymyślił nieistniejące orzeczenia, opatrzył je sygnaturami i cytatami. Prawnik ich nie sprawdził i złożył pismo w sądzie.
To najbardziej podstępna forma zmyślania, najtrudniejsza do wykrycia przez ludzkie oko.
Często pytacie, dlaczego promujemy polskie modele językowe (takie jak Bielik), skoro amerykańscy giganci (GPT-4, Claude) mają większe budżety. Odpowiedź tkwi w danych treningowych.
Gigantyczne modele z USA “uczyły się” na całym internecie. Wiedzą wszystko o prawie Kalifornii, ale polski Kodeks Cywilny to dla nich egzotyka. Często “tłumaczą” sobie prawo w locie, nakładając kalki językowe i pojęciowe z angielskiego na polski. Ponadto, im większy model i im szersza jego wiedza ogólna, tym większy ma bagaż skojarzeń, które mogą prowadzić do zmyślania.
Polskie modele, takie jak Bielik, były trenowane na ogromnych zbiorach polskich tekstów, w tym tekstach prawnych. One nie muszą tłumaczyć pojęć – one “myślą” po polsku.
Mniejszy, ale wyspecjalizowany model często popełnia mniej błędów w swojej dziedzinie, niż genialny polihistor, który wie “trochę o wszystkim”.
Czy zmyślanie dyskwalifikuje AI w kancelarii? Nie, tak samo jak błędy aplikanta nie sprawiają, że przestajemy zatrudniać ludzi. Trzeba tylko zmienić metodykę pracy.
Sztuczna inteligencja to potężny silnik dla prawnika, ale kierownica i hamulec muszą pozostać w Twoich rękach. Pamiętaj: AI nie ma uprawnień zawodowych i nie ponosi odpowiedzialności OC. Ty tak.