Opublikowano 22 sty 2026

“Kreatywny” prawnik, którego nie chcesz w zespole. O tym, dlaczego AI zmyśla i jak nie dać się nabrać.

Sztuczna inteligencja to potężny silnik dla prawnika, ale kierownica i hamulec muszą pozostać w Twoich rękach. Pamiętaj: AI nie ma uprawnień zawodowych i nie ponosi odpowiedzialności OC. Ty tak.

Artykuł
“Kreatywny” prawnik, którego nie chcesz w zespole. O tym, dlaczego AI zmyśla i jak nie dać się nabrać.

Każdy, kto spędził z modelem językowym (LLM) więcej niż godzinę, przeżył ten moment. Zadajesz skomplikowane pytanie prawne. Model odpowiada błyskawicznie, eleganckim językiem, sypiąc paragrafami i orzecznictwem. Wszystko brzmi logicznie, profesjonalnie i… jest kompletną bzdurą.

W branży technologicznej przyjęło się nazywać to zjawisko “halucynacjami”. My w Gaius wolimy bardziej przyziemne, ale prawdziwsze określenie: zmyślanie (lub, jeśli chcemy być uprzejmi: nadmierna kreatywność).

Dlaczego maszyna, która przeczytała więcej książek niż jakikolwiek człowiek, potrafi kłamać w żywe oczy? I dlaczego w pracy prawnika jest to znacznie bardziej niebezpieczne niż w copywritingu?

Dlaczego AI kłamie jak z nut? (Mechanizm Autouzupełniania)

Aby zrozumieć, skąd bierze się zmyślanie, musimy odczarować magię AI. Model językowy to nie encyklopedia ani baza danych orzeń. To – w dużym uproszczeniu – statystyczny system autouzupełniania.

Wyobraź sobie studenta prawa na egzaminie ustnym, który nie zna odpowiedzi, ale bardzo chce zdać. Mówi płynnie, używa mądrych słów (“domniemanie”, “prekluzja”), brzmi pewnie, ale treść jego wypowiedzi nie ma pokrycia w faktach. Model działa podobnie. Jego celem nie jest “prawda”, ale “prawdopodobieństwo”. Maszyna przewiduje, jakie słowo najlepiej pasuje do poprzedniego.

Jeśli zapytasz o nieistniejący wyrok, model nie powie “nie wiem”. On spróbuje stworzyć coś, co wygląda jak wyrok. I zrobi to tak przekonująco, że bez weryfikacji w LEX-ie czy Legalisie, nie zorientujesz się, że właśnie czytasz fikcję literacką.

Skala zagrożenia: Od niewinnej pomyłki do katastrofy procesowej

W prawie precyzja jest wszystkim. Dlatego zmyślanie modeli podzieliliśmy na trzy kategorie ryzyka – od irytujących po krytyczne.

Poziom 1: Szum informacyjny (Ryzyko Niskie)

Model myli daty, przekręca nazwisko autora komentarza lub używa sformułowań z systemu anglosaskiego (np. “ławy przysięgłych” w kontekście polskiego sądu).

  • Jak to wygląda: AI pisze pismo, które stylistycznie jest poprawne, ale merytorycznie “pływa”.
  • Konsekwencja: Stracisz czas na redakcję i poprawianie stylu. Wstyd przed patronem, jeśli tego nie wyłapiesz.

Poziom 2: “Mata v. Avianca”, czyli kompletna fabrykacja (Ryzyko Średnie)

To słynny przypadek z USA, gdzie prawnik użył ChatGPT do napisania pisma procesowego. Model wymyślił nieistniejące orzeczenia, opatrzył je sygnaturami i cytatami. Prawnik ich nie sprawdził i złożył pismo w sądzie.

  • Jak to wygląda: Prosisz o orzecznictwo w specyficznej sprawie (np. szkoda wyrządzona przez drona). Model generuje idealnie pasujący wyrok Sądu Najwyższego z 2019 roku, z tezą, która ratuje Twoją sprawę. Problem w tym, że taki wyrok nigdy nie zapadł.
  • Konsekwencja: Kompromitacja przed sądem, odpowiedzialność dyscyplinarna, przegranie sprawy. To ryzyko łatwo wyeliminować – po prostu sprawdzając istnienie orzeczenia.

Poziom 3: Błąd jednego znaku (Ryzyko Krytyczne)

To najbardziej podstępna forma zmyślania, najtrudniejsza do wykrycia przez ludzkie oko.

  • Jak to wygląda: Model przywołuje istniejący wyrok, ale myli jedną cyfrę w sygnaturze. Zamiast II CSK 123/20, pisze II CSK 128/20. Albo cytuje przepis, zmieniając “może” na “musi”.
  • Dlaczego to groźne: Bo wszystko wygląda na prawdziwe. Sygnatura pasuje do formatu, data się zgadza. Usypia to czujność. Weryfikacja wymaga nie tylko sprawdzenia, czy wyrok istnieje, ale czy pod tą sygnaturą kryje się dokładnie ta treść.
  • Konsekwencja: Opierasz strategię procesową na przepisie lub orzecznictwie, które w rzeczywistości mówi coś zupełnie innego (np. dotyczy sprawy spadkowej, a nie gospodarczej).

Dlaczego “Polski Orzeł” (Bielik) myli się rzadziej?

Często pytacie, dlaczego promujemy polskie modele językowe (takie jak Bielik), skoro amerykańscy giganci (GPT-4, Claude) mają większe budżety. Odpowiedź tkwi w danych treningowych.

Gigantyczne modele z USA “uczyły się” na całym internecie. Wiedzą wszystko o prawie Kalifornii, ale polski Kodeks Cywilny to dla nich egzotyka. Często “tłumaczą” sobie prawo w locie, nakładając kalki językowe i pojęciowe z angielskiego na polski. Ponadto, im większy model i im szersza jego wiedza ogólna, tym większy ma bagaż skojarzeń, które mogą prowadzić do zmyślania.

Polskie modele, takie jak Bielik, były trenowane na ogromnych zbiorach polskich tekstów, w tym tekstach prawnych. One nie muszą tłumaczyć pojęć – one “myślą” po polsku.

  • Bielik rozumie, czym różni się “postanowienie” od “wyroku”.
  • Rzadziej myli sygnatury, bo widział ich setki tysięcy w ich naturalnym środowisku.
  • Jest bardziej “uziemiony” w naszej rzeczywistości prawnej.

Mniejszy, ale wyspecjalizowany model często popełnia mniej błędów w swojej dziedzinie, niż genialny polihistor, który wie “trochę o wszystkim”.

Jak się bronić? Zasada ograniczonego zaufania

Czy zmyślanie dyskwalifikuje AI w kancelarii? Nie, tak samo jak błędy aplikanta nie sprawiają, że przestajemy zatrudniać ludzi. Trzeba tylko zmienić metodykę pracy.

  1. Weryfikacja u źródła: Traktuj odpowiedź AI jako wskazówkę, a nie gotowiec. Jeśli model podaje sygnaturę – sprawdź ją w systemie informacji prawnej.
  2. Używaj narzędzi RAG (Retrieval-Augmented Generation): W Gaius-Lex stosujemy technikę, która “zmusza” model do korzystania z dostarczonych dokumentów, a nie z własnej, zawodnej pamięci. To tak, jakby pozwolić studentowi korzystać z podręcznika na egzaminie. Ryzyko zmyślania spada wtedy drastycznie, bo model opiera się na tekście, który ma przed “oczami”.
  3. Bądź sceptyczny: Jeśli odpowiedź modelu idealnie potwierdza Twoją niszową, karkołomną tezę prawną – bądź podwójnie czujny. AI chce Cię zadowolić, więc jeśli zasugerujesz odpowiedź w pytaniu, model chętnie ją potwierdzi, nawet zmyślając fakty.

Sztuczna inteligencja to potężny silnik dla prawnika, ale kierownica i hamulec muszą pozostać w Twoich rękach. Pamiętaj: AI nie ma uprawnień zawodowych i nie ponosi odpowiedzialności OC. Ty tak.