Czy zdarzyło Ci się, że ChatGPT wymyślił nieistniejącą sygnaturę akt? A może napisał uzasadnienie, które brzmiało mądrze, ale prawnie było bełkotem? Jeśli tak, to mam dla Ciebie brutalną, ale wyzwalającą prawdę: to nie wina sztucznej inteligencji. To wina Twojego polecenia. Witaj w świecie Prompt Engineeringu – nowej "łaciny", bez której nowoczesny prawnik wkrótce stanie się zawodowym analfabetą.
W środowisku prawniczym narasta frustracja. Po pierwszej fali zachwytu nad Generatywną Sztuczną Inteligencją (GenAI), nastąpił etap rozczarowania. Słyszę to na niemal każdym szkoleniu, które prowadzę dla kancelarii: "Panie Juliuszu, to narzędzie jest niebezpieczne. Poprosiłem o orzecznictwo w sprawie frankowej, a dostałem wyroki sądów, które nie istnieją".
Sceptycy mają rację – AI potrafi halucynować. Ale mylą się co do przyczyny. Traktują ChatGPT, Claude czy Gemini jak wyszukiwarkę internetową. Wpisują hasła kluczowe i oczekują precyzyjnego wyniku z bazy danych. Tymczasem LLM (Large Language Model) to nie wyszukiwarka. To silnik prawdopodobieństwa. To, co z niego wyciągniesz, zależy w 100% od jakości instrukcji, którą mu dostarczysz.
W tym artykule nie będziemy zajmować się podstawami typu "jak założyć konto". Przejdziemy od razu do inżynierii. Jako trener AI pokażę Ci, dlaczego Twoje dotychczasowe prompty były nieskuteczne i nauczę Cię pisać takie, które zamieniają "generator losowych treści" w precyzyjnego asystenta prawnego.
Oto anatomia promptu, który działa.
Dlaczego "Rozmawiaj jak z człowiekiem" to najgorsza rada, jaką usłyszałeś?
Wiele poradników sugeruje: "Pisz do AI tak, jakbyś mówił do kolegi". W kontekście Waszej pracy – pracy prawnika – to katastrofalna strategia. Kiedy zlecasz zadanie aplikantowi, łączą was lata wspólnego kontekstu, kultury prawnej i niewypowiedzianych zasad. Aplikant wie, że nie cytujemy uchylonych przepisów. Wie, że "krótka notatka" oznacza jedną stronę A4, a nie jedno zdanie.
Model językowy tego nie wie. Model to tabula rasa w kontekście Twojej specyficznej sprawy. Jeśli powiesz mu: "Napisz wezwanie do zapłaty dla dłużnika X", model musi zgadywać:
-
W jakim tonie? Agresywnym czy ugodowym?
-
Na jakiej podstawie prawnej?
-
Jaki jest termin płatności?
-
Czy ma straszyć sądem, czy wpisem do KRD?
Kiedy model musi zgadywać, uruchamia się proces zwany halucynacją. Wypełnia luki statystycznie najbardziej prawdopodobnym tekstem. A w prawie "statystycznie prawdopodobne" rzadko oznacza "zgodne ze stanem faktycznym".
Prompt Engineering to umiejętność redukcji tej niepewności. To sztuka precyzyjnego definiowania ram, w których AI może się poruszać.
5 Filarów Skutecznego Promptu Prawniczego
Aby uzyskać użyteczny wynik, każdy Twój prompt (polecenie) musi składać się z pięciu kluczowych elementów. Możesz zapamiętać ten schemat jako R.C.Z.O.F. (Rola, Cel, Zadanie, Ograniczenia, Format).
Filar 1: Persona (Rola)
Domyślnie ChatGPT jest "pomocnym asystentem". To zbyt ogólne. W prawie "pomocny" często oznacza "bezkrytyczny". Ty potrzebujesz eksperta.
Nadanie roli (tzw. Role Prompting) zmienia wagi, jakie model przypisuje poszczególnym informacjom w swojej sieci neuronowej. Jeśli powiesz mu, że jest "specjalistą od prawa karnego", będzie chętniej używał słownictwa z kodeksu karnego niż cywilnego.
Podejście amatorskie (Brak roli):
Napisz mi...
Podejście profesjonalne (Role Prompting):
Działaj jako doświadczony radca prawny z 15-letnim stażem w obsłudze procesów budowlanych, specjalizujący się w sporach opartych na warunkach kontraktowych FIDIC. Twoim celem jest maksymalna ochrona interesów Generalnego Wykonawcy.
Widzisz różnicę? Model już wie, że ma być stronniczy (na Twoją korzyść) i używać terminologii branżowej.
Filar 2: Kontekst (Context is King)
To najważniejszy element, który najczęściej jest pomijany. Prawnicy boją się wklejać dane do okienka czatu w internecie (słusznie – o bezpieczeństwie i rekomendacjach KIRP pisałem w poprzednim artykule), więc piszą ogólniki. To błąd. Musisz podać kontekst, ale zanonimizowany.
Model nie czyta w Twoich myślach. Nie wie, że "Klient" to starsza pani, a "Przeciwnik" to bank.
Słaby kontekst:
Klient ma problem z umową najmu.
Dobry, prawniczy kontekst:
Klientem jest spółka z o.o. wynajmująca 2000 m2 powierzchni biurowej w centrum Warszawy. Wynajmujący (duży fundusz inwestycyjny) naliczył kary umowne za rzekome naruszenie regulaminu budynku (hałas w godzinach nocnych). Klient twierdzi, że biuro w nocy stoi puste. Umowa zawiera klauzulę arbitrażową.
Filar 3: Zadanie (Instruction)
Czasowniki mają znaczenie. Słowa takie jak "opisz", "sprawdź", "zobacz" są dla modelu zbyt miękkie. Używaj czasowników operacyjnych, które wymuszają konkretny proces myślowy.
Zamiast: "Zobacz, czy ta umowa jest OK." Użyj: "Przeanalizuj poniższy paragraf pod kątem klauzul abuzywnych zgodnie z rejestrem UOKiK. Wypunktuj każde ryzyko i zaproponuj bezpieczniejsze brzmienie zapisu."
Filar 4: Ograniczenia (Constraints)
To hamulec bezpieczeństwa. Tutaj mówisz modelowi, czego ma NIE robić. To kluczowe w walce z "laniem wody".
Przykłady ograniczeń dla prawnika:
-
"Nie używaj kwiecistego języka. Stosuj styl formalny, oschły, procesowy."
-
"Opieraj się WYŁĄCZNIE na dostarczonym fragmencie tekstu. Nie dodawaj faktów spoza załącznika."
-
"Jeśli nie znasz odpowiedzi, napisz 'NIE WIEM', zamiast zmyślać."
-
"Maksymalna długość odpowiedzi: 500 słów."
Filar 5: Format (Output)
Prawnicy kochają strukturę. AI kocha chaos (ścianę tekstu). Jeśli nie zdefiniujesz formatu wyjściowego, dostaniesz esej.
Wymuś strukturę:
-
"Odpowiedź przedstaw w formie tabeli z dwiema kolumnami: [Zapis Umowy] | [Ryzyko Prawne]."
-
"Podziel tekst na sekcje z nagłówkami i użyj pogrubień dla najważniejszych tez."
-
"Stwórz listę punktowaną."
Studium Przypadku: "Słaby Prompt" vs "Dobry Prompt Prawniczy"
Teoria to jedno, ale zobaczmy, jak to wygląda w praktyce. Załóżmy, że analizujemy fragment umowy o dzieło (stworzenie strony internetowej), w którym wykonawca wyłącza rękojmię.
Scenariusz A: Podejście amatorskie
Prawnik wkleja fragment umowy i pisze:
Czy ten zapis jest korzystny dla zamawiającego? Co zmienić?
Co zrobi AI? Wygeneruje ogólną poradę: "Zapis wyłączający rękojmię może być niekorzystny, bo tracisz prawo do reklamacji. Warto negocjować przywrócenie rękojmi." To prawda, ale to truizm. Taka odpowiedź jest warta zero złotych. Każdy student I roku to wie.
Scenariusz B: Profesjonalne podejście prawnicze (Prompt Engineering)
Prawnik stosuje metodę 5 Filarów:
ROLA Działaj jako adwokat specjalizujący się w prawie własności intelektualnej i IT. Reprezentujesz Zamawiającego (duży e-commerce).KONTEKST Analizujemy projekt umowy wdrożeniowej. Wykonawca próbuje całkowicie wyłączyć rękojmię, oferując w zamian 12-miesięczną gwarancję na warunkach "Best Effort". Projekt jest krytyczny dla biznesu Klienta.
ZADANIE Przeprowadź krytyczną analizę ryzyka wyłączenia rękojmi w tym konkretnym kontekście. Następnie przygotuj 3 argumenty negocjacyjne dla Wykonawcy, dlaczego rękojmia musi zostać przywrócona (lub zastąpiona silnym SLA).
OGRANICZENIA Nie pisz definicji rękojmi. Skup się na ryzykach biznesowych (brak naprawy błędów krytycznych). Nie używaj ogólników.
FORMAT
Tabela Ryzyk.
Lista 3 argumentów negocjacyjnych (język korzyści dla Wykonawcy).
Propozycja brzmienia nowej klauzuli (klauzula kompromisowa).
Co zrobi AI? Dostarczy konkretną strategię. Wskaże, że "Best Effort" przy gwarancji to pułapka. Zaproponuje klauzulę, w której rękojmia jest ograniczona kwotowo, ale nie wyłączona. Dostaniesz gotowy wsad do maila negocjacyjnego.
Różnica? W pierwszym przypadku AI było wyszukiwarką. W drugim – konsultantem.
Zaawansowane Techniki: Chain of Thought i Few-Shot Prompting
Jeśli opanujesz powyższe 5 filarów, będziesz lepszy niż 90% użytkowników czatów AI. Ale jeśli chcesz wejść na poziom mistrzowski (i zaimponować w kancelarii), musisz poznać dwie techniki: Chain of Thought oraz Few-Shot Prompting.
1. Chain of Thought (Łańcuch Myśli)
Modele językowe często popełniają błędy w logice, jeśli próbują odpowiedzieć "od razu". Możesz wymusić na modelu, aby "myślał na głos".
Wystarczy dodać do promptu magiczną frazę:
Zanim udzielisz ostatecznej odpowiedzi, przeanalizuj ten problem krok po kroku. Wypisz najpierw przesłanki, potem subsumpcję, a na końcu konkluzję.
Badania pokazują, że wymuszenie na modelu "rozpisania sobie" problemu drastycznie (często o kilkadziesiąt procent) redukuje liczbę błędów logicznych i halucynacji. To idealne przy analizie kazusów.
2. Few-Shot Prompting (Dawanie Przykładów)
To najpotężniejsza technika w arsenale Prompt Engineera. Zamiast tylko opisywać, co model ma zrobić (Zero-Shot), pokaż mu to.
Jeśli chcesz, aby AI pisało streszczenia wyroków w Twoim specyficznym stylu, wklej mu w prompcie dwa przykłady Twoich wcześniejszych streszczeń.
ZADANIE Streszcz poniższy wyrok.PRZYKŁAD 1 Tekst Wyroku: (...) Streszczenie: Sąd Najwyższy w wyroku z dnia X uznał, że [Teza]. Kluczowe dla praktyki jest to, że [Wniosek].
PRZYKŁAD 2 Tekst Wyroku: (...) Streszczenie: SA w Warszawie potwierdził linię orzeczniczą, zgodnie z którą [Teza]. Oznacza to dla nas, że [Wniosek].
TWOJE ZADANIE Tekst Wyroku: [Tutaj wklejasz nowy tekst] Streszczenie:
Dając przykłady (shots), "kalibrujesz" model. Przestaje on zgadywać styl – on go kopiuje. To (Few-Shot Prompting) jest kluczem do automatyzacji nudnych, powtarzalnych zadań w kancelarii.
Polskie modele na polskim podwórku. Dlaczego warto znać Bielika?
Mówiąc o prompcie, nie możemy zapominać, z kim rozmawiamy. Większość prawników korzysta z ChatGPT (OpenAI), Claude (Anthropic) lub Gemini (Google). To modele trenowane głównie na danych anglojęzycznych. Owszem, mówią świetnie po polsku, ale ich rozumienie niuansów polskiej procedury cywilnej czy karnej bywa "zachodnie".
Dlatego "Aspirujący Technokrata" powinien zwrócić uwagę na lokalne rozwiązania, takie jak Bielik.ai. To polski, darmowy model językowy, trenowany specyficznie na rodzimych tekstach kultury i prawa.
Dlaczego to ważne? Bo w skomplikowanych kwestiach doktrynalnych, model karmiony polskimi podręcznikami może (choć nie musi) wykazać się większą intuicją językową niż gigant z Kalifornii. Warto testować te same prompty na różnych modelach, aby uzyskać optymalny wynik (tzw. Model Benchmarking). Czasem ChatGPT napisze lepszy mail do klienta, ale Bielik lub Claude lepiej poradzą sobie z analizą polskiego orzecznictwa. I choć w moim kursie skupiam się na pracy z Google Gemini i NotebookLM, to techniki inżynierii promptu, których tam uczę, są uniwersalne i z powodzeniem zastosujesz je w każdym innym modelu.
Halucynacje to nie błąd. To "Feature".
Na koniec musimy rozprawić się z mitem, że halucynacje dyskwalifikują AI w pracy prawnika. Halucynacja to nic innego jak kreatywność modelu. Kiedy prosisz AI o wymyślenie hasła marketingowego dla kancelarii, chcesz, żeby halucynowało (było kreatywne). Kiedy pytasz o sygnaturę akt – nie chcesz.
Twoim zadaniem jako operatora jest sterowanie temperaturą tej kreatywności.
-
Dobry prompt = niska temperatura (ścisłe trzymanie się faktów).
-
Zły prompt = wysoka temperatura (zgadywanie).
Jeśli Twoje AI "zmyśla wyroki", to znaczy, że pozwoliłeś mu na kreatywność w miejscu, gdzie wymagana była precyzja. Nie ustawiłeś Ograniczeń (Filar 4) i nie dostarczyłeś Kontekstu (Filar 2).
Prompt Engineering to nowa łacina
Kiedyś barierą wejścia do zawodu prawnika była znajomość łaciny i dostęp do drogich komentarzy papierowych. Dziś barierą staje się umiejętność efektywnej komunikacji z algorytmami.
Prawnik, który pisze: "Napisz pozew", zawsze otrzyma produkt gorszej jakości niż prawnik, który napisze: "Działając jako pełnomocnik powoda, sporządź petitum pozwu o zapłatę, uwzględniając solidarną odpowiedzialność pozwanych X i Y, opierając roszczenie na art. 415 kc, z następującym uzasadnieniem faktycznym...".
Ten drugi prawnik wykona pracę w 15 minut. Ten pierwszy spędzi 3 godziny na poprawianiu bzdur, które wygenerowało AI, i finalnie stwierdzi, że "to narzędzie jest do niczego".
Nie bądź tym pierwszym prawnikiem!
Prompt Engineering to umiejętność techniczna. Można się jej nauczyć tak samo, jak nauczyłeś się obsługi Lexa, Legalis czy Worda. To nie jest magia – to składnia.
Jeśli czujesz, że wykorzystujesz potencjał AI zaledwie w 10% i masz dość walki z opornym chatbotem AI, zapraszam Cię do mojego świata.
Chcesz przestać zgadywać i zyskać pełną kontrolę? W kursie "Prompt Engineering i NotebookLM w Pracy Prawnika" nie teoretyzujemy. To nie jest wykład akademicki. To warsztat.
-
Po ukończeniu kursu i wypełnieniu ankiety otrzymasz PromptBook – zbiór wszystkich promptów wykorzystanych podczas szkolenia (gotowe do skopiowania).
-
Zobaczysz na żywo, jak stosować Chain of Thought do analizy skomplikowanych stanów faktycznych.
-
Nauczysz się, jak jednym promptem zamienić wiele stron PDF w tabelę ryzyk.
Przestań walczyć z narzędziem. Zacznij nim zarządzać.
👉 Dołącz do kursu: Prompt Engineering i NotebookLM w Pracy Prawnika
PS. W następnym (ostatnim) artykule tej serii pokażę Ci coś, co sprawi, że zapomnisz o "czytaniu" akt. Pokażę Ci, jak z nimi "rozmawiać", mając 100% pewności, że AI nie zmyśla (dzięki funkcji Grounding). Do zobaczenia!
