AI potrafi w kilkanaście sekund wygenerować projekt umowy, który wygląda jak profesjonalny dokument. To jednak nie znaczy, że można mu bezrefleksyjnie zaufać. Warto wiedzieć, gdzie AI rzeczywiście pomaga, a gdzie jej błędy mogą kosztować bardzo dużo.
Potrzeba pilnej umowy o zachowaniu poufności, prostego aneksu albo wzoru zlecenia pojawia się w firmach regularnie. Prawnik nie zawsze jest pod ręką. Termin też często nie chce czekać. W takiej sytuacji wiele osób otwiera narzędzie AI, wpisuje krótki opis i po minucie dostaje gotowy dokument z paragrafami i miejscem na podpis.
Na pierwszy rzut oka wszystko wygląda dobrze. Tekst brzmi poważnie. Układ przypomina prawdziwą umowę. Problem zaczyna się później. Profesjonalny wygląd nie oznacza jeszcze poprawności prawnej. A w prawie to właśnie szczegóły decydują o tym, czy dokument chroni firmę, czy tylko sprawia takie wrażenie.
AI może być użyteczna przy pracy z umowami. Nie nadaje się jednak do tego, by bez kontroli człowieka tworzyć dokumenty wywołujące skutki prawne. To podstawowa granica, o której trzeba pamiętać.
Co AI robi dobrze
Modele językowe dobrze rozpoznają strukturę dokumentów. Widzą, jak zwykle wyglądają definicje, klauzule, postanowienia końcowe czy zapisy o poufności. Dzięki temu potrafią szybko przygotować pierwszy szkic prostego dokumentu.
Dobrze radzą sobie też z pracą pomocniczą. Mogą streścić długą umowę, porównać dwie wersje dokumentu. Mogą także wyciągnąć z tekstu kwoty, terminy, strony umowy albo okres wypowiedzenia. W takich zadaniach AI oszczędza czas. Nie męczy się też przy setnej stronie tekstu.
Warto przy tym zachować proporcje. Głośne badanie LawGeex z udziałem 20 prawników dotyczyło konkretnego zadania. Chodziło o wykrywanie ryzyk w pięciu umowach o zachowaniu poufności. System osiągnął 94% trafności. Średni wynik prawników wyniósł 85%. AI wykonała to zadanie w 26 sekund. Prawnikom zajęło to średnio 92 minuty.
To robi wrażenie. Nie oznacza jednak, że AI jest lepsza od prawników w całym prawie. Pokazuje raczej coś innego. W wąskich i powtarzalnych zadaniach potrafi działać bardzo sprawnie.
Gdzie zaczynają się problemy
Największy problem modeli językowych jest znany od dawna. Potrafią tworzyć treści, które brzmią pewnie i fachowo, ale są błędne. Nie chodzi wyłącznie o styl. Chodzi o nieistniejące orzeczenia, mylne podstawy prawne, źle użyte pojęcia albo klauzule, które wyglądają poprawnie, lecz nie dają realnej ochrony.
Najbardziej znanym przykładem pozostaje sprawa Mata v. Avianca. W 2023 roku do sądu trafiło pismo zawierające nieistniejące orzeczenia i fikcyjne cytaty wygenerowane przez AI. Sędzia P. Kevin Castel nałożył później grzywnę w wysokości 5000 dolarów. Problem nie polegał na samym użyciu narzędzia. Problem polegał na tym, że prawnicy nie sprawdzili tego, co podpisali i złożyli do akt.
Polski przykład też jest wymowny. Pod koniec 2025 roku media opisały sprawę z Sądu Okręgowego we Wrocławiu. Powód oparł pozew i dalszą argumentację na treściach wygenerowanych przez ChatGPT. Według relacji „Dziennika Gazety Prawnej” sąd oddalił powództwo. W sprawie pojawił się też problem pomieszania podstaw prawnych oraz traktowania odpowiedzi AI jak dowodu.
Takie historie pokazują jedno. W prawie nie wystarczy, że tekst brzmi dobrze. Każde zdanie musi jeszcze zgadzać się ze stanem faktycznym i prawnym.
Dlaczego AI się myli
Model językowy nie pracuje jak prawnik, który otwiera aktualny akt prawny albo sprawdza orzeczenie w bazie. On przewiduje najbardziej prawdopodobny ciąg słów. Tworzy tekst, który pasuje do wzorca, którego nauczył się wcześniej.
Dlatego może podać nazwę sprawy, numer przepisu albo klauzulę, które brzmią wiarygodnie, choć w rzeczywistości są błędne. To właśnie tutaj bierze się największe ryzyko. Im bardziej dokument opiera się na precyzyjnym stanie prawnym, tym mniej wolno ufać samodzielnemu wynikowi AI.
Gdzie leży bezpieczna granica
Najrozsądniejsze podejście jest proste. AI może przygotować szkic. Nie powinna jednak sama kończyć pracy nad dokumentem, który ma wywołać skutki prawne.
To oznacza, że przygotowanie pierwszej wersji prostej umowy o zachowaniu poufności, uproszczenie języka projektu albo streszczenie dokumentu do rozmowy z prawnikiem zwykle ma sens. Inaczej wygląda sytuacja przy umowie inwestycyjnej, przeniesieniu praw autorskich, licencji, pozwie, odpowiedzi na pozew albo dokumencie sądowym. Tam ryzyko robi się po prostu zbyt duże.
AI może więc pomagać. Nie powinna zastępować osoby, która rozumie, co naprawdę podpisuje firma.
Ogólne narzędzie to nie to samo co system prawniczy
Trzeba też odróżnić zwykłe narzędzia ogólnego przeznaczenia od systemów tworzonych specjalnie do pracy z kontraktami. Ogólne narzędzie AI potrafi napisać szkic umowy, ale zwykle nie daje gwarancji pracy na aktualnym stanie prawnym. Nie zawsze sprawdza też źródła i nie musi być ograniczone do konkretnego typu dokumentu.
Wyspecjalizowane systemy do analizy kontraktów działają inaczej. Są budowane po to, by porównywać dokumenty, rozpoznawać klauzule i wskazywać ryzyka w bardziej kontrolowanym środowisku. To nadal nie zwalnia z nadzoru człowieka. Zmniejsza jednak część ryzyk typowych dla ogólnego chatbota.
Co na to prawo
Wokół AI w prawie łatwo o przesadę, więc tu warto być precyzyjnym. AI Act nie oznacza, że każdy generator umów albo każde narzędzie użyte do szkicu dokumentu automatycznie staje się systemem wysokiego ryzyka. Unijne przepisy obejmują taką kategorią między innymi część systemów przeznaczonych do użycia przez organy wymiaru sprawiedliwości lub w podobnych procedurach. To znacznie węższa grupa niż zwykłe narzędzie używane w firmie do przygotowania projektu umowy.
Warto też pamiętać o kalendarzu zmian. AI Act wszedł w życie 1 sierpnia 2024 roku. Przepisy o praktykach zakazanych i obowiązkach dotyczących kompetencji w zakresie AI zaczęły obowiązywać od 2 lutego 2025 roku. Zasady dla modeli ogólnego przeznaczenia weszły w życie od 2 sierpnia 2025 roku. Większość przepisów zacznie być stosowana od 2 sierpnia 2026 roku. Część regulacji dla wybranych systemów wysokiego ryzyka zacznie obowiązywać dopiero od 2 sierpnia 2027 roku.
W Polsce ważnym punktem odniesienia są też rekomendacje Krajowej Izby Radców Prawnych z 2025 roku. KIRP zwraca uwagę na tajemnicę zawodową, ochronę danych, odpowiedzialność za treści generowane przez AI oraz potrzebę nadzoru człowieka. Kierunek jest jasny. AI ma wspierać pracę prawnika, a nie go zastępować.
Kiedy AI ma sens przy umowach
AI może być przydatna wtedy, gdy trzeba szybko przygotować pierwszy szkic prostego dokumentu, zrobić robocze streszczenie długiej umowy, porównać dwie wersje kontraktu albo przygotować listę pytań do prawnika przed konsultacją.
Dobrze działa też wtedy, gdy firma ma własny, sprawdzony wzór dokumentu i chce tylko dostosować go do nowej sytuacji. W takim układzie AI nie tworzy wszystkiego od zera. Pomaga raczej szybciej przerobić materiał, który już opiera się na bezpiecznej bazie.
Kiedy lepiej odpuścić
Są sytuacje, w których korzystanie z AI bez bardzo ścisłej kontroli po prostu nie ma sensu. Dotyczy to zwłaszcza umów o dużej wartości, dokumentów regulujących prawa autorskie i licencje, złożonych kontraktów B2B, klauzul odpowiedzialności, zabezpieczeń, gwarancji, kar umownych oraz wszelkich pism procesowych.
W takich sprawach nawet dobrze brzmiący szkic może zawierać błąd, który ujawni się dopiero wtedy, gdy spór już wybuchnie. Wtedy oszczędność z początku bardzo szybko zamienia się w koszt.
Bezpieczeństwo danych to osobna pułapka
Drugi duży problem nie dotyczy samej treści, lecz danych. Jeżeli do ogólnego narzędzia AI wkleja się projekt umowy z nazwami klientów, stawkami, warunkami handlowymi, danymi osobowymi albo zapisami o własności intelektualnej, trzeba najpierw wiedzieć, na jakich zasadach działa dana usługa.
Najbezpieczniej przyjąć prostą regułę. Do narzędzia nie powinno trafiać nic, czego ujawnienie byłoby dla firmy problemem. W praktyce bardzo często warto zanonimizować dokument przed analizą. Dobrze usunąć nazwy stron, kwoty, dane identyfikacyjne i inne wrażliwe elementy.
Podsumowanie
Sztuczna inteligencja może pomagać przy umowach i dokumentach prawnych, ale tylko wtedy, gdy jest traktowana jak narzędzie pomocnicze. Dobrze sprawdza się przy szkicach, streszczeniach, porównywaniu wersji i porządkowaniu treści. Nie powinna jednak być traktowana jako samodzielny autor finalnego dokumentu, który ma wywołać skutki prawne.
W praktyce warto pamiętać o kilku prostych zasadach:
- nie podpisuj dokumentu wygenerowanego przez AI bez weryfikacji
- nie ufaj bez sprawdzenia przepisom, orzeczeniom i cytatom, które narzędzie podaje z dużą pewnością siebie
- nie wklejaj też do przypadkowego systemu poufnej treści umowy tylko dlatego, że „to przecież trwa chwilę”.
Szybkość kusi, jednakże w prawie sama szybkość nigdy nie wystarcza.