ARTYKUŁY

Prawo autorskie w erze AI. Kto jest twórcą gdy decyduje algorytm?

Autor: Maciej Lesiak Opublikowano: słów: 2357 minut czytania: 12 minut czytania

Rzeczniczka patentowa Aleksandra Maciejewicz w podcaście TOK FM systematyzuje kluczowe pojęcia prawne dotyczące twórczości AI. Od problemu black boxa, przez zbieg roszczeń przy deepfake'ach, po praktyczne ryzyka dla każdego użytkownika generatywnej sztucznej inteligencji.

Kilka miesięcy temu przysłuchiwałem się konferencji DSA w Łodzi z czego wysnułem wniosek, że prawnicy nie do końca rozumieją czym Internet jest, czyli, że jest procesem, bulgoczącym chaosem. Dzisiaj w kontekście rozwoju AI i upowszechniania modeli LLM/AI staram się śledzić dyskusję dotyczącą kwestii praw autorskich. Modele AI są obecne w każdej branży, a ich wytwory są wykorzystywane dając przewagę nad konkurencją. Oczywistym jest, że każdy kto na poważnie zajmuje się adaptacją AI do biznesu zadaje sobie pytania jakie mamy realnie prawa autorskie do tego co jest wytworem naszej rozmowy czy sesji. Z materiałów udostępnianych przez firmy tworzące modele wynika, że autorem outputu jest osoba promptująca, czyli wprowadzająca input. Przyznam, że naiwnie przez wiele miesięcy mamiłem się tymi banałami.

Zapraszam czytelników do wejścia w bardziej zniuansowany świat definicji prawniczych oraz kwestii, które objaśniła w podcaście Gazety Wyborczej prowadzonym przez Sebastiana Ogórka, Aleksandra Maciejewicz - współzałożycielka kancelarii LAWMORE, rzeczniczka patentowa specjalizująca się w prawie nowych technologii i komercjalizacji własności intelektualnej. Moim zdaniem prawniczka przeprowadziła wyczerpujący przegląd stanu prawnego na styku sztucznej inteligencji i prawa autorskiego. Rozmowa wykracza poza typowe publicystyczne uproszczenia i wprowadza pojęcia, które każdy twórca i użytkownik AI powinien znać. Dodam jeszcze, że już ponad rok temu rozmawiałem z Anną Mroczek, która jest właścicielką studia animacji tworzącego oskarowe dzieła i ona w dyskusji przedstawiała mi argumenty dowodzące skomplikowanej kwestii użycia AI w pracy twórczej. Oczywiście to są kwestie nad którymi nie zastanawiają się plagiatorzy z jakimi mamy masowo do czynienia za sprawą AI.

Prompt to pomysł, a pomysł nie podlega ochronie

Jednym z najważniejszych rozróżnień, które Maciejewicz wprowadza w rozmowie, jest rozgraniczenie między promptem (poleceniem wydanym modelowi AI) a outputem (tym, co model wygeneruje). Na gruncie prawa autorskiego prompt traktowany jest jako pomysł, idea, sposób działania… a te, zgodnie z ustawą, nie są przedmiotem ochrony prawnoautorskiej. Proszę przeczytajcie to jeszcze raz ponieważ firmy sprzedające wam abonamenty AI/LLM dowodzą czegoś przeciwnego. Zatem nawet jeśli wasz prompt jest rozbudowanym esejem, chroniony jest wyłącznie jako utwór literacki, a nie jako źródło praw do tego, co AI na jego podstawie wyprodukuje.

Idąc dalej. To rozróżnienie, o ile zrozumieliście jego wartość formalno-logiczną, ma fundamentalne konsekwencje praktyczne. Osoba, która wpisuje w Midjourney, DALL-E czy ChatGPT nawet bardzo szczegółowe instrukcje, nie staje się automatycznie autorem wygenerowanego materiału w rozumieniu prawa autorskiego. Maciejewicz wskazuje na istnienie tzw. black boxa czyli „czarnej skrzynki" wewnątrz modelu AI, której działanie sprawia, że z tego samego promptu mogą powstawać zupełnie różne outputy. Skoro użytkownik nie kontroluje w pełni, jak jego polecenie zostanie przetworzone, trudno mówić o „piętnie osobistym" twórcy na powstałym dziele. Przeczytajcie ten akapit dwa albo trzy razy proszę.

Sprawa Jasona Allena: 624 prompty to za mało

Prawniczka przywołuje w rozmowie głośną i znaną decyzję amerykańskiego Urzędu ds. Praw Autorskich (US Copyright Office) dotyczącą obrazu „Théâtre D’opéra Spatial" autorstwa Jasona Allena. Allen użył systemu Midjourney, wprowadzając co najmniej 624 iteracji promptów, by osiągnąć pożądany efekt wizualny. Następnie edytował obraz w Adobe Photoshop i powiększał go za pomocą narzędzia Gigapixel AI.

Mimo tej rozbudowanej pracy iteracyjnej, US Copyright Office we wrześniu 2023 roku odmówił rejestracji praw autorskich. Uzasadnienie było jednoznaczne: „tradycyjne elementy autorstwa". Czyli koncepcja i wykonanie - zostały wygenerowane przez technologię, nie przez człowieka. Urząd uznał, że Midjourney nie interpretuje promptów jako bezpośrednich instrukcji tworzenia konkretnego wyrazu artystycznego, lecz konwertuje je na tokeny porównywane z danymi treningowymi, a punkt wyjścia stanowi losowy „szum wizualny, jak śnieg na ekranie telewizora" (dokumentacja Midjourney cytowana w decyzji). Jest to zapewne ciężkie do zrozumienia dla gadających głów z Youtube, które generują sobie setki godzin AI jako rzekomo ich wytwory.

Jednak co szczególnie interesujące, Urząd porównał sytuację Allena do sprawy Kelley v. Chicago Park District, w której sąd odmówił praw autorskich twórcy „żywego ogrodu". I moim zdaniem ta analogia jest trafna: tak jak ogród „zawdzięcza większość swojej formy i wyglądu siłom natury", tak obraz wygenerowany przez Midjourney zawdzięcza swój ostateczny kształt danym treningowym modelu i losowemu ziarnu (seed) procesu dyfuzji. I nie tak jak wam wciskają big techy, nie zawdzięczają promptowi użytkownika. Allen zaskarżył tę decyzję do sądu federalnego w Kolorado i sprawa toczy się nadal.

W styczniu 2025 roku US Copyright Office wydał dodatkowy raport potwierdzający swoje stanowisko: sztuka wygenerowana przez AI na podstawie promptu tekstowego nie może być chroniona prawem autorskim. Nie chroni was nawet fakt, że stosujecie zaawansowane i długie, ukierunkowane instrukcje i wielokrotne iteracje. Jednocześnie Urząd dopuścił możliwość, że same prompty, jeśli są wystarczająco twórcze, mogą podlegać ochronie jako dzieła literackie. Zatem szacowni Państwo zapisujcie swoje sesje czatów AI, bo to one w całości z ich artefaktami podlegają ochronie, a nie same tylko artefakty.

” While “prompts may reflect a user’s mental conception or idea, . . . they do not control the way that idea is expressed” and the “user lacks control over the conversion of their ideas into fixed expression.” U.S. Copyright Office: AI Prompts Alone Provide Insufficient Control Over Expression to Protect AI-Generated Content

Jednak najważniejsze jest kryterium, które wg Maciejewicz wyłania się z orzecznictwa: decydujące znaczenie TUTAJ ma decyzyjność co do ostatecznej formy outputu. Analogię jaką przedstawia i do mnie ona, muszę ze smutkiem stwierdzić, przemawia, stanowi dawne orzeczenie dotyczące asystenta fotografa. Otóż choć to asystent obsługiwał aparat, prawa autorskie przyznano fotografowi, który „dyrygował" procesem twórczym z wystarczającą precyzją. Przy AI ta analogia jest jednak problematyczna, ponieważ black box wprowadza element losowości porównywalny do techniki action painting Jacksona Pollocka, gdzie artysta też nie kontrolował dokładnie, jak spadną krople farby.

Stefan Thaler i DABUS — paradoks uczciwości

Drugim filarem rozmowy jest saga patentowa Stefana Thalera i jego systemu AI o nazwie DABUS (Device for the Autonomous Bootstrapping of Unified Sentience). Thaler stworzył autonomiczny system AI zdolny do samodzielnego generowania wynalazków i od lat prowadzi kampanię prawną w wielu jurysdykcjach, dążąc do uznania DABUS za wynalazcę w zgłoszeniach patentowych. Sprytne, prawda? Taka maszynka do zarabiania.

Jednak bilans tej gorączki złota jest jednoznaczny: Thaler przegrał praktycznie wszędzie. W USA (Federal Circuit, potwierdzony przez odmowę certiorari przez Sąd Najwyższy w 2023 roku), w Wielkiej Brytanii (Sąd Najwyższy UK, grudzień 2023), w Australii, Niemczech, przed Europejskim Urzędem Patentowym, w Izraelu i Nowej Zelandii. Jedyny sukces odniósł w RPA, ale tamtejszy system patentowy nie przewiduje merytorycznej weryfikacji zgłoszeń, wystarczy spełnienie wymogów formalnych. Maciejewicz w TOKFM powiedziała:

Paradoks Thalera: Sądy wprost wskazywały, że Thaler przegrał przez swoją uczciwość. Gdyby zamiast DABUS wskazał siebie jako wynalazcę, zgłoszenia patentowe prawdopodobnie by przeszły. Niemiecki Federalny Sąd Patentowy dopuścił nawet taką poprawkę. Thaler mógł się wskazać jako wynalazca „który posłużył się sztuczną inteligencją DABUS do wygenerowania wynalazku" — i ta wersja została zaakceptowana. Prawo de facto zachęca do przemilczania roli AI w procesie wynalazczym.

No i moim zdaniem to jeden z najostrzejszych wniosków, jakie wyłaniają się z rozmowy i dotyczy oczywiście nie tylko patentów. Decyzja US Copyright Office w sprawie Allena daje identyczny sygnał: gdyby Allen nie ujawnił roli Midjourney, jego praca mogłaby zostać zarejestrowana bez przeszkód. System nagradza nieprzejrzystość. Używając zatem artefaktów po prostu mówisz, że sam jesteś ich twórcą.

Spieszę wyjaśnić, że prawo autorskie (chroni ekspresję twórczą) i patentowe (chroni wynalazki techniczne) to dwa odmienne reżimy prawne. Prawo autorskie pyta „kto faktycznie stworzył?" i odpowiada tak mówiąc najogólniej: nie ty, bo black box. Prawo patentowe pyta „kto jest wpisany jako wynalazca?" i odpowiada: ktokolwiek byle osoba fizyczna, a jeśli wpiszesz maszynę, odrzucamy z powodów formalnych. Chciałbym, żeby było to dla was jasne, bo patent to jedno, a prawo autorskie to co innego. Efekt jest jednak taki sam, że oba systemy prowadzą do tego samego cynicznego wniosku: milcz o AI.

Kradzież głosu: polski precedens Jarosława Łukomskiego

Rozmowa w podcaście dotyka również problemu deepfake’ów i ochrony wizerunku audialnego. Maciejewicz omawia przypadek, który jest znany na pewno wszystkim czytającym ten artykuł specjalistom od AI, który od końca 2025 roku budzi ogromne zainteresowanie w Polsce. Chodzi oczywiście o sprawę lektora Jarosława Łukomskiego.

Łukomski to jeden z najbardziej rozpoznawalnych polskich lektorów, znany z dubbingu filmów takich jak „Milczenie owiec" czy „Chłopcy z ferajny". Słuchałem wywiadu z nim i on pewnego dnia odkrył, że jego głos został sklonowany przy pomocy AI i użyty w reklamie firmy JFC Polska, producenta zbiorników na nieczystości. Łukomski powiedział, że nigdy nie wyraził na to zgody, nie wiedział o reklamie i nie otrzymał wynagrodzenia.

Sprawa trafiła do Wydziału Własności Intelektualnej Sądu Okręgowego w Warszawie jako pierwszy w Polsce pozew o cyfrową kradzież głosu. Na rozprawie w styczniu 2026 roku sąd powołał biegłego z zakresu fonoskopii, by ocenić stopień podobieństwa głosu w reklamie do głosu Łukomskiego. Pełnomocnicy lektora domagają się 50 tysięcy złotych zadośćuczynienia oraz ponad 100 tysięcy złotych tytułem bezpodstawnego wzbogacenia.

Tutaj skupmy się proszę, bo sytuacja się komplikuje, a Maciejewicz wskazuje, że w takich sprawach mamy do czynienia ze zbiegiem co najmniej trzech reżimów prawnych: ochrony dóbr osobistych (kodeks cywilny — głos jako element wizerunku), RODO (głos jako dana biometryczna umożliwiająca identyfikację osoby) oraz potencjalnie przepisów karnych (zniewaga, pomówienie w przypadku kompromitującego kontekstu). Co istotne, nawet jeśli firma nie wykorzystała bezpośrednio próbki głosu lektora, ale doprowadziła do powstania głosu „myląco podobnego" do oryginału, może dojść do naruszenia dóbr osobistych. Analogicznie do spraw z zakresu nieuczciwej konkurencji, gdzie wystarczy, że konsument ma skojarzenie z konkretną osobą. Do mnie trafiają te argumenty.

Odpowiedzialność bezwzględna i pułapka mediów społecznościowych

Jednym z najważniejszych ostrzeżeń, jakie Maciejewicz formułuje w rozmowie, dotyczy odpowiedzialności bezwzględnej w prawie autorskim. Oznacza ona, że zamiar sprawcy nie ma znaczenia, czyli nie liczy się, czy celem było dotarcie do milionów odbiorców, czy tylko wysłanie żartobliwego nagrania znajomemu.

Maciejewicz wyjaśnia, że istnieje wyłączenie dla użytku osobistego (prywatnego) - obejmującego relacje rodzinne i przyjacielskie. Jednak moment, w którym materiał trafia na serwis społecznościowy, zmienia sytuację diametralnie. Nawet jeśli intencją było udostępnienie wąskiemu gronu znajomych, treść może stać się viralem, a odpowiedzialność za naruszenie praw autorskich spoczywa na osobie, która materiał udostępniła. Serwisy społecznościowe ponoszą współodpowiedzialność dopiero od momentu, gdy uzyskają informację o bezprawności treści.

Gdy prawo autorskie odpada, czyli jakie mamy inne narzędzia ochrony

Z tego co rozumiem z rozmowy z Maciejewicz prawo autorskie to tylko jeden z kilku reżimów ochrony własności intelektualnej i co ciekawe niekoniecznie najważniejszy w kontekście AI. Gdy ochrona prawnoautorska nie przysługuje (bo nie ma ludzkiego twórcy), pozostają alternatywne ścieżki prawne:

Reżim prawnyCo chroni w kontekście AI?Przykład zastosowania
Dobra osobiste (k.c.)Głos, wizerunek, nazwiskoDeepfake głosowy lektora
Zwalczanie nieuczciwej konkurencjiInwestycję, renomę, nakład pracyKopiowanie stylu i marki artysty
Prawo patentoweRozwiązania techniczneAlgorytmy z „dalszym efektem technicznym"
RODODane biometryczneNieautoryzowane użycie próbki głosu
Ochrona know-howMetodologię, procesyPipeline promptowania i postprodukcji
Ochrona baz danychZbiory danychZestawy treningowe i kurowane datasety

Zatem co dla mnie najbardziej interesujące, to wyłaniający się kluczowy wniosek: prawo autorskie nie jest jedyną ani nawet najważniejszą ścieżką. „Pasożytnictwo" na cudzej renomie, kopiowanie oznaczeń, bezpodstawne wzbogacenie, każdy z tych mechanizmów może zapewnić ochronę tam, gdzie prawo autorskie odpowiada „nie". W kwestii formalnej wygląda to wszystko solidnie, ale wchodzimy na grząski grunt kwestii technicznych, a po obecności na konferencji DSA w Łodzi mam wątpliwości co do rozumienia przez prawników (opartych o wiedzę ekspercką specjalistów) czym internet jest.

Dokąd zmierzają regulacje?

Maciejewicz identyfikuje trzy równoległe kierunki regulacyjne, które będą kształtować przyszłość prawną AI:

Po pierwsze, AI Act i Digital Omnibus w UE, które jak wiemy wprowadzają w sferze deklaratywnej obowiązek transparentności: podsumowanie danych treningowych modelu (ułatwiające dochodzenie roszczeń za nieautoryzowane trenowanie) oraz obowiązkowe metadane wskazujące, że treść została wygenerowana przez AI. Jak jest w rzeczywistości może ocenić każdy z czytelników sam.

Po drugie, wytyczne EPO (Europejskiego Urzędu Patentowego), są one z tego co rozumiem aktualizowane corocznie, i wytyczne te wykazują tendencję do rozluźniania podejścia do patentowania wynalazków obejmujących AI. Tak, to jest ta upragniona deregulacja. Kluczowe tutaj jest pojęcie „dalszego efektu technicznego", czyli najogólniej programów komputerowych jako takich nie można patentować, ale jeśli prowadzą do konkretnych efektów technicznych, ochrona patentowa staje się możliwa. Jest tutaj zatem szerokie pole do odpowiedniego pakowania technologii w ramy formalne, aby je zabezpieczyć.

Po trzecie — i zdaniem Maciejewicz najprawdopodobniej jako pierwsze — lobby organizacji zbiorowego zarządzania (OZZ, takich jak ZAiKS) będzie dążyć do wprowadzenia opłat licencyjnych lub mechanizmu zbliżonego do opłaty reprograficznej za wykorzystywanie utworów do trenowania modeli AI. To kierunek najbardziej zbliżony do istniejących mechanizmów rynkowych i najłatwiejszy do wdrożenia. I to jest sedno niezrozumienia na jakiej pozycji są twórcy w zderzeniu z Big Techami, a co widzimy w kontekście opisywanej przeze mnie hipokryzji obrony dziennikarstwa przez CEO wp.pl w kontekście rzekomo niesprawiedliwego podziału tortu reklamowego ze strony Google. Chodzi nie o prawa autorskie, prawdę tylko o pieniądze.

Wnioski: prawo nie nadąża, ale czy jest bezradne?

Jeden z najciekawszych podcastów TOK FM z udziałem Aleksandry Maciejewicz jakie ostatnio słyszałem o AI pokazuje, że choć prawo nie dysponuje jeszcze dedykowanymi regulacjami dla twórczości AI, to chyba nie jest całkowicie bezradne. Potencjalnie istnieją instrumenty od dóbr osobistych, przez RODO, czyny nieuczciwej konkurencji, po prawo patentowe i czysto teoretycznie tworzą siatkę ochronną, która już teraz pozwala dochodzić roszczeń w wielu scenariuszach. W mojej subiektywnej ocenie sądy analizujące sprawy od strony formalnej tak samo jak w przypadku DSA tracą realnie kontrolę nad raptownie zmieniającą się technologią. Jest też spora dyproporcja pomiędzy potencjałem pojedynczej osoby poszkodowanej w zderzeniu np. z korporacją. Czy ktoś wierzy, że dojdzie np. do ujawnienia części algorytmów rekomendacyjnych albo procedur generatywnych, czy danych treningowych?

Ujawniają się tutaj fundamentalne napięcia, z którymi mierzą się chyba systemy prawne na całym świecie, co można wysnuć po prostu z publikacji prasowych odwzorowujących stan debaty: jak zdefiniować autorstwo w erze generatywnej AI? Czy 624 prompty wystarczą, by uznać człowieka za twórcę? Gdzie kończy się narzędzie, a zaczyna autonomiczny „twórca"? I wreszcie: czy uczciwe wskazanie roli AI w procesie twórczym powinno pozbawiać ochrony, jak pokazuje paradoks Stefana Thalera? A DSA wymaga takiego wskazania…

Mam nadzieję, że zaciekawiłem czytelników tym tematem. Od kilku lat pracy z modelami LLM/AI oraz rozmów np. z osobami z branży kreatywnej widać, że na te pytania odpowiedzi będą formułowane stopniowo. Przez sądy, urzędy patentowe i regulatorów, a także po prostu codzienność. Sprawa Łukomskiego w Warszawie może stać się jednym z kamieni milowych na tej drodze.


Podcast Gazety Wyborczej dostępny jest na stronie audycje.tokfm.pl.

Aleksandra Maciejewicz jest współzałożycielką kancelarii LAWMORE, specjalizującej się w obsłudze startupów i branży kreatywnej, oraz założycielką ONDARE legal/business hub.

U.S. Copyright Office: AI Prompts Alone Provide Insufficient Control Over Expression to Protect AI-Generated Content

Copyright Office Issues Report on Copyrightability of AI Content

Allen v. Perlmutter (1:24-cv-02665) District Court, D. Colorado