AI a prawo autorskie

Narzędzia generatywnej sztucznej inteligencji (genAI) sprawiają, że praca staje się prostsza i szybsza – niekoniecznie kosztem gorszych efektów. Za ich pomocą wiele firm, zarówno usługowych, jak i produkcyjnych, przechodzi właśnie rewolucję. Z dobrodziejstw genAI trzeba jednak korzystać świadomie, bo wytworzone w ten sposób utwory mogą nie podlegać tradycyjnej ochronie prawnoautorskiej. O tym, z jakimi ryzykami się liczyć i czy kreatywność promptu ma wpływ na oryginalność wytworu genAI piszemy poniżej.

Ukryte koszty korzystania ze sztucznej inteligencji

Narzędzia napędzane sztuczną inteligencją często udostępnianie są – przynajmniej częściowo – za darmo. Tworzenie z ich pomocą jest proste i przebiega błyskawicznie. Daje również świetne efekty. Myli się jednak ten, kto myśli, że mają wyłącznie zalety.

Jednym z kosztów wliczonych w pozornie bezpłatną możliwość korzystania z narzędzi AI jest ryzyko braku ochrony prawnoautorskiej. W przypadku wielu branż, taka cena może okazać się bardzo wysoka. Przykładem może być tutaj marketing czy IT. Załóżmy, że pracownik agencji reklamowej, dzięki prostemu promptowaniu, wygenerował z pomocą Midjourneya grafikę, którą od razu przekazał do klienta. Ten z kolei opublikował ją na mediach społecznościowych swojej firmy.

Stworzony w ten sposób materiał nie jest chroniony przed plagiatem czy innym wykorzystaniem ze strony konkurencji. W praktyce dowolna firma mogłaby z niego skorzystać lub wygenerować równolegle identyczną grafikę i nie doszłoby do naruszenia prawa autorskiego.

Aby wytworowi przysługiwała ochrona prawnoautorska, musiałby on być utworem w rozumieniu przepisów prawa autorskiego. Niestety treści tworzone np. przez popularny ChatGPT czy wspomniany Midjourney rzadko wpisują się w taką definicję. Są jednak działania, które mogą pomóc w zapewnieniu ochrony.

Zapamiętaj

Co zrobić, by uzyskać ochronę wytworu?

Powróćmy do wspomnianego przykładu i załóżmy, że konkurencyjna firma faktycznie wykorzystała grafikę i użyła jej na własnej stronie internetowej. Czy jest tutaj jakiekolwiek pole do działania i wyciągnięcia konsekwencji – w tym np. zobowiązanie do usunięcia materiału z witryny? Jeśli weźmiemy pod uwagę prawo własności intelektualnej, to okaże się, że w teorii są pewne możliwości.

Dużo zależy jednak od tego, jak znaczące było zaangażowanie użytkownika narzędzia w stworzenie generacji. Chodzi np. o to, jak bardzo rozbudowany był proces promptowania, jakie elementy twórcze dodał człowiek i czy był to wystarczający poziom do uzyskania ochrony prawnoautorskiej.

Niestety nie istnieją konkretne wytyczne np. liczbowe, których spełnienie uprawnia do uzyskania ochrony. Jakąś wskazówką może być jednak stanowisko U.S. Copyright Office Review Board z 2023 r. Instytucja stwierdziła wówczas, że wprowadzenie nawet ponad sześciuset iteracji (podpowiedzi np. w zakresie postaci na grafice, jej stylu czy kolorystyki) nie jest dostatecznym dowodem na to, że autorem grafiki jest człowiek. Copyright Office nie wykluczył jednak, że element faktycznej twórczości w procesie generacji i/lub poddanie wytworu dalszej obróbce graficznej może zapewnić ochronę prawnoautorską.

Podkreślmy jednak, że powyższe nie tylko nie daje pewności, ale są to też wnioski bazujące na amerykańskim systemie prawnym. Chociaż mogą one mieć wpływ na to, jak działać będą w takich obszarach europejskie sądy, to wciąż nie jest to pewnik.

AI a prawo autorskie i prawo własności przemysłowej

Skoro ustalenie twórcy dla wytworów generatywnej AI nie jest tak proste w przypadku prawa autorskiego, być może inaczej jest, gdy mowa o prawie własności przemysłowej? To właśnie na bazie tych przepisów można np. uzyskać ochronę w postaci patentu.

Niestety i tutaj występują podobne problemy. Znane są nawet przypadki, gdy twórcy składali wnioski patentowe, w których wskazywali AI jako wynalazcę – nie siebie. W większości takich sytuacji urzędy odmawiały ochrony, a sprawy odwoławcze kończyły się niepowodzeniem. Teoretycznie wydaje się to ciekawą próbą przełamania poglądu o tym, że jedynie ludzie mogą być wynalazcami. W praktyce biznesowej teza ta jednak nie przyczyni się do oczekiwanych efektów (czyli możliwości uzyskania ochrony).

Nie dotyczy to jednak znaków towarowych, które nie muszą stanowić utworu w rozumieniu prawa autorskiego, a ochronie podlegają od momentu skutecznej rejestracji. Teoretycznie istnieje więc możliwość wykorzystania wytworów AI właśnie w takiej formie. Podkreślmy jednak, że tu również wciąż istnieje szansa, że przy rejestracji znaku nastąpi to samo, co może się wydarzyć z każdą inną treścią. Chodzi o sytuację, gdy inny podmiot wykorzysta ten sam prompt wcześniej i spróbuje zarejestrować taki sam czy podobny znak towarowy w tym samym czasie.

Czy jest więc coś, co może nam zagwarantować ochronę wytworu? W tej chwili wydaje się, że nie ma jednoznacznej odpowiedzi na to pytanie, szczególnie biorąc pod uwagę zróżnicowany wachlarz sytuacji pośrednich pomiędzy ,,czystą” generacją a dziełami ludzkimi powstającymi przy wsparciu AI.

Istnieją jednak działania, zabezpieczające interes prawny lub chociażby minimalizujące ryzyka prawne, które powinny stać się stałym elementem korzystania ze sztucznej inteligencji w organizacji. W pierwszej kolejności chodzi tutaj o podstawy takie jak analiza regulaminu danego narzędzia (oczywiście jeszcze przed jego użyciem). Kwestie, które trzeba sprawdzić na początku prezentujemy na grafice.

Korzystanie ze sztucznej inteligencji wymaga sprawdzenia tych 3 rzeczy w regulaminie narzędzia

Znalezienie odpowiedzi na wspomniane wyżej pytania daje podstawę dla bezpiecznego i świadomego użytkowania genAI oraz dalszych kroków w przemyślanej polityce korzystania ze sztucznej inteligencji  w organizacji. W ten sposób można uniknąć zarówno komplikacji podatkowych z autorskimi kosztami uzyskania przychodu (50% KUP), jak i odpowiednio zmodyfikować wiążące zobowiązania umowne (z naszymi kontrahentami, klientami lub dostawcami rozwiązań IT). Ten temat omówimy szerzej w odrębnym artykule – zachęcamy do śledzenia naszego bloga.

Oryginalność a genAI

Oryginalność może mieć duże znaczenie w kontekście uzyskania przewagi konkurencyjnej, a treści tworzone przy wykorzystaniu uczenia maszynowego nie są niepowtarzalne. Narzędzia genAI mogą dostarczać różnym użytkownikom bardzo podobny lub nawet ten sam wynik. Dlaczego tak jest?

Narzędzie nie może gwarantować niepowtarzalności

GenAI kreuje wyniki na bazie danych treningowych, które posłużyły do wyuczenia modelu. W uproszczeniu – tworzy na ich podstawie probabilistyczny wynik, co w skali globalnego użycia konkretnego narzędzia nie zapewnia wyłączności generacji (i jest to niezależne od woli samego dostawcy narzędzia).

W kontekście powtarzalności wyników warto wiedzieć, że w większości regulaminów znajduje się zapis dotyczący odpowiedzialności za naruszenie praw osób trzecich. Producenci narzędzi najczęściej obarczają nią użytkownika.

Ryzyko prawne wynikające z wykorzystania powtarzalnego wytworu można jednak ograniczać, np. przez dalszą jego obróbkę. Świetnie więc sprawdzi się zasada, że pierwszy wynik jest jedynie początkiem procesu, wymagającym dalszej pracy. Im więcej kreatywności włoży w wytwór użytkownik, tym większa szansa uzyskania ochrony prawnoautorskiej oraz zapewnienia oczekiwanego poziomu oryginalności.

Niektóre z narzędzi zapewniają możliwość definiowania ,,poziomu kreatywności”, z jaką program ma odpowiedzieć na prompty. W części znajdują się np. suwaki natężenia losowości lub wybór rodzaju odpowiedzi (bardziej kreatywnych lub bardziej precyzyjnych). Ostatecznie jednak nie da się w pełni skontrolować tego, jak ,,bardzo oryginalny” jest wytwór. Zawsze jest więc ryzyko, że wynik będzie kopią utworu, do którego ktoś ma już prawa. A wtedy dojdzie do naruszenia praw osób trzecich, co może się skończyć sporem na drodze sądowej. Czy da tego uniknąć?

Spory o naruszenie praw osób trzecich

Jak wspomnieliśmy, większość firm oferujących narzędzia generatywnej AI obciąża odpowiedzialnością za ewentualne naruszenia praw osób trzecich użytkownika. Zdarza się jednak, że producenci deklarują pokrycie kosztów takich postępowań. Przykładem może być tutaj OpenAI czy Microsoft (dla użytkowników Copilota). Jest jednak haczyk – w obu przypadkach deklaracja dotyczy wyłącznie klientów biznesowych, korzystających z odpłatnych wersji narzędzi (i jest obarczona dodatkowymi warunkami). Nie jest to jeszcze powszechnie  spotykane podejście, ale można to uznać za pozytywny krok ku zabezpieczeniu interesu użytkownika. Już sam świadomy wybór narzędzia genAI gra więc niebagatelną rolę.

Uwaga

Ryzyko może wystąpić z dwóch stron

Poza świadomością, że korzystanie ze sztucznej inteligencji, która generuje treści, niesie ryzyko naruszenia praw osób trzecich, warto pamiętać, że nasze organizacje występują również ,,po drugiej stronie barykady”. Są podmiotami uprawnionymi z tytułu praw autorskich do dzieł służących do treningu modelu AI. Dane treningowe, będące podstawą do budowy narzędzi generatywnej AI,  znajdują się w internecie. Jeśli więc jesteśmy autorami treści dostępnych online, to powinniśmy mieć świadomość, że efekty naszej pracy również stają się podstawą dla działania modeli. Ryzyko naruszenia praw może więc dotknąć nas również od takiej strony.

Można jednak próbować je ograniczać np. blokując dostępu do witryny internetowej botom dostawców modeli językowych – przez plik robots.txt. Analizy wymaga jednak nie tylko technologiczna sfera dokonania takiego zastrzeżenia, ale również prawne aspekty wynikające z bieżącej legislacji unijnej, głównie dyrektywy DSM[1] i AI Aktu[2].

Jak korzystać ze sztucznej inteligencji?

Świadome korzystanie ze sztucznej inteligencji, która napędza działanie narzędzi generatywnych, może uchronić każdą organizację przed bardzo poważnymi (często kosztownymi) konsekwencjami. I dotyczy to zarówno sytuacji, w których korzystamy z już gotowego narzędzia genAI, jak i wtedy, gdy budujemy (lub zlecamy wybudowanie) własnego rozwiązania IT opartego na dużym modelu językowym. Zapoznanie się z regulaminem i ustalenie strategii działania zarówno przed, w trakcie i po wdrożeniu to absolutna podstawa.

W przypadku pytań z tego zakresu zachęcamy do kontaktu. Możemy pomóc w zidentyfikowaniu ryzyk korzystania z genAI oraz zaplanowaniu procedur, które będą je eliminować.


[1] https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX:32019L0790

[2] https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX%3A52021PC0206

Autor: Maria Dymitruk

COUNSEL | RADCA PRAWNY | OW LEGAL maria.dymitruk@olesinski.com

Autor: Daniel Kula

JUNIOR ASSOCIATE | OW LEGAL daniel.kula@olesinski.com