–
Bo może to już nie tylko pytanie o prawa autorskie. Może to pytanie o odpowiedzialność. O wizerunek. O etykę komunikacji, która ma twarz lidera, ale głos… algorytmu.
Wyobraźmy sobie scenariusz: marketingowiec firmy X prosi ChatGPT o stworzenie tekstu kampanii. Dwa kliknięcia, trochę promptowania, tekst gotowy. Materiał trafia do grafika, później do działu PR, a na końcu zostaje podpisany nazwiskiem prezesa. „List od Prezesa” – głosi nagłówek newslettera. Brzmi znajomo? Na pierwszy rzut oka – nic nadzwyczajnego. Ot, kolejna decyzja brandingowa. Ale z punktu widzenia prawa, komunikacji i odpowiedzialności – to już temat na osobną analizę.
Zgodnie z polską ustawą o prawie autorskim i prawach pokrewnych, autorem może być wyłącznie człowiek. Nie algorytm, nie „system uczący się”, nie chatbot. Tylko osoba fizyczna. To ona może posiadać prawa autorskie osobiste i majątkowe, i to jej przysługują uprawnienia wynikające z ustawy. A zatem: jeśli coś zostało stworzone wyłącznie przez AI, nie przysługuje temu ochrona prawa autorskiego w rozumieniu klasycznym. W praktyce mówimy o tzw. „dziełach osieroconych” – nikt nie jest autorem, nikt nie ma praw, ale wszyscy mogą z nich korzystać. Do pewnego stopnia. Z pozoru otwiera to drzwi do wolności. Ale wolność bez kontekstu bywa ryzykowna.
Coraz częściej mówi się o tzw. twórczości przez prompt – czyli sytuacji, w której efekt pracy AI stanowi rezultat indywidualnej i twórczej pracy człowieka nad treścią polecenia. Ale tu też nie ma automatyzmu. Jeśli prompt był prosty, ogólnikowy i schematyczny, nie ma mowy o wkładzie twórczym. Nawet zastosowanie ponad 600 szczegółowych wskazówek (tzw. promptów) nie przesądza o istnieniu twórczego wkładu człowieka, który uzasadniałby przyznanie ochrony prawnoautorskiej[1]. Ale jeśli polecenie miało przemyślaną strukturę, styl, wizję i cel – możemy mówić o współautorstwie. W praktyce sądowej nie chodzi o to, czy użyto AI, ale o sposób jej wykorzystania. Jeśli narzędzie było tylko pomocą – autor jest człowiekiem. Jeśli natomiast cały proces twórczy odbył się bez udziału ludzkiej refleksji – ochrona autorska nie przysługuje nikomu.
W świecie marketingu i komunikacji korporacyjnej to już niemal standard: teksty generowane przez AI są sygnowane nazwiskiem prezesa, członka zarządu, eksperta. To wygodne. Buduje wizerunek. Wzmacnia autorytet. Ale czy jest to zawsze zgodne z intencją i prawem? Jeśli odbiorca zakłada, że czyta autorski komentarz lidera firmy, a w rzeczywistości obcuje z syntetyczną kompilacją, może poczuć się wprowadzony w błąd. I nawet jeśli nie będzie rościł sobie pretensji prawnych, to ziarno nieufności zostanie zasiane. Wizerunek to dziś kapitał równie cenny jak dane chronione. I nie warto go poświęcać dla pozorów autentyczności.
Podpisywanie treści AI nazwiskiem członka zarządu może nieść ze sobą realne ryzyka:
Prezes, który podpisuje się pod treścią, bierze za nią odpowiedzialność. I to nie symboliczną – lecz realną, opartą o art. 293 KSH, przepisy podatkowe, regulacje sektorowe. AI nie stanie przed komisją rewizyjną. Prezes – jak najbardziej.
Przyjęcie odpowiedzialności za tekst wygenerowany przez AI ucieleśniło się w sprawie sądowej (nr 2:23-cv-00118) toczącej się w Stanach Zjednoczonych. Pełnomocnicy z kancelarii Morgan & Morgan, reprezentujący rodzinę Wadsworthów, złożyli w jej imieniu pozew o zadośćuczyniene za poniesione straty przeciwko sieci sklepów Walmart i firmie Jetson Electric Bikes. W przedstawionych wnioskach dowodowych, pełnomocnicy powołali się na dziewięć orzeczeń sądowych, z których osiem okazało się nieistniejącymi. Fikcyjne cytaty zostały wygenerowane przez wewnętrzne narzędzie AI kancelarii.W wyniku tego naruszenia, na trzech prawników nałożone zostały sankcje finansowe – dwoje z nich otrzymało 3000 dolarów kary, trzeci jedynie 1000 dolarów[2]. Sąd podkreślił, że choć technologia AI może być użyteczna w praktyce prawniczej, nie zwalnia to prawników z obowiązku weryfikacji źródeł i przeprowadzenia rozsądnego dochodzenia w zakresie obowiązującego prawa.
W praktyce zdarza się, że teksty „na szybko” generowane przez AI trafiają bezpośrednio do publikacji – bez przeglądu przez dział prawny, podatkowy, ESG, IR czy PR. To błąd. I to kosztowny. W dobie transformacji cyfrowej kluczowe jest nie tylko tempo, ale też bezpieczeństwo treści. Często korzystając z AI, nie zdajemy sobie sprawy, że informacje, które są w niej zawarte, są aktualne jedynie na konkretną datę[3]. Przestrogą przed bezrefleksyjnym korzystaniem z treści generowanych przez sztuczną inteligencję może być sytuacja, kiedy pisarka Melanie Wilson poprosiła ChatGPT o podanie słynnego cytatu z filmu Pretty Woman. Chciała go użyć w reklamie. ChatGPT dostarczył cytat, który na pierwszy rzut oka wydawał się idealny. Jednakże po próbie jego weryfikacji okazało się, że cytat ten prawdopodobnie został zmyślony i nie pochodzi z żadnej sceny filmu[4].
Dlatego:
W wielu firmach wdrażane są już procedury zarządzania AI – tzw. AI governance policies. I bardzo dobrze. Bo AI to nie narzędzie typu PowerPoint. To źródło treści, które wymaga nadzoru. Świadome firmy już dziś określają:
Brak takiej polityki może w przyszłości zostać zinterpretowany jako zaniedbanie w zarządzaniu ryzykiem technologicznym –
z konsekwencjami także dla organów nadzorczych.
W erze AI to zaufanie staje się nowym miernikiem wiarygodności firmy. Nie da się go zbudować na syntetycznych fundamentach. Klienci, inwestorzy, partnerzy biznesowi – wszyscy oczekują dziś autentyczności. Nie tej dosłownej, emocjonalnej, ale spójnej i prawdziwej komunikacji, która nie udaje, że CEO codziennie pisze 12 postów na LinkedInie i newsletter do pracowników. Transparentność to nie słabość. To strategia długoterminowego zaufania.
W świetle rosnącej liczby regulacji (vide: AI Act w Unii Europejskiej, ale też Kodeksy Dobrych Praktyk w sektorze reklamy), każda organizacja korzystająca z narzędzi AI powinna mieć własny AI governance policy. W dużych firmach to już standard – polityki wskazujące:
Odpowiedzialne firmy zaczynają oznaczać swoje treści tagami typu: „Wygenerowane z pomocą AI i zatwierdzone przez zespół redakcyjny”. To nie tylko zgodne z duchem przejrzystości – to też wyraz szacunku wobec odbiorcy. A przecież właśnie na tym buduje się długofalowe zaufanie. Jeśli prezes naprawdę nie pisał tekstu – może warto wskazać, że to „głos organizacji”, a nie jego osobiste przemyślenia. Jeśli ekspert nie stworzył raportu – być może wystarczy napisać, że „opracowano przy użyciu narzędzi AI, z autorską analizą X”. Transparentność nie oznacza słabości. Wręcz przeciwnie – jest oznaką dojrzałości marki. W czasach, gdy algorytmy piszą za ludzi, warto dbać o to, by to człowiek ponosił odpowiedzialność – świadomie, a nie z automatu. Bo prawda nie musi być nudna. A w długim horyzoncie – uczciwość broni się lepiej niż dobrze napisany prompt.
Nie każdy materiał wymaga podpisu prezesa. Nie każda wypowiedź musi być „autorska”. Czasem warto oddać głos zespołowi. Czasem lepiej powiedzieć: „opracowano z pomocą AI, zatwierdzono przez dział strategii”. Nie musimy udawać, że maszyna to człowiek. Wystarczy, że człowiek będzie odpowiedzialny za to, co mówi w imieniu firmy. Bo prawda nie musi być nudna. A uczciwość – nawet w wersji cyfrowej – broni się lepiej niż perfekcyjny prompt.
—
Dr Katarzyna Turcza
Doktor nauk prawnych, Radca Prawny, Doradca Restrukturyzacyjny. Posiada bogate doświadczenie w obsłudze prawnej krajowych i zagranicznych przedsiębiorstw m.in. z branży e-commerce, reklamowej, motoryzacyjnej oraz HORECA. Opracowuje złożone strategie prawno-biznesowe w relacjach B2B i B2C, przygotowuje umowy i dokumenty handlowe. Mec. Turcza jest autorką licznych artykułów prasowych oraz wykładowcą podczas szkoleń prawnych i webinarów.
www.turcza.com.pl
Artykuł ukazał się w ostatnim numerze OOH magazine. Do wglądu online TUTAJ.