Logo

Tylko w OOH magazineMarketing MIX

Komu przysługują prawa, gdy autorem nie jest człowiek? | Dr Katarzyna Turcza

Sztuczna inteligencja weszła do biznesu jak burza. Pisze, projektuje, doradza, generuje strategie, raporty, slogany i oferty handlowe. „Szybciej, taniej, efektywniej” – mówią jedni. „Bez duszy, bez etyki, bez autorstwa” – mówią inni. A prawnik pyta: czyje to w ogóle jest?

Bo może to już nie tylko pytanie o prawa autorskie. Może to pytanie o odpowiedzialność. O wizerunek. O etykę komunikacji, która ma twarz lidera, ale głos… algorytmu.

AI jako copywriter, a prezes jako autor

Wyobraźmy sobie scenariusz: marketingowiec firmy X prosi ChatGPT o stworzenie tekstu kampanii. Dwa kliknięcia, trochę promptowania, tekst gotowy. Materiał trafia do grafika, później do działu PR, a na końcu zostaje podpisany nazwiskiem prezesa. „List od Prezesa” – głosi nagłówek newslettera. Brzmi znajomo? Na pierwszy rzut oka – nic nadzwyczajnego. Ot, kolejna decyzja brandingowa. Ale z punktu widzenia prawa, komunikacji i odpowiedzialności – to już temat na osobną analizę.

Autor – czyli kto?

Zgodnie z polską ustawą o prawie autorskim i prawach pokrewnych, autorem może być wyłącznie człowiek. Nie algorytm, nie „system uczący się”, nie chatbot. Tylko osoba fizyczna. To ona może posiadać prawa autorskie osobiste i majątkowe, i to jej przysługują uprawnienia wynikające z ustawy. A zatem: jeśli coś zostało stworzone wyłącznie przez AI, nie przysługuje temu ochrona prawa autorskiego w rozumieniu klasycznym. W praktyce mówimy o tzw. „dziełach osieroconych” – nikt nie jest autorem, nikt nie ma praw, ale wszyscy mogą z nich korzystać. Do pewnego stopnia. Z pozoru otwiera to drzwi do wolności. Ale wolność bez kontekstu bywa ryzykowna.

Prompt jako akt twórczy

Coraz częściej mówi się o tzw. twórczości przez prompt – czyli sytuacji, w której efekt pracy AI stanowi rezultat indywidualnej i twórczej pracy człowieka nad treścią polecenia. Ale tu też nie ma automatyzmu. Jeśli prompt był prosty, ogólnikowy i schematyczny, nie ma mowy o wkładzie twórczym. Nawet zastosowanie ponad 600 szczegółowych wskazówek (tzw. promptów) nie przesądza o istnieniu twórczego wkładu człowieka, który uzasadniałby przyznanie ochrony prawnoautorskiej[1]. Ale jeśli polecenie miało przemyślaną strukturę, styl, wizję i cel – możemy mówić o współautorstwie. W praktyce sądowej nie chodzi o to, czy użyto AI, ale o sposób jej wykorzystania. Jeśli narzędzie było tylko pomocą – autor jest człowiekiem. Jeśli natomiast cały proces twórczy odbył się bez udziału ludzkiej refleksji – ochrona autorska nie przysługuje nikomu.

Prezes jako autor honorowy – strategia czy nadużycie?

W świecie marketingu i komunikacji korporacyjnej to już niemal standard: teksty generowane przez AI są sygnowane nazwiskiem prezesa, członka zarządu, eksperta. To wygodne. Buduje wizerunek. Wzmacnia autorytet. Ale czy jest to zawsze zgodne z intencją i prawem? Jeśli odbiorca zakłada, że czyta autorski komentarz lidera firmy, a w rzeczywistości obcuje z syntetyczną kompilacją, może poczuć się wprowadzony w błąd. I nawet jeśli nie będzie rościł sobie pretensji prawnych, to ziarno nieufności zostanie zasiane. Wizerunek to dziś kapitał równie cenny jak dane chronione. I nie warto go poświęcać dla pozorów autentyczności.

Ryzyka dla firmy – nie tylko reputacyjne

Podpisywanie treści AI nazwiskiem członka zarządu może nieść ze sobą realne ryzyka:

  • Wizerunkowe: jeśli treść okaże się nietrafna, niezgodna z linią marki lub – co gorsza – krzywdząca (np. zawierająca stereotypy, nieświadome uprzedzenia), konsekwencje wizerunkowe mogą być trudne do odwrócenia.
  • Regulacyjne: w sektorach regulowanych (finanse, zdrowie, farmacja, ESG, energetyka), nawet jedno nieprecyzyjne zdanie może narazić firmę na konsekwencje – od audytów po sankcje.
  • Prawne: AI nie zna lokalnego prawa, nie rozumie niuansów przepisów, nie wyczuje różnicy między obietnicą a deklaracją. A sądy – owszem.
  • Podatkowe: nieprawidłowe opisy produktów, błędne interpretacje ulg czy zniekształcenia treści informacyjnych w raportach mogą skutkować realnymi sporami z organami podatkowymi.

Prezes, który podpisuje się pod treścią, bierze za nią odpowiedzialność. I to nie symboliczną – lecz realną, opartą o art. 293 KSH, przepisy podatkowe, regulacje sektorowe. AI nie stanie przed komisją rewizyjną. Prezes – jak najbardziej.

Przyjęcie odpowiedzialności za tekst wygenerowany przez AI ucieleśniło się w sprawie sądowej (nr 2:23-cv-00118) toczącej się w Stanach Zjednoczonych. Pełnomocnicy z kancelarii Morgan & Morgan, reprezentujący rodzinę Wadsworthów, złożyli w jej imieniu pozew o zadośćuczyniene za poniesione straty przeciwko sieci sklepów Walmart i firmie Jetson Electric Bikes. W przedstawionych wnioskach dowodowych, pełnomocnicy powołali się na dziewięć orzeczeń sądowych, z których osiem okazało się nieistniejącymi. Fikcyjne cytaty zostały wygenerowane przez wewnętrzne narzędzie AI kancelarii.W wyniku tego naruszenia, na trzech prawników nałożone zostały sankcje finansowe – dwoje z nich otrzymało 3000 dolarów kary, trzeci jedynie 1000 dolarów[2]. Sąd podkreślił, że choć technologia AI może być użyteczna w praktyce prawniczej, nie zwalnia to prawników z obowiązku weryfikacji źródeł i przeprowadzenia rozsądnego dochodzenia w zakresie obowiązującego prawa.

KATARZYNA TURCZA

Brak konsultacji = brak kontroli

W praktyce zdarza się, że teksty „na szybko” generowane przez AI trafiają bezpośrednio do publikacji – bez przeglądu przez dział prawny, podatkowy, ESG, IR czy PR. To błąd. I to kosztowny. W dobie transformacji cyfrowej kluczowe jest nie tylko tempo, ale też bezpieczeństwo treści. Często korzystając z AI, nie zdajemy sobie sprawy, że informacje, które są w niej zawarte, są aktualne jedynie na konkretną datę[3]. Przestrogą przed bezrefleksyjnym korzystaniem z treści generowanych przez sztuczną inteligencję może być sytuacja, kiedy pisarka Melanie Wilson poprosiła ChatGPT o podanie słynnego cytatu z filmu Pretty Woman. Chciała go użyć w reklamie. ChatGPT dostarczył cytat, który na pierwszy rzut oka wydawał się idealny. Jednakże po próbie jego weryfikacji okazało się, że cytat ten prawdopodobnie został zmyślony i nie pochodzi z żadnej sceny filmu[4].

Dlatego:

  • każdy materiał „sygnowany nazwiskiem” powinien przejść weryfikację merytoryczną,
  • zespół AI (nawet jeśli to tylko jeden content manager) powinien wiedzieć, kiedy powiedzieć: „potrzebujemy prawnika”,
  • a liderzy powinni mieć świadomość, że ich podpis pod dokumentem to coś więcej niż gest – to potencjalna odpowiedzialność.

Polityka AI – obowiązek, nie luksus

W wielu firmach wdrażane są już procedury zarządzania AI – tzw. AI governance policies. I bardzo dobrze. Bo AI to nie narzędzie typu PowerPoint. To źródło treści, które wymaga nadzoru. Świadome firmy już dziś określają:

  • kto może korzystać z narzędzi generatywnych,
  • w jakim celu i zakresie,
  • jak oznaczane są treści generowane przy ich użyciu,
  • kto je zatwierdza i jak je archiwizować w przypadku kontroli.

Brak takiej polityki może w przyszłości zostać zinterpretowany jako zaniedbanie w zarządzaniu ryzykiem technologicznym –
z konsekwencjami także dla organów nadzorczych.

Zaufanie to nowa waluta marki

W erze AI to zaufanie staje się nowym miernikiem wiarygodności firmy. Nie da się go zbudować na syntetycznych fundamentach. Klienci, inwestorzy, partnerzy biznesowi – wszyscy oczekują dziś autentyczności. Nie tej dosłownej, emocjonalnej, ale spójnej i prawdziwej komunikacji, która nie udaje, że CEO codziennie pisze 12 postów na LinkedInie i newsletter do pracowników. Transparentność to nie słabość. To strategia długoterminowego zaufania.

Polityka AI w firmie – po co nam to tak naprawdę?

W świetle rosnącej liczby regulacji (vide: AI Act w Unii Europejskiej, ale też Kodeksy Dobrych Praktyk w sektorze reklamy), każda organizacja korzystająca z narzędzi AI powinna mieć własny AI governance policy. W dużych firmach to już standard – polityki wskazujące:

  • które działy mogą korzystać z narzędzi generatywnych,
  • jak oznaczać treści stworzone przez AI,
  • kiedy wymagana jest zgoda działu prawnego lub compliance,
  • kto zatwierdza materiały przed publikacją.

Odpowiedzialne firmy zaczynają oznaczać swoje treści tagami typu: „Wygenerowane z pomocą AI i zatwierdzone przez zespół redakcyjny”. To nie tylko zgodne z duchem przejrzystości – to też wyraz szacunku wobec odbiorcy. A przecież właśnie na tym buduje się długofalowe zaufanie. Jeśli prezes naprawdę nie pisał tekstu – może warto wskazać, że to „głos organizacji”, a nie jego osobiste przemyślenia. Jeśli ekspert nie stworzył raportu – być może wystarczy napisać, że „opracowano przy użyciu narzędzi AI, z autorską analizą X”. Transparentność nie oznacza słabości. Wręcz przeciwnie – jest oznaką dojrzałości marki. W czasach, gdy algorytmy piszą za ludzi, warto dbać o to, by to człowiek ponosił odpowiedzialność – świadomie, a nie z automatu. Bo prawda nie musi być nudna. A w długim horyzoncie – uczciwość broni się lepiej niż dobrze napisany prompt.

Na koniec: liderzy też powinni mieć prawo milczeć

Nie każdy materiał wymaga podpisu prezesa. Nie każda wypowiedź musi być „autorska”. Czasem warto oddać głos zespołowi. Czasem lepiej powiedzieć: „opracowano z pomocą AI, zatwierdzono przez dział strategii”. Nie musimy udawać, że maszyna to człowiek. Wystarczy, że człowiek będzie odpowiedzialny za to, co mówi w imieniu firmy. Bo prawda nie musi być nudna. A uczciwość – nawet w wersji cyfrowej – broni się lepiej niż perfekcyjny prompt.

1. https://www.copyright.gov/docs/zarya-of-the-dawn.pdf 2. https://caselaw.findlaw.com/court/us-dis-crt-d-wyo/117003959.html 3. Informacje zawarte w ChatGPT są aktualne do daty, na którą model został wytrenowany, co oznacza, że nie posiada wiedzy o wydarzeniach, danych czy zmianach, które nastąpiły po tej dacie. Dla różnych wersji ChatGPT daty te są następujące: GPT-3.5: Styczeń 2022 GPT-4: Grudzień 2023 GPT-4 Turbo: Grudzień 2023 GPT-4o (Omni): Październik 2023 4. https://www.linkedin.com/pulse/julie-roberts-lie-how-chat-gpt-ai-lied-me-melanie-wilson/

 


KATARZYNA TURCZADr Katarzyna Turcza

Doktor nauk prawnych, Radca Prawny, Doradca Restrukturyzacyjny. Posiada bogate doświadczenie w obsłudze prawnej krajowych i zagranicznych przedsiębiorstw m.in. z branży e-commerce, reklamowej, motoryzacyjnej oraz HORECA. Opracowuje złożone strategie prawno-biznesowe w relacjach B2B i B2C, przygotowuje umowy i dokumenty handlowe. Mec. Turcza jest autorką licznych artykułów prasowych oraz wykładowcą podczas szkoleń prawnych i webinarów.
www.turcza.com.pl


Artykuł ukazał się w ostatnim numerze OOH magazine. Do wglądu online TUTAJ.