Czy treści / grafiki tworzone przez AI powinny być oznaczane?

5
.
11
.
2024
Artykuł
Dla pośrednika
Dla dewelopera
Artykuł pochodzi z kwartalnika D&M:
Kwartalnik Deweloper & Marketing 4/2024
POBIERZ KWARTALNIK

Rozwój technologii generatywnej sztucznej inteligencji coraz częściej prowadzi do powstania i wprowadzenia do sieci zasobów, które mogą wywoływać społeczne kontrowersje, a nawet daleko idące skutki polityczne. Wystarczy wspomnieć o deepfake’ach, których ofiarą padli m.in. prezydent Stanów Zjednoczonych Joe Biden, były prezydent USA Donald Trump czy celebryci, jak Tailor Swift lub Tom Hanks. W związku z tym skandalami rodzi się pytanie, czy treści lub grafiki tworzone przez AI powinny być oznaczane, a jeżeli tak, jak zrobić to prawidłowo?

Oznaczanie generatywnej treści na przykładzie platformy Meta oraz Google

W związku ze wzrastającą liczbą kontrowersyjnych treści wygenerowanych przez AI, umieszczanych w sieci, firma Meta, właściciel takich serwisów, jak Facebook, Threads czy Instagram zapowiedziała walkę z anonimowymi treściami generatywnymi. Pracuje ona nad ustaleniem jednolitych standardów pozwalających na wykrycie oraz oznaczenie treści lub grafiki stworzonej z wykorzystaniem sztucznej inteligencji.

W pierwszej kolejności automatyczne „tagowanie” ma objąć zasoby wytwarzane przy użyciu generatora Meta AI. W kolejnych miesiącach firma Meta chce opracować rozwiązania, które integrują się ze standardami C2PA oraz IPTC Information Interchange Model. Mają one na celu ustalenie autentyczności zasobu i oznaczenie go jako wytworzonego przez algorytm, jeżeli okaże się, że użytkownik posłużył się silnikami Open AI, Midjourney, Shutterstock, Adobe lub innymi podobnymi technologiami. Wszystko po to, aby odbiorcy treści od razu zdawali sobie sprawę, że mają do czynienia z wytworem mocy obliczeniowej komputera, a nie dziełem ludzkiego umysłu.

Platforma Meta planuje umieszczanie oznaczenia „AI Info” wszędzie tam, gdzie zasób zostanie zidentyfikowany jako wygenerowany przez sztuczną inteligencję. Samo otagowanie to jeszcze nie wszystko. Przedsiębiorstwo korzysta z usług ponad 100 niezależnych recenzentów. Jeżeli oznaczą oni treść jako „Fałszywa” lub „Zmodyfikowana”, algorytmy platformy automatycznie prezentują dany zasób niżej w „Feedzie”, czyli siatce zdjęć i filmów widocznych po zalogowaniu się na profil użytkownika. Celem takiego zabiegu jest, aby treści typu AI-generated docierały do jak najmniejszej liczby odbiorców.

Zupełnie inne stanowisko przyjęła firma Google, która buduje ranking wyświetlanych treści o standardy EEAT (ang. Expertise, Experience, Authoritativeness, Trustworthiness). Przedsiębiorstwo deklaruje, że kluczowe znaczenie ma dostarczenie wartościowych informacji dla użytkowników, niezależnie od rozwiązań służących do ich tworzenia. Oznacza to, że materiały wygenerowane przy użyciu AI nie są w żaden sposób oznaczane, ale znajdą się niżej w wyszukiwarce, jeżeli nie spełnią wymagań stawianych treściom. Ciężar został więc przerzucony na developerów narzędzi AI, którzy powinni pracować nad jak najlepszymi algorytmami sztucznej inteligencji.

Czy korzystanie z treści stworzonej przez generatywne AI prowadzi do naruszenia prawa autorskiego?

System opracowywany przez firmę Meta można potraktować jako swego rodzaju wyznacznik jakości dla konkurencji, który pozwoli na zachowanie transparentności pochodzenia zasobów sieciowych. Warto jednak przyjrzeć się, czy korzystanie z dzieł AI-generated stanowi naruszenie prawa. Obecnie w Polsce nie ma obowiązku oznaczania treści wytworzonych z użyciem sztucznej inteligencji. Czy w takim razie warto to robić?

Przede wszystkim trzeba zaznaczyć, że sam fakt przywłaszczenia sobie autorstwa cudzych treści (utworu) stanowi czyn zabroniony w rozumieniu ustawy o prawie autorskim i prawach pokrewnych zabroniony karą nawet do 3 lat pozbawienia wolności. Mowa tutaj jednak wyłącznie o utworach, czyli – stosownie do brzmienia art. 1 ust. 1 wspomnianej ustawy – przejawach działalności twórczej o indywidualnym charakterze, ustalonych w jakiejkolwiek postaci, niezależnie od wartości, przeznaczenia i sposobu wyrażenia.

Aby więc utwór korzystał z ochrony prawnoautorskiej, musi być stworzony przez człowieka. Treść lub obraz wygenerowany przez AI nie stanowi utworu, zatem nie można przypisać sobie jego autorstwa, ani dopuścić się plagiatu w tym zakresie. Takimi zasobami może posługiwać się każdy i w nieograniczonym zakresie. Ma to ogromne znaczenie dla podmiotów z branży kreatywnej, jak agencje marketingowe, copywriterskie czy studia graficzne. Jeżeli taki podmiot generuje treści z wykorzystaniem AI, powinien zamieścić stosowną klauzulę w umowie. Dla klienta agencji oznacza to, że nie może dojść do przekazania praw autorskich majątkowych, ponieważ utwory nigdy nie powstały.

W jaki sposób rozporządzenie AI Act reguluje oznaczanie treści wygenerowanej przez AI?

Odpowiedzi na pytanie o zasadność oznaczania treści generatywnej można poszukiwać w rozporządzeniu AI Act, choć unijny ustawodawca nie rozwiał wszelkich wątpliwości, ograniczając regulację wyłącznie do tzw. deepfake’ów. Chodzi o obrazy, treść audio lub wideo, które do złudzenia przypominają otaczającą nas rzeczywistość. W art. 50 ust. 4 rozporządzenia AI Act wskazano, że deepfake’i powinny być należycie oznaczone tak, aby ich pochodzenie nie budziło wątpliwości. Nie jest to jednak obowiązek bezwzględny i konieczność otagowania zdjęcia czy wideo nie pojawia się m.in. w sytuacji, kiedy treści wygenerowane przez AI zostały poddane weryfikacji przez człowieka lub kontroli redakcyjnej i gdy za publikację treści odpowiedzialność redakcyjną ponosi osoba fizyczna lub prawna.

Jeżeli podmiot ma obowiązek oznaczenia treści generatywnej, należy o to zadbać w sposób jasny i wyraźny, najpóźniej w momencie pierwszej interakcji lub pierwszego stosowania. Informacje te muszą spełniać mające zastosowanie wymogi dostępności.

Poza wspomnianym przepisem unijny ustawodawca nie poświęca uwagi oznaczaniu obrazów i treści wygenerowanych przez AI, zachęcając jedynie do uchwalenia kodeksu dobrych praktyk korzystania z AI, który miałby obowiązywać na terytorium Unii Europejskiej.

Jakie obowiązki w zakresie transparentności reklam internetowych wprowadza DSA?

Zagadnienia transparentności treści cyfrowej zostały poruszone również w rozporządzeniu DSA w sprawie jednolitego rynku usług cyfrowych oraz zmiany dyrektywy 2000/31/WE. Akt o usługach cyfrowych nakłada na szczególnie duże podmioty rynkowe określane jako VLOP i VLOSE obowiązek poszerzonej transparentności w zakresie reklam internetowych Obejmują one m.in. konieczność prowadzenia repozytorium, w którym znajdują się informacje m.in. na temat:

  • podmiotu, w którego imieniu reklama jest prezentowana;
  • podmiotu, który zapłacił za reklamę;
  • okresu, w jakim reklama była prezentowana.

Zagregowanie niezbędnych danych pozwala w łatwy sposób ustalić, kto powinien był odpowiednio oznaczyć publikowane treści, ale tego nie uczynił.

Nie ulega wątpliwości, że treści wytworzonych przy użyciu automatyzacji AI w sieci będzie pojawiało się coraz więcej. Serwis internetowy, który chce zachować unikalność, rozpoznawalność i prawo do ochrony prawnoautorskiej powinien do takich rozwiązań podchodzić z dużą ostrożnością. W przeciwnym razie szybko może się okazać, że witryna traci pozycję w rankingach wyszukiwarek, a przez odbiorców jest postrzegana jako mało wiarygodna. Wątpliwości w zakresie korzystania z narzędzi AI warto skonsultować z kancelarią prawną z doświadczeniem w ochronie własności intelektualnej.

Zobacz także
Zobacz także
Zobacz także