Tytuł niniejszego szkicu pożyczyłem od jednego z paneli dyskusyjnych na warszawskim Współkongresie Kultury zwołanym w listopadzie 2024 r. Byłem jednym z uczestników tamtej dyskusji, w podwójnej roli: jako twórca-powieściopisarz, lecz także jako prawnik doradzający jednemu z wielkich wydawnictw przy projekcie biznesowym opartym na Sztucznej Inteligencji. Tytuł, nieco prowokacyjny, ma tę zaletę, że zawiera w sobie pytanie najistotniejsze, które można sparafrazować tak: czy Sztuczna Inteligencja, osławione AI, to technologiczna nowinka, odzwyczajająca nas, ludzi, od intelektualnego wysiłku, lecz w gruncie rzeczy niegroźna, chwilami wręcz użyteczna? Czy też, być może, nadejście AI oznacza rewolucyjną zmianę – nie tylko technologiczną, lecz taką, która przeora stosunki społeczne i pośle tysięczne masy pracowników słowa na bruk? Poszukując odpowiedzi, warto się skupić przede wszystkim na sferze kultury, choć oczywiście rozwój narzędzi opartych na Sztucznej Inteligencji dotyka wszystkich sfer społeczeństwa i gospodarki. Zarazem nie łudzę się, że jakakolwiek odpowiedź będzie tutaj wyczerpująca, a postawione diagnozy – jedynie słuszne. Zjawisko Sztucznej Inteligencji jest na to zbyt różnorodne, podobnie jak jego oddziaływanie na współczesność. Zacząć trzeba zatem od opisu podstawowego, tak aby jak najlepiej pojąć kształt przyszłego pola walki. Walka, rewolucja? W świetle zmian, jakie może przynieść AI, można zaryzykować tezę, iż żadne tego typu określenia nie będą tu przesadne, alarmistyczne i na wyrost.
AI, czyli co takiego?
Czy AI to nieszkodliwa i na dobrą sprawę zbędna nowinka? Sytuacja przypomina nieco wynalezienie przez starożytnych Greków turbiny parowej. Dla ludzi antyku, żyjących w czasach sprzed rozkwitu techniki, rzeczywiście była to tylko wirująca – gdy ją podgrzewać – zabawka. Jednak w erze nowoczesności ten sam wynalazek bardzo szybko, bo w ciągu niecałych stu lat, przybrał postać potężnych generatorów prądu i silników odrzutowych przenoszących nas na inne kontynenty. Umiemy dzisiaj wykorzystywać technologię, lecz jednocześnie, uzależnieni od prądu w gniazdku i wakacji w słonecznej Grecji, poniekąd staliśmy się jej niewolnikami. Czy podobny los przyniesie nam sztuczna inteligencja?
Boicie się Czarnego Luda? Sztuczna Inteligencja to dziś, w powszechnym odbiorze, coś w rodzaju tajemniczego potwora o niewiadomych, lecz zapewne złowrogich wobec nas zamiarach. Ludzie starsi datą lubią z kolei twierdzić, że AI to techniczna ciekawostka, zabawka pozwalająca wytwarzać z komputera proste, nieco koślawe teksty na zadany temat albo wizerunki kotków z pięcioma odnóżami. Tym, którzy w AI widzą ciekawostkę warto przypomnieć głosy sprzed czterech dekad, twierdzące wówczas, że techniczną ciekawostką i przelotną modą jest Internet. Tak znaczna rozbieżność w pojmowaniu, co niesie nam AI wynika przede wszystkim z faktu, że pojęciem „sztucznej inteligencji” określamy dzisiaj dwie rzeczy nie do końca tożsame.
Piękne abstrakcje
Pierwszy sposób pojmowania, czym jest AI, to podejście abstrakcyjne i filozoficzne. Zgodnie z nim, Sztuczna Inteligencja jest hipotetyczną inteligencją (czy tożsamą z rozumem?) realizowaną nie w procesie naturalnym, lecz mechanicznym. Mowa tu o stworzeniu pozaludzkiej, mechanicznej czy cyfrowej istoty myślącej – w domyśle, działającej o niebo szybciej i sprawniej niż rozum ludzki. Wśród filozofów urzeczonych wizją stworzenia inteligencji nad-ludzkiej warto jako przypadek ekstremalny wymienić francuskiego jezuitę Pierre’a Teilharda de Chardin. Głosił on, że ewolucja człowieka to ewolucja kulturowa i technologiczna, oparta na poznawaniu świata, mnożeniu wiedzy i rozwoju rozumnej technologii. Celem tego procesu – według de Chardin’a – jest spięcie planety w jeden system nerwowy i osiągnięcie szczytowego „punktu Omega”, urzeczywistnieniu Bożego Królestwa na Ziemi. Na biegunie przeciwległym od tej szczytnej wizji znajdziemy antyutopijne bajki robotów, straszące nas wizją buntu maszyn i zniewolenia ludzkości przez mechaniczny rozum, który sama stworzyła. W tle tych wizji znajdziemy ściśle naukowe rozważania o tym, czy możliwe jest, przede wszystkim, stworzenie maszyny, która będzie się zachowywać inteligentnie w sposób nieodróżnialny od zachowania człowieka. Tu naukowcy, od takich pionierów jak Alan Turing i John McCarthy do Kurta Gödla i współczesnych teoretyków AI, rozważają, czy maszyna, dzieło ludzkie, może posiadać umysł i świadomość (czymkolwiek jest ta ostatnia) i czy ludzkie procesy myślowe da się przełożyć na odpowiadające im procesy informatyczne.
Szary konkret
Jednak w pierwszych dekadach XXI stulecia, wraz z postępem badań i ich zastosowań w informatyce, o wiele większą popularność zdobyło inne, pragmatyczne i praktyczne rozumienie pojęcia Sztucznej Inteligencji. Wraz z rozwojem technologii informatycznych zaczęto przez AI rozumieć konkretną technologię, która korzystając z odkryć informatyki, logiki matematycznej i kognitywistyki (nauki o pojmowaniu) tworzy na użytek komercyjny działające programy i aplikacje zdolne do realizacji wielu funkcji dotąd nie poddających się umaszynowieniu. Tak, w sposób praktyczny pojmowane AI, to grupa technologii, które docelowo mają wypełniać takie zadania jak podejmowanie logicznych decyzji, tłumaczenie z jednego języka naturalnego na inny, analiza ogromnych zbiorów danych i dostarczanie na tej podstawie odpowiedzi na pytania zadawane przez człowieka.
By zilustrować, w jakim punkcie się znajdujemy dziś, w 2025 roku, jeśli chodzi o obecność opartych na AI aplikacji w naszym życiu, powołam się na ankietę, jaką z grupą współpracowników przeprowadziłem niedawno w dużym polskim wydawnictwie naukowym. W ankiecie prosiliśmy pracowników tej firmy o podanie, z jakich aplikacji opartych na AI korzystają oni w pracy zawodowej i w życiu prywatnym. Warto nadmienić, że firma, w której prowadzono ankietę, sama nie wypracowała jeszcze wewnętrznej polityki, zezwalającej (bądź nie) na korzystanie przez redaktorów, sprzedawców i resztę personelu z takich programów. W przesłanych odpowiedziach najbardziej autorów ankiety uderzyła liczba wykorzystywanych aplikacji – w tym konkretnym przypadku było ich aż 28. Wśród nich znalazły się programy graficzne, tekstowo-edytorskie, translatorskie, lecz także oparte na AI aplikacje wspomagające działy HR i marketingu. Jest oczywiste, że wszystkie te programy będą coraz szerzej wykorzystywane jako narzędzia. Można się jednak również domyślać, że wraz z ich ciągłym udoskonalaniem przyjdzie czas zastępowania wielu funkcji – czytaj: zastępowania żywych pracowników -- powszechnie dostępnymi systemami opartymi na sztucznej inteligencji.
Cyfrowe moce
Skoro wspomnieliśmy o wydawnictwach, jak powszechnie wiadomo, aplikacje AI „piszą” też książki – i nie mam tu na myśli edytowania tekstu ani tworzenia ilustracji, lecz sam akt twórczy. U korzeni, autorem tych pozycji są maszyny z kręgu przeszkolonych transformerów generatywnych (GPT, od ang. Generative Pre-Trained Transformers). Jest to odmiana programów LLM (large language models), która, wytrenowana na ogromnych zbiorach danych tekstowych, generuje dowolnej długości teksty na podstawie podsuniętych jej wytycznych i kontekstów. Do kwestii trenowania programów GPT trzeba tu jeszcze powrócić, ale na razie spójrzmy szerzej. Mamy bowiem do czynienia nie z wizjami przyszłości, lecz z bezlikiem sprawnie działających cyfrowych rozmówców („chatbotów”) takich jak osławiony ChatGPT czwartej już generacji, Copilot, Gemini i LLaMA, systemów tworzenia/kompilowania obrazów i ilustracji (Stable Diffusion czy Midjourney) i mnóstwa aplikacji specjalistycznych, przeznaczonych dla takich grup jak lekarze czy architekci. Generatywna AI jest już faktem i ma coraz większy wpływ na rynek pracy – zwłaszcza tam, gdzie decyzje podejmuje się według ustalonych zbiorów reguł. Ale nie tylko tam.
Czy to już koniec świata?
Wystarczy przypomnieć sobie rewolucję Internetu, która zmieniając życie społeczne, w ciągu trzech dekad zmiotła przy okazji tradycyjną pocztę, tradycyjne galerie handlowe, urzędy i biura, by poczuć niepokój, wynikający z pytania: jakie tym razem sektory gospodarki z ich grupami zawodowymi będą padały pod siekierą AI? Nie brak też głosów uspokajających, według których to my przecież decydujemy o kierunku rozwoju technologii i to my zadbamy, by Sztuczna Inteligencja nikogo nie pokrzywdziła, gdy już nadejdzie. Do optymistów nie docierają chyba dwie dosyć powszechne obserwacje. Po pierwsze, AI nie jest kwestią przyszłości. Przeciwnie, istnieje tu i teraz w postaci konkretnych, płatnych, ale też darmowych, rozlicznych aplikacji. Po drugie, i co ważniejsze, aplikacje te mają swoich twórców, inwestorów oraz swoich właścicieli. Stworzyć generatywny program nie jest ani w ćwierci tak trudno, jak „nakarmić” go milionami tekstów w różnych językach, pieczołowicie wytrenować, odsiać błędne ścieżki i „halucynacje” (błędne odpowiedzi maszyny, wynikające z przyjęcia źle dobranych danych). Nikt nie wie, ile naprawdę kosztowało stworzenie czwartej już generacji ChatGPT, lecz nie ulega wątpliwości, że niezbędne inwestycje musiały być ogromne – tak jak ogromne są rachunki za prąd zużywany przez systemy AI. To gra przede wszystkim dla podmiotów z zasobnym portfelem, które stać na przepalanie ogromnych pieniędzy na badania i rozwój. Sytuacja ta niesie ten skutek, że właścicielami większości najbardziej rozwiniętych systemów AI są wielkie ponadnarodowe koncerny, także spoza Europy: firmy z kręgu „hi-tech” czyli zaawansowanych technologii. I właśnie te firmy, a nie anonimowi „ludzie” czy „my”, rozwijając sektor AI już dziś decydują o przyszłości milionów ludzi, których pracę można z powodzeniem zastąpić usługami cyfrowej maszynerii.
Na bruk
Spójrzmy zatem na reakcje z obszaru najbliższego czytelnikom, czyli z sektora kultury. Znamienna, a zarazem niejedyna, jest tu reakcja Europejskiego Stowarzyszenia Pisarzy (EWC), które w piśmie do władz Unii Europejskiej wskazuje między innymi, że za sprawą nowych technologii spod znaku AI tracą zatrudnienie i dochody pisarze, tłumacze, ilustratorzy i narratorzy audiobooków, w tym „zamówienia straciło 30 procent tłumaczy i 60 procent autorów ilustracji”. Tracą zajęcie lektorzy audiobooków zastąpieni głosem syntetycznym, obniżane są stawki autorskie, zwłaszcza gdy teksty są natury technicznej, prawniczej czy ścisłej. Poszczególni autorzy, artyści wizualni i muzycy, których twórczość wypierają produkty AI, zaczynają tracić środki do życia. Zagrożone są obroty sektora wydawniczego wynoszące obecnie 22,3 miliardów Euro. Podobne skargi głoszą przedstawiciele zawodów prawnych, doradcy podatkowi, korektorzy, dziennikarze i wykonawcy innych usług, w których AI najszybciej może zastąpić człowieka, w tym nawet programiści. Sztuczna Inteligencja nie jest dzisiaj komputerową ciekawostką, lecz potężną siłą zmiany społecznej, której działanie może przynieść groźne i nieprzewidziane konsekwencje dla – te wielkie słowa wydają się uzasadnione – całego kulturowego kapitału ludzkości w postaci, jaką znaliśmy do tej pory.
Anatomia kradzieży
Jeśli jednak alarmistyczne głosy są uzasadnione, należy w pierwszym rzędzie zapytać, w jaki to sposób twórcy są przez AI okradani ze swojej własności, a także wskazać, jak i czyimi rękami temu zaradzić. Wspomniany wyżej sposób pierwszy polega na stopniowym, ale coraz prędszym wypieraniu ludzkiego wkładu pracy przez pracę inteligencji cyfrowej. Patrząc wstecz, wolno nam uznać ten proces za nieodwracalny. Podobnie było z maszyną parową, która zastąpiła konie, podobnie z przędzarką mechaniczną, która uwolniła tkaczy od żmudnej pracy nad krosnem. Nie zatrzymały tych zmian bunty dziewiętnastowiecznych Luddytów, wzywających do palenia złowrogich maszyn. Logika kapitalizmu nakazywała i wciąż nakazuje ciąć koszty produkcji bez względu na skutki społeczne. Także i w przypadku AI trudno uwierzyć, że akurat nas analogiczne zmiany w wielu dziedzinach gospodarki ominą. A co z grafikami, tłumaczami i resztą twórczego planktonu? Zapewne w większości będą musieli zmienić zawód, ze wszystkimi tego konsekwencjami.
Istnieje jednak inny wymiar zmian spowodowanych przez nadejście systemów Sztucznej Inteligencji. Dotyczy on obszaru z definicji świętego dla kapitalizmu: ochrony własności prywatnej – w tym wypadku własności intelektualnej. Otóż, największym dla twórców zagrożeniem jest wykorzystywanie ich utworów – tekstów, obrazów, zdjęć, muzyki czy filmów – chronionych prawem autorskim w celu „trenowania” systemów Sztucznej Inteligencji. Wykorzystywanie, dodajmy, bezumowne i nieodpłatne. Czyli po prostu pirackie.
Obowiązujące powszechnie w całym rozwiniętym świecie prawo autorskie zapewnia taką ochronę przez z reguły, jak w Polsce, okres 70 lat od śmierci twórcy. Przez ten czas każdy sposób wykorzystania chronionego utworu wymaga zgody autora i (zgodnie z literą prawa) „godziwej zapłaty”. Jednak nadejście Sztucznej Inteligencji jest zjawiskiem na tyle nowym, że dopiero dzisiaj tworzone są regulacje, mające na celu lepszą ochronę własności intelektualnej. Co gorsza, prawo Unii Europejskiej przewiduje szereg wyjątków, dających operatorom systemów AI znaczną swobodę w dostępie do chronionych, cudzych utworów. Z kolei apetyt AI na treści („content”) wydaje się niepohamowany – z tej przyczyny, iż im więcej wyjściowego materiału do analizy i przetwarzania, tj. w uproszczeniu nauki, tym bardziej efektywne jest działanie danego systemu AI. W ciągu ostatniej dekady liczne warianty AI „nakarmiono” ogromnymi zbiorami tekstów i obrazów. W procesie analizy statystycznej, testowania hipotez, rozpoznawania wzorców użycia języka i eliminacji błędów, systemy AI spod znaku takich firm jak OpenAI, Alphabet czy Meta, przetworzyły między innymi całą światową zawartość Wikipedii, ogromny zbiór tekstów z kolekcji sieciowych BookCorpus i GoogleBooks – a także niewiadomą liczbę umieszczonych nielegalnie w sieci tekstów wciąż objętych ochroną. Dodajmy, wszystkie te utwory AI z reguły wykorzystała bez jakiejkolwiek rekompensaty dla ich twórców.
Prawo, które nie nadąża
Tak nagłe zaistnienie Sztucznej Inteligencji jako faktu gospodarczego sprawiło, że prawodawcy zareagowali z opóźnieniem na coraz liczniejsze przypadki negatywnych zjawisk z tym związanych. W ciągu zaledwie kilku lat rozwiązania oparte na AI zdominowały takie sektory gospodarki jak tworzenie oprogramowania, służba zdrowia, finanse, przemysł rozrywkowy, marketing, a także – co istotne w obecnym kontekście – działalność wydawnicza. Jednocześnie mnożyć się zaczęły przypadki wykorzystywania AI przez sieciową przestępczość, rozpowszechnianie „deep fakes”, stosowanie AI w celu manipulowania ludźmi i kontroli społeczeństw, wreszcie plagiatowanie tekstów chronionych prawem autorskim i bezumowne wykorzystywanie chronionych treści do szkolenia generatywnych systemów AI.
Konsekwencją tych zjawisk był w USA szereg procesów sądowych: Getty Images zaskarżyło na przykład Stability AI o wykorzystanie chronionej prawem bazy graficznej do trenowania aplikacji graficznej Stable Diffusion. W Hollywood zastąpienie techników filmowych aplikacjami opartymi na AI w 2023 roku dało asumpt głośnemu strajkowi filmowców. Świeżym przykładem takich kontrowersji z wydawniczego podwórka w Polsce jest przypadek koreańskiej powieści „Wieloryb” pióra Cheon Myeong-Kwana. O ile oryginalne autorstwo nie podlega kwestionowaniu, o tyle w odniesieniu do polskiego przekładu pojawiły się uzasadnione wątpliwości, czy nie jest on w części dziełem Google Translate (co więcej, maszynowy, w wielu miejscach niezborny przekład wydaje się oparty na wydaniu angielskim tej powieści). Sytuacja jest zatem, mówiąc oględnie, rozwojowa.
Kaganiec dla AI
Wiele nadziei na naprawę tego stanu rzeczy pokładano w wypracowanym przez Unię Europejską Akcie o sztucznej inteligencji (Rozporządzenie 2024/1689), który ma na celu bezwzględne poszanowanie praw i swobód człowieka przy stosowaniu i funkcjonowaniu systemów AI. Pod tym względem Akt o sztucznej inteligencji (obecnie wprowadzany w Polsce jako ustawa) różni się od regulacji działających w Stanach Zjednoczonych czy w Chinach. Pierwszy z tych krajów wybrał wolnorynkowe podejście do regulacji AI, a to w trosce o postęp technologiczny, utożsamiany z globalną dominacją amerykańskich firm hi-tech. W Chinach z kolei zadbano o takie przepisy dotyczące AI, które pozwalają na skuteczne kontrolowanie ludności. Na tym tle europejski Akt o sztucznej inteligencji może się wydawać humanistycznym ideałem. Oprócz tego, że dokładnie definiuje on, czym są „systemy AI”, akt ten zakazuje określonych praktyk ich stosowania (np. manipulacja podprogowa, czy „scoring” obywateli), jak również ustanawia oficjalny nadzór nad rynkiem systemów AI, niezależnie od miejsca ich siedziby, o ile "wyniki ich działania są wykorzystywane w Unii Europejskiej". Oznacza to, że Akt może stać się skutecznym narzędziem w konfrontacji z firmami „hi-tech” jako globalnymi dysponentami głównych systemów AI. Z drugiej jednak strony, Akt o sztucznej inteligencji jest dokumentem bardzo ogólnym i musi dopiero zostać uzupełniony o konkretne rozporządzenia wykonawcze – na razie jego skuteczność pozostaje zatem w sferze obietnic.
Nowym unijnym prawem, które miało bezpośrednio zaradzić kradzieży własności intelektualnej przez systemy AI była tzw. Dyrektywa DSM (2019/790) mająca na celu zharmonizowanie przepisów dotyczących prawa autorskiego i praw pokrewnych w państwach członkowskich UE oraz stworzenie odpowiednich ram prawnych dla funkcjonowania współczesnego rynku cyfrowego. Jej przepisy zastosowano podczas uchwalonej w Polsce w 2024 roku nowelizacji Ustawy o prawie autorskim i prawach pokrewnych. Czy znowelizowane prawo autorskie chroni twórców przed kradzieżą ich własności intelektualnej? Nie do końca. Ustawa tworzy dla systemów AI, w ramach tzw. dozwolonego użytku, możliwość dostępu do zasobów treściowych w posiadaniu takich podmiotów jak wydawcy. Co więcej, dostęp taki, a więc możliwość darmowego praktykowania TDM (text and data mining) będzie przysługiwał nie tylko podmiotom, których działalność nie jest obliczona na zysk komercyjny (np. instytucjom dziedzictwa kulturowego czy instytucjom oświatowym), lecz także (teoretycznie – za wynagrodzeniem) potencjalnie również podmiotom zajmującym się eksploracją danych komercyjnie. Uprawnieni twórcy mogą jednak zastrzec dostęp do swoich utworów w tym zakresie (tzw. system Opt-out). Zasadniczym problemem jest tu oczywista asymetria informacyjna. Wielkie koncerny wiedzą o rynku niemal wszystko, w odróżnieniu od twórców, których dostęp do takich informacji jest siłą rzeczy ograniczony. Skąd bowiem autorzy mają wiedzieć, czy systemy AI korzystają z ich utworów? W jaki sposób, za czyim pośrednictwem, autorzy mogą oznaczyć swoje dzieła jako zastrzeżone i niedostępne dla systemów AI? Jakimi kanałami autorzy będą otrzymywać stosowne wynagrodzenie, jeśli wyrażą zgodę na użycie swych utworów? Mogą to rozstrzygnąć dopiero przepisy szczegółowe, których jak dotąd brak.
Okrakiem na barykadzie
O ile jednak indywidualni autorzy z reguły jednoznacznie określają swoje negatywne stanowisko co do wykorzystywania ich utworów do trenowania systemów AI na obecnych kulejących zasadach, dwuznaczną pozycję w stylu „okrakiem na barykadzie walki z AI” zajmują dzisiaj wydawcy. Z jednej strony szereg renomowanych wydawnictw światowych, jak Random House, w umowach z autorami zabrania im korzystania w jakikolwiek sposób z pomocy Sztucznej Inteligencji, w trosce o jakość i klasę swoich publikacji. Z drugiej strony jednak pokusa optymalizacji kosztów popycha licznych wydawców ku ścieżce na skróty. AI jest, bądź co bądź, użytecznym i coraz sprawniejszym narzędziem, którym można w coraz większym stopniu zastępować redaktorów, korektorów, metrampaż, tłumaczy i dział reklamy. Co więcej, pozycje tworzone z wydatną pomocą AI i publikowane na przykład w serwisie AmazonBooks zaczynają konkurować o czytelników z „normalnymi”, tradycyjnymi publikacjami. AI coraz sprawniej generuje pozycje gatunkowe: kryminały i powieści fantasy. Nie byłoby więc niczym dziwnym, gdyby w trosce o utrzymanie pozycji i wolumenu na rynkach, zwłaszcza cyfrowych, również wydawcy sięgnęli po „autorów” spod znaku AI. Tymczasem jednak, dzięki pomocy nowych narzędzi, wydawcy mogą ciąć koszty, proponując coraz niższe stawki swojemu personelowi i samym autorom.
Co robić?
Na szczęście unijni prawodawcy i regulatorzy rynku nie są do końca głusi na wszystkie te negatywne zjawiska. W drugiej połowie 2024 roku unijne (w tym także polskie) władze odbyły szereg konsultacji ze środowiskami twórczymi, w celu pełnej diagnozy sytuacji i wypracowania środków zaradczych. Częścią tych konsultacji było odbyte w październiku 2024 roku w Warszawie Forum Prawa Autorskiego. W spotkaniu tym uczestniczyli przedstawiciele zrzeszeń twórczych, Ministerstwo Kultury, lecz także obserwatorzy z polskich oddziałów globalnych koncernów medialnych i technologicznych. I chociaż, co było do przewidzenia, daleko jeszcze do porozumienia wszystkich tych stron co do sposobów uczciwego wykorzystywania chronionych utworów przez systemy AI, nikt nie może już odtąd udawać, że taki problem nie istnieje. „Nie żądamy zakazu stosowania systemów AI”, podkreślali debatujący autorzy. „Chcemy tylko uczciwego i godnego wynagrodzenia za korzystanie z naszej pracy”.
W przedstawionym na Forum Prawa Autorskiego kwestionariuszu stowarzyszenie Unia Literacka zajęła w tym względzie bardzo konkretne stanowisko, pisząc, że zdaniem organizacji, wejście technologii AI na rynek wymusza całkowicie nowe podejście do ochrony praw autorskich. Po pierwsze, bardzo wiele treści już zostało bezprawnie użyte do trenowania AI (TDM) bez należnego wynagrodzenia i kwoty te należy odzyskać (o ile to możliwe). Po drugie, same mechanizmy ochronne („Opt-out”) są tylko teoretyczne wobec braku zunifikowanych technologii ochronnych (etykietowanie chronionych treści przez metadane, itp.), a te standardy musi wprowadzić UE albo państwo. Po trzecie wreszcie, uważamy, że twórcy SĄ zainteresowani współpracą z platformami AI – pod jednym wszakże warunkiem: za wynagrodzeniem. Ale mechanizm takiego zbiorowego wynagradzania trzeba dopiero wypracować.
Twórcy zrzeszeni w Unii Literackiej wskazują też, iż AI nie jest ani człowiekiem, ani maszyną produkującą śrubkę za śrubką. AI jest (w perspektywie) pewnym złożonym procesem, a także ekosystemem, w którym uczestniczy wiele podmiotów: dostawcy treści do TDM, trenerzy AI, sprzedawcy i dostawcy wygenerowanych przez AI treści. Co nie do końca oczywiste, proces generowania i rozpowszechniania treści wytworzonych z udziałem AI jest kapitałochłonny – tj. jest inwestycją. I tak jak chroni się inwestycję w fabrykę śrubek, tak podmioty budujące treści via AI będą żądały ochrony swojego majątku (treści) i zainwestowanego kapitału. Trudno dzisiaj ocenić, jakiego rodzaju prawa będą chronić takie podmioty i generowane przez nie treści – być może niezbędne będzie wprowadzenie tu całkowicie odrębnej kategorii prawa, rodzaj hybrydy praw chroniących „ludzkie” treści i praw chroniących zwykłe inwestycje gospodarcze. Globalne i pomniejsze koncerny inwestujące w AI z pewnością się o takie prawa upomną.
Głos nadziei
By tytułowe żądanie, aby Sztuczna Inteligencja przestała okradać twórców, stało się rzeczywistością potrzeba konkretnych rozwiązań, w tym przede wszystkim dalszych zmian otoczenia prawnego. Najlepszym wyrazem idących w tym kierunku oczekiwań ze strony twórców wobec systemów AI (czytaj: wobec państw unijnych i koncernów władających systemami AI) niech będzie list przesłany na ręce unijnych władz przez dwie europejskie organizacje twórcze: European Writers Council oraz European Council of Literary Translators’ Accociation. W liście tym organizacje wskazują, iż cały łańcuch wartości gospodarki kulturalnej i twórczej, lecz obecnie także całej branży GenAI, opiera się na innowacyjnej sile indywidualnych autorów i artystów. Jednocześnie ci sami indywidualni autorzy, artyści i wykonawcy są narażeni na nieustannie niepewną egzystencję, bronieni słabo wdrożonymi artykułami dyrektywy (UE) 2019/790 oraz przez zaledwie kilka egzekwowalnych klauzul umownych. Są też oni zagrożeni utratą miejsc pracy z powodu Sztucznej Inteligencji oraz grabieżą ich pracy intelektualnej i profesjonalizmu artystycznego zdobytego przez lata na osobiste ryzyko ekonomiczne, przez działania pozaeuropejskich właścicieli sztucznej inteligencji, którzy wykorzystują destrukcyjne luki i bardzo hojną, ale w ich intencji inaczej zamierzoną interpretację wyjątków TDM (trenowania AI na istniejących, chronionych utworach). „Skutki są już druzgocące, a nie było to ani intencją poprzednich ustawodawców, ani nie powinno być etycznie poprawną intencją tych obecnych. W waszych rękach jest przyszłość europejskiego kapitału kulturowego, jego intelektualnych i artystycznych osiągnięć. Nie zawiedźcie nas!” – apelują autorzy dokumentu. Czy nadal będzie to głos wołającego na puszczy? I czy w konsekwencji triumfalny pochód AI zabije twórczą innowację, zastępując ją maszynową papką do zbiorowej konsumpcji? Pozostaje nadzieja, że tak się nie stanie.