Hej, ChatGPT, napisz za mnie książkę! Artur Kurasiński o AI

www.unsplash.com/BoliviaInteligente

Jeśli czytasz ten tekst, to znaczy, że prawdopodobnie marzysz o dwóch rzeczach – napisaniu własnej książki oraz żeby nie musieć się przy tym napracować. Rozumiem Cię doskonale! Praca nad książką (niezależnie jaką), to droga przez mękę. Trzeba nauczyć się szukać informacji, budować świat, tworzyć bohaterów, dialogi, no i (taki drobiazg), mieć pomysł na to wszystko.

Jest wiele książek opisujących proces tworzenia – pisali o tym między innymi Stephen King i Remigiusz Mróz. Każdy z nich zniechęcał, pokazywał jak bardzo jest to proces ciężki, niszczycielski wręcz i najeżony problemami.

Fantazjowanie o pisaniu książek jest miłe i bezpieczne. Pisanie książek to proces skrajnie wyczerpujący i destruktywny (napisałem, bądź współuczestniczyłem w wydaniu 8 książek i komiksów, więc trochę o tym wiem).

Być może nawet zacząłeś (albo zaczęłaś) robić coś w tym kierunku, ale niestety idzie Ci jak po grudzie. I potrzebując wsparcia, siedzisz właśnie w jakiejś knajpie z kumplem, który po trzeciem piwie odzywa się i mówi „Hej, a próbowałeś AI? Wiesz, że ChatGPT może pisać teksty?”

No właśnie.

Sztuczna Inteligencja.

www.unsplash.com/Florian Olivo

Magiczna fraza za którą kryją się totalnie fantastyczne wyobrażenia o tym, co ta „ej aj” potrafi. Na potrzeby niniejszego felietonu muszę zatem wytłumaczyć (bardzo pobieżnie) czym jest, a czym nie to AI o którym słyszymy od prawie dwóch lat.

Sztuczna inteligencja nie zaczęła się w listopadzie 2022 roku, kiedy OpenAI pokazało świat swój model językowy ChatGPT-3. Naukowcy zajmują się kwestiami AI od lat sześćdziesiątych zeszłego wieku.

Problemy z małą wydajnością mocy obliczeniowej, brak algorytmów oraz danych skutecznie uniemożliwiał rozwój tej dziedziny nauki. Niektórzy naukowcy wręcz twierdzili, że stworzenie AI, które chociaż minimalnie będzie w stanie nam pomagać, jest skazane na porażkę. A o oprogramowaniu, które będzie w stanie zdać tzw. test Turinga (w określenie poziomu posługiwania się językiem naturalnym przez maszynę oraz umiejętności myślenia) nie ma mowy.

Minęło kilkadziesiąt lat, wiele ścieżek i prób okazało się błędnych, aż wreszcie mały zespół badawczy pracujący w firmie OpenAI dokonał przełomu. Udało się stworzyć algorytm (nazywany wielkim modelem językowym z powodu ilości danych, które musi zawierać aby działał poprawnie), który zgaduje kolejność słów.

Tak, dobrze słyszycie. Tak naprawdę ten jeden z największych wynalazków ludzkości można opisać jako „stochastyczną papugę” czyli twór, który bezmyślnie powtarza zasłyszane słowa i zdania bez ich rozumienia, za to w większości wypadków w sensownie brzmiących frazach. I robi to całkiem nieźle bo oprócz tekstów tworzy też grafikę i wideo, a nawet bardzo dobrze radzi sobie z tworzeniem kodu.

Jak to się dzieje? Nikt tego nie wie.

Naukowcy z OpenAI, Meta, Microsoftu, Apple czy Google rozkładają ręce i bardzo chętnie używają terminu „czarna skrzynka”, co ma oznaczać „stworzyliśmy coś, ale nie rozumiemy jak to działa”. Wiemy jakie algorytmy są potrzebne, ile treści (danych na podstawie których algorytm się uczy), jaka moc obliczeniowa, ale nie wiemy dlaczego dany model językowy działa.

Nie wiemy dlaczego (i co ważniejsze – jak!) doprowadzić do sytuacji, w której taki model nie „halucynuje” (w przypadku ludzi napisałbym „kłamie” – czyli robi to świadomie).

Witajcie zatem w krainie wspaniałości, w której macie za kilkanaście dolarów miesięcznie dostęp do narzędzia, które (w teorii) może napisać za was dowolną pracę i tekst. Nikt nie wie co prawda jaki będzie efekt i czy to, co dany czatbot napisze, będzie tym, o co go poprosiliście, ale to drobiazg.

Będąc początkującym pisarzem mamy do dyspozycji magicznego pomocnika, który odwali za nas pracę a my tylko podpiszemy umowę z wydawnictwem i zgarniemy górę szmalu. Prawda?

Niestety, nic takiego się nie wydarzy.

Po pierwsze – polskie prawo stanowi jednoznacznie – tylko człowiek może być twórcą. Maszynie nie możemy przypisać praw autorskich. Innymi słowy, jeśli napiszecie swoją książkę za pomocą czatbota to nie macie do niej praw autorskich.

www.unsplash.com/Gülfer ERGİN

Oczywiście możesz skłamać i twierdzić, że to twój pot i łzy wsiąkały w kartki kiedy stukałeś swój opus magnum na maszynie, ale cóż – istnieją sposoby aby sprawdzić czy dany tekst został stworzony za pomocą AI (najprościej to wykazać w przypadku prac naukowych, gdzie AI po prostu plagiatuje prace innych osób).

Jaka jest inna konsekwencja tworzenia przy pomocy AI? Otóż taki wytwór nie jest utworem i nie podlega ochronie prawa autorskiego. Część prawników twierdzi, że takie wytwory powinno umieszczać się w tak zwanej domenie publicznej, czyli każda inna osoba może z nich korzystać, ale nie posiada do nich praw.

Kolejną konsekwencją używania czatbota do pisania swojej książki to ryzyko pozwu od właściciela praw do tekstów, na których dany czatbot był szkolony.

Pamiętacie co jest potrzebne żeby dana AI tak pięknie zgadywała kolejne literki i zdania? Duże zasoby danych, czyli mówiąc prościej, teksty. Książki, opracowania naukowe, komentarze w Internecie, strony www, wszelkie zbiory danych.

Praktycznie każdy z tych wymienionych obszarów ma swojego właściciela i jest objęty prawem autorskim. Czy firmy tworzące czatboty kupiły prawa do tych tekstów albo poprosiły o zgodę autorki i autorów?

Wolne żarty. Przecież nie po to Mark Zuckerberg już ponad dwie dekady temu dumnie twierdził „move fast and break things” żeby kolejne spółki z Doliny Krzemowej przejmowały się czymś tak prozaicznym jak prawo czy własność intelektualna.

OpenAI i praktycznie wszystkie firmy, które stworzyły swoje czatboty są obecnie w sporze prawnym z największymi światowymi wydawcami. Od wyników tych sporów będzie zależał dalszy rozwój sztucznej inteligencji.

Zostawiam jednak na chwilę na boku kwestie prawne i spróbuję teraz odpowiedzieć na pytanie, czy ChatGPT (i jemu podobne) rozwiązania technologiczne mogą pisać książki?

W ogromnym skrócie: tak

Czatboty wyszkolone na bardzo dużej liczbie (liczonych w dziesiątkach milionów) książek i dokumentów mają w sobie możliwość tworzenia tekstów w zadanym stylu („napisz kryminał w stylu Chandlera, ale potem dorzuć trochę stylu Chmielarza”), używania słów, czy wręcz całych zdań charakterystycznych dla danej twórczyni czy autora.

Problemów jest jednak kilka – po pierwsze, czatboty nadal mają problem z tak zwaną „pamięcią” i po napisaniu kilku stron tekst przestaje być logiczny albo gubi założenia. Możemy w tekście o II WŚ nagle zobaczyć elfy walczące ze smokami. Albo tekst popularnonaukowy zamieni się w hiphopowy utwór.

Pamiętacie jak pisałem, że naukowcy nie wiedzą dlaczego AI halucynuje?

No właśnie. Nie wiemy i dlatego nie bardzo na razie możemy to naprawić (być może nigdy to nie będzie możliwe bez pomocy całej masy towarzyszących „ej ajek” które będą odpowiedzialne tylko za spójność tekstu).

Czy teksty pisane przez AI mogą być lepsze niż teksty, którymi je „nakarmiliśmy”? Nie. Generatywna sztuczna inteligencja to wspaniały i genialny naśladowca. Sam niczego nie wymyśli, bo będzie posiłkować się tekstami, na których się uczył.

W branży informatycznej istnieje pojęcie „garbage in, garbage out” oznaczające, że jeśli wprowadzimy złej jakości dane, to efektem będą wyniki również podobnej jakości.

Sprowadzając ten przykład do polskiego podwórka: jeśli ChatGPT nakarmimy książkami Czornyja, to nie spodziewajmy się, że algorytm wytworzy nam literaturę na poziomie Olgi Tokarczuk.

www.unsplash.com/Sharon McCutcheon

Nie, czatbot nie uczyni z nas genialnego pisarza, nie spowoduje, że nagle będą spod naszych palców spływały arkusze wspaniałych dialogów czy też opisów przyrody.

Na chwilę obecną czatbot pomoże nam w zaplanowaniu akcji książki, pomoże w znalezieniu pomysłu, opisie postaci, znalezieniu wątków. Musimy bardzo świadomie działać i wiedzieć co chcemy osiągnąć. Wpisanie frazy „napisz książkę o X” nic nie da.

Musimy umieć określić bardzo dokładnie w czym chcemy żeby dany czatbot nam pomógł i opisywać to zrozumiałym językiem (to jest ta słynna „inżyniera promptów” o której obecnie tyle się mówi).

Czatboty genialnie radzą sobie za to z analizą ogromnych zbiorów danych – możecie wrzucić mu wielkiego PDFa i kazać wyciągnąć wnioski, albo zrobić porównanie z innym, równie ogromnym tekstem.

Artur Kurasiński, fot: www.kurasinski.com

Wszędzie tam, gdzie nasz ludzki umysł nie radzi sobie pod kątem analizy czy liczenia warto poprosić o pomoc AI. Traktujemy go (ją?) jako naszego kumpla, który zawsze i wszędzie jest nam w stanie pomóc.

Nie napisze za nas książki, ale pomoże w zaplanowaniu akcji, postaci, opisów. Wytknie błędy logiczne i wskaże alternatywy.

Nie liczmy jednak na to, że jej poziom kreatywności będzie kiedyś na tyle duży żeby zastąpić pisarki i pisarzy.

Bo na koniec dnia liczy się człowiek, który tę książkę napisał.

Kupujemy książki dlatego, że ich autorem jest Stephen King a nie dlatego, że zostały napisane za pomocą Worda z domieszką AI.

Artur Kurasiński – od ponad dwóch dekad obserwuje trendy technologiczne i społeczne. Często występuje na najważniejszych konferencjach technologicznych w Polsce. Więcej – kurasinski.com.