Rozmowa z Piotrem Czerskim (ur. 1981), poetą, prozaikiem, muzykiem, a także programistą i projektantem produktów cyfrowych. Autorem między innymi tomiku poezji pospieszne, osobowe (Ha!art, Kraków 2002), beletryzowanego reportażu Ojciec odchodzi (Ha!art, Kraków 2006) i szeroko dyskutowanego tekstu My, dzieci sieci (2012), przełożonego na kilkanaście języków. Współautorem kilku albumów muzycznych (z zespołami morze, Automaty, 7faz i Towary Zastępcze). Laureatem Ogólnopolskiego Konkursu Poetyckiego o Laur Czerwonej Róży, stypendystą programu Homines Urbani, autorem nominowanym do nagrody Grand Press w kategorii reportaż prasowy za Outland (2007), uwzględnionym na liście New Europe 100 (tworzonej przez Res Publicę Nową we współpracy z Google i The Financial Times). W latach 2014–2021 kierownikiem studiów podyplomowych z projektowania user experience na Uniwersytecie SWPS w Sopocie. W listopadzie 2024 opracowana przez niego prof. hab. Sz. I. poprowadziła w Teatrze Szekspirowskim spotkanie autorskie z poetą Tadeuszem Dąbrowskim.
Aleksandra Kozłowska: No i się doigraliśmy. 13 listopada 2024 roku sztuczna inteligencja na żywo poprowadziła wywiad z autorem – poetą Tadeuszem Dąbrowskim. Spotkanie odbyło się w Gdańskim Teatrze Szekspirowskim, okazję stanowiła premiera W metaforze (PIW, Warszawa 2024), nowej książki Dąbrowskiego. Prowadząca przedstawiła się jako prof. dr hab. Sz. I. Ale to ty – niczym Master of Puppets – za nią stałeś…
Piotr Czerski: Pomysł był Tadeusza – chyba w kwietniu zapytał, czy myślę, że w listopadzie sztuczna inteligencja mogłaby poprowadzić spotkanie autorskie. Ja, trochę dla żartu, odpowiedziałem: „Jasne, w listopadzie już na pewno”. Ale oczywiście, kiedy przyszło co do czego, okazało się, że jednak nie ma gotowych rozwiązań, które wystarczy wyciągnąć z pudełka…
AK: Nie?
PCz: Nie. Z technicznego punktu widzenia możliwe były dwie skrajności: albo AI ogranicza się do wygenerowania puli pytań, które jednak zadaje człowiek, albo podejmujemy ryzyko eksperymentu, ze wszystkimi tego konsekwencjami, w tym – zupełnej katastrofy. Nie rozważaliśmy w ogóle pierwszego scenariusza, tylko drugi wydawał nam się interesujący: no risk, no fun.
AK: Coś nowego – ale żeby przy okazji ukłuć ludzkich prowadzących takie spotkania? Sama pomyślałam: „Okey, to mogę się już pakować”. Bo pewnie nie dogonię AI w erudycji, nawiązaniach do filozofii, teorii literatury, w ogóle literatury.
PCz: Poruszasz bardzo ciekawy wątek, za chwilę pewnie do tego dojdziemy… Wydaje mi się – nie omawialiśmy tego, mogę tylko zgadywać – że intencją Tadeusza było zrobienie czegoś, co będzie odebrane jako pewien rodzaj prowokacji. Dąbrowski nigdy nie bał się testowania i wykorzystywania nowoczesnych mediów, mimo że jest poetą posługującym się bardziej tradycyjną, może wręcz konserwatywną dykcją – i zajmującym również takie stanowiska światopoglądowe czy filozoficzne.
AK: Powiedział mi, że to był żart.
PCz: O, na pewno. Ale, jak to pięknie ujął kiedyś Michał Cichy: w każdym żarcie jest odrobina żartu. Ja, co prawda, skrzywiłem się nieco na koncept nazwy „prof. dr hab. Sz. I.” – wydał mi się taki… bardzo wprost… Już w tym miejscu odbija się coś, co wydaje się interesujące, jakiś wymiar rzeczywistości… Ale po kolei: w zasadzie od początku obecnej odsłony szału AI intensywnie zajmuję się wykorzystywaniem tej technologii. Współtworzę na przykład fantastyczny zespół rozwijający startup TasteRay, który pracuje nad mechanizmem rekomendowania tekstów kultury, na początek: filmów, w sposób dotychczas nieosiągalny. Netfliksowi i innym dostawcom kontentu wideo zależy tylko i wyłącznie na tym, żebyśmy obejrzeli cokolwiek. Traktują każdego użytkownika jako reprezentanta jakiejś globalnej grupy dziesięciu czy dwudziestu tysięcy osób o podobnym guście – i każdej osobie z tej grupy ładują te same propozycje, wybrane na podstawie statystyki.
AK: Tak, polecają na przykład film, który dopiero co obejrzałam.
PCz: Tymczasem my chcemy, ba, możemy, rekomendować ci filmy, które są ściśle dopasowane do twojego indywidualnego, charakterystycznego gustu, historii, nawet aktualnych potrzeb. Jeżeli przechodzisz transformację zawodową – wartościowe może być dla ciebie obejrzenie czegoś inspirującego; jeżeli borykasz się z jakąś sytuacją osobistą – odpowiedni film może ci pomóc w złapaniu nowej perspektywy itd.
Pracuję więc z ludźmi, którzy na pewno są w polskiej awangardzie praktycznych zastosowań rozwiązań tzw. generatywnej sztucznej inteligencji; spędziliśmy setki godzin na dyskutowaniu, testowaniu różnych silników, sprawdzaniu możliwości i ograniczeń technologii – i nagle to listopadowe doświadczenie uświadomiło mi, jak duża jest różnica perspektyw między insiderami a uczestnikami szerokiej debaty publicznej. W tzw. dyskursie „sztuczna inteligencja” jest nadal terminem jokerem, którego desygnatem pozostaje niedookreślone wszystko. Tymczasem ten obszar to całe uniwersum technologii działających w różny sposób, z różnymi zastosowaniami, oferujących różne korzyści i niosących ze sobą różne ryzyka.
AK: Wydaje mi się, że „sztuczna inteligencja” często jest traktowana z politowaniem. Po tym spotkaniu zresztą można się było w tym politowaniu umocnić. Prof. Sz. I., owszem, nałykała się wiedzy, ale gdzie emocje, gdzie wrażliwość? Prowadziła rozmowę jak ankietę. Stąd potem komentarze znajomych w stylu: „E tam, to żadne dla nas zagrożenie, ona tylko powtarza dane, które jej wrzucono”. Ja z kolei miałam wrażenie, że ten żart jest jak nabijanie się niższych naczelnych z Homo sapiens, kiedy ten stanął na nogach i teraz rusza w świat, podczas gdy one wciąż tkwią na drzewie.
PCz: Bardzo ciekawe, tu migocze coś, co wydaje mi się szczególnie interesujące w całej tej dziedzinie – i na poziomie technicznym, i w społecznej recepcji… Tradycyjna informatyka, deterministyczna, algorytmiczna, posługująca się binarną opozycją 0-1 i ostrością rozróżnień z nią związaną, była chyba lepiej dopasowana do tego, jak my, ludzie, lubimy o sobie myśleć – że jesteśmy właśnie tacy: dookreśleni, zdecydowani, podążający za nakazem „niech wasza mowa będzie: tak, tak; nie, nie”…
AK: Otóż to, zero-jedynkowi.
PCz: Tymczasem ten nowy paradygmat, niedeterministyczny, oparty na prawdopodobieństwach, posługujący się – z informatycznego punktu widzenia nie jest to poprawne określenie, ale podoba mi się jego metaforyczny urok – logiką rozmytą, wszystko to w fascynujący sposób przekłada się na społeczną recepcję i próby intelektualnego uchwycenia zjawiska. Te komentarze, które przywołujesz…
AK: No właśnie?
PCz: Zaraz, zacznijmy od początku. Jest taka zasada, nazywa się paradoksem Moraveca, sformułowana jeszcze w latach osiemdziesiątych, która głosi, że dla „maszyn myślących” zaskakująco łatwe są rzeczy, które my uważamy za bardzo trudne – i odwrotnie. Na przykład wykonywanie skomplikowanych operacji matematycznych jest łatwe dla kalkulatora, a pracochłonne dla człowieka, z kolei utrzymywanie ciała w pionie jest trywialne dla człowieka, a bardzo trudne dla humanoidalnych robotów. Podobnie w przypadku konwersacji z generatywną AI – nie stanowi dla niej kłopotu błyskawiczne wytworzenie kilkunastu pytań, łączących zgrabnie treść książki i szeroki kontekst kulturowy, za to wielkim problemem jest wyczucie, kiedy w rozmowie przychodzi pora na to, żeby zabrać głos. Gdybyśmy, przygotowując to spotkanie, ograniczyli się do polecenia: „masz tu książkę, wygeneruj dwadzieścia pytań”, a ja później wybrałbym najlepsze i odczytywał je z reżyserki – dostępne na rynku modele sprawdziłyby się znakomicie bez szczególnych przygotowań. Naprawdę znakomicie! Zrobiliśmy taki eksperyment z PDF-em mojej książki Ojciec odchodzi i wcale nie najlepszy silnik wypluł natychmiast swoje propozycje… Pamiętam, że spojrzeliśmy na siebie z Tadeuszem, kręcąc w milczeniu głowami. Pytania sprawiały wrażenie przygotowanych przez kogoś, z kim naprawdę będzie można porozmawiać o wszystkich niuansach tekstu i kontekstu: polskiej historii najnowszej, różnych postaw wobec religii… I kogoś, kto uważnie przeczytał książkę, co człowiekowi zajęłoby przynajmniej ze trzy godziny.
Tymczasem kiedy próbujesz dodać do tego element interaktywności, to okazuje się, że zrozumienie konwencji czy emocjonalnego wymiaru rozmowy jest niemal niemożliwe. Obecnie wszystkie gotowe rozwiązania opierają się na prostym rozpoznawaniu ciszy – zakładają, że milczenie oznacza koniec wypowiedzi człowieka. To nie działa nawet w prostej rozmowie, a co dopiero w sytuacji, w której człowiek nie recytuje formułek, tylko wysnuwa z siebie myśli przy świadkach, zastanawia się, robi pauzy.
AK: Czyli nie jest tak, że ona zadaje pytanie, Tadeusz odpowiada, ona słyszy, że zapadła cisza, więc porusza kolejną kwestię?
PCz: Tak działają dostępne na rynku rozwiązania z pudełka. Tyle że to nie cisza jest decydująca: my, ludzie, w każdym razie neurotypowi, rozumiemy, kiedy pauza oznacza przerwę na oddech, kiedy koniec dygresji, a kiedy definitywny koniec odpowiedzi. Ba, kiedy przerwanie niedokończonej odpowiedzi kolejnym pytaniem jest na miejscu albo wręcz pożądane – a kiedy stanowi faux pas.
Każdy, kto ma za sobą rozmowę na przykład z głosowym interfejsem ChataGPT, wie, jak frustrujące jest to doświadczenie. Chcesz o coś zapytać, dokładnie opisać problem, robisz pauzę na oddech… A on zaczyna odpowiadać. „Nie skończyłem jeszcze!” – krzyczysz i kontynuujesz myśl, a on po sekundzie mówi: „Przepraszam bardzo, mów dalej”, więc oczywiście przerywasz na chwilę, po czym próbujesz wrócić do wątku, zawieszasz się na moment i on znów zaczyna udzielać odpowiedzi. Masz poczucie, że rozmawiasz z kimś, kto jednocześnie ze wszystkich sił udaje, że cię słucha – i kompletnie nie słyszy. Człowiek odczuwa to – chcąc nie chcąc, antropomorfizując maszynę – jako brak szacunku do siebie, w najlepszym przypadku – jedną z tych fatalnych sytuacji, w których na połączeniu wideo ktoś ma trzysekundowe opóźnienie i trzeba się pilnować, żeby nie zacząć sobie rwać włosów z głowy…
AK: Okropność.
PCz: No więc poprowadzenie spotkania autorskiego przez taki gotowy model było wykluczone. Jedyną możliwością uzyskania odpowiedniego efektu i interaktywności było napisanie programu w Pythonie, łączącego technologię rozpoznawania mowy z silnikiem LLM do zadawania pytań i modelem generowania głosu do ich wygłaszania. A do tego dodanie tak zwanej wektorowej bazy danych, która mieściła całą zawartość książki Tadeusza.
Te wektorowe bazy danych to w ogóle bardzo ciekawa rzecz – modele językowe w procesie uczenia zamieniają słowa, a właściwie ich fragmenty, na wektory, tzn. po prostu tablice z wartościami liczbowymi, wskazującymi kierunki w przestrzeni… A ponieważ te przestrzenie mają paręset wymiarów, to dzieją się interesujące rzeczy, na przykład w naturalny sposób w różnych wymiarach gromadzą się wyrazy bliskoznaczne. Na przykład „król” i „królowa” będą blisko siebie (i słów „premier” albo „prezeska”) w jednym wymiarze, za to w innym – bardzo umownie i dla uproszczenia nazwijmy go genderowym – będą od siebie oddalone, w przeciwieństwie do męskoosobowych słów „król” i „niewolnik”. Co więcej, blisko siebie znajdą się „król”, „king” i „koenig”, bo dla LLM-ów semantyka jest znacznie ważniejsza od granic między językami – i widać to czasem, kiedy w polskiej wypowiedzi niespodziewanie pojawia się słowo angielskie albo polski neologizm, albo odmiana polskiego wyrazu dokonana według obcojęzycznej reguły, albo wręcz słowo zapisane cyrylicą…
No więc w podobny sposób została zapisana cała treść książki W metaforze, dzięki czemu program mógł błyskawicznie wyciągać fragmenty nawiązujące sensem do poprzedniej wypowiedzi Tadeusza…
AK: Z góry stworzyliście scenariusz? Tadeusz znał wcześniej pytania prof. Sz. I.?
PCz: Nie, nie, absolutnie, cały sens mojej pracy polegał na umożliwieniu prawdziwej, niekłamanej interaktywności. Padało pytanie, Tadeusz odpowiadał; to, co mówił, było w czasie rzeczywistym zamieniane z głosu na tekst przez jeden model i tworzyło pierwszą część kontekstu. Drugą było pięć fragmentów książki, które w jakiś sposób nawiązywały do tej wypowiedzi. Trzecią – szeroki kontekst kulturowy. Pytanie powstawało dopiero na bazie tych trzech elementów; co do zasady podobnie zachowywałby się człowiek prowadzący spotkanie. To, co wygenerował model Claude Sonnet, przekazywane było do silnika Eleven Labs, polskiego jednorożca, i on generował głos słyszany przez publiczność. Żeby zminimalizować opóźnienia, ten głos był odtwarzany ze strumienia, a nie pełnego pliku, czyli jak na YouTube – i to zresztą sprawiło, że z różnych przyczyn ostatnia wypowiedź została nagle ucięta kilka słów przed końcem zdania.
AK: Myślałam, że to zostało zrobione specjalnie…
PCz: Nie. Pierwsza i ostatnia wypowiedź AI były wygenerowane wcześniej. To, jak się niby to rozgrzewa i jest zaskoczona, że już ją słychać – musiałem to przygotować wcześniej, bo wielu zabaw z interpunkcją wymagało wprowadzenie intonacji chociaż w zarysie przypominającej ludzką w tak nietypowej sytuacji. Z tych samych powodów wcześniej przygotowałem końcowy gag, w którym AI plącze się i gaśnie na podobieństwo HAL-a 9000 z Odysei kosmicznej. Wszystko pomiędzy było generowane w locie i ponieważ ten niespodziewany błąd pojawił się w ostatniej wypowiedzi – wszyscy uznali, że tak miało być.
Reasmując: stosunkowo proste było generowanie dość wysublimowanych pytań, natomiast osiągnięcie akceptowalnego toku rozmowy wymagało ręcznego sterowania, naciskania przeze mnie kombinacji klawiszy oznaczającej „Tadeusz skończył, teraz zacznij myśleć i zadawać swoje kolejne pytanie”. Takich paradoksów jest w tym obszarze mnóstwo: trudno o naturalność komunikacji, łatwo o przywoływanie ze swadą francuskich filozofów. Ale właśnie, tu też ciekawostka – na spotkaniu było pewnie z dwieście osób, prawie dziesięć tysięcy obejrzało nagranie wideo…
AK: I jak zareagowało?
PCz: Reakcje były przewidywalne – entuzjaści klaszczą; najwięksi optymiści, którzy liczą na to, że sztuczna inteligencja w ogóle zbawi nas od nas samych, byli zachwyceni, bo oto, proszę bardzo, kolejna bariera… Z kolei zdecydowana większość osób pracujących w zawodach kreatywnych traktuje takie eksperymenty jak bez mała zdradę, dywersję, wepchnięcie się na teren, na którym każdy godzien miana człowieka powinien stać na barykadzie z ręką uniesioną w geście no pasaran… Co może być zrozumiałe na poziomie emocji, ale na pewno nie ułatwia potencjalnie przydatnych refleksji…
Ale chciałem o czymś innym… Widziało to z dziesięć tysięcy osób – literatów, dziennikarzy, przedstawicieli nauk humanistycznych – i tylko jeden Piotr Graczyk, filozof z UJ, napisał w komentarzu, że nie będzie tego nawet słuchał, skoro już w pierwszym pytaniu AI opowiada bzdury: przywołuje „heideggerowskie rozróżnienie między mową autentyczną i nieautentyczną”. I rzeczywiście – u Heideggera podział na autentyczność i nieautentyczność dotyczy bycia, egzystencji; AI wyhalucynowało sobie swobodnie „mowę” jako pasującą do kontekstu spotkania. I teraz: to, że AI zmyśla, wiemy już wszyscy; ciekawsze wydaje się to, że wśród dziesięciu tysięcy odbiorców ten fałsz zauważył być może tylko człowiek, który jest tłumaczem Heideggera. Gdzie umiejscowić takie przekłamanie na osi między prawdą i nieprawdą?
AK: Umiejętność zmyślania czy też odpowiadania na to samo pytanie w różny sposób bardzo do nas sztuczną inteligencję zbliża. To nie jest wyłącznie odtwórczość – to zgoda na błędy, na improwizację, rodzaj zabawy.
PCz: Tak, to mnie zresztą zawsze najbardziej pociągało w muzyce. Informatyka czy literatura to dziedziny, w których możesz wymyślić rozwiązanie, a później jeszcze je doszlifować… A żeby grać muzykę opartą na improwizacji, musisz myśleć w zupełnie inny sposób, przebudować swoje przekonania o tym, co ma wartość, pozwolić sobie na robienie błędów, na to, że jakiś dźwięk zupełnie nie wejdzie albo że ty lub kolega z zespołu zapomnicie frazy albo wypadniecie z rytmu…
AK: Nie tylko zafałszujesz, ale i pójdziesz za tym zafałszowaniem…
PCz: Gitarzyści mawiają: jak się pomyliłeś, to zagraj drugi raz tak samo, wszyscy pomyślą, że tak miało być. I jeszcze: na nastrojonej to nie sztuka zagrać… Więc tak, masz rację, w tym sensie halucynacje przybliżają AI do ludzi i, dopóki to rozumiemy, pozwalają na myślenie o tym w kategorii wspomagania kreatywności. Ale z drugiej strony – o ile półtora roku temu, rok temu te błędy były powszechne i dotkliwe, o tyle teraz jest ich już wyraźnie mniej. Nie da się ich wyeliminować, ale udało się ograniczyć do kwestii bardziej eterycznych, jak poglądy Heideggera. Choć oczywiście nie tylko. Wczoraj pokazywałem interfejs głosowy GPT rodzicom, rozmowa akurat zeszła na przypadkowy temat: „gdzie poza RPA wydobywa się diamenty”, więc zadałem to pytanie. I czy to przez gwar, czy też nie dość wyraźnie wyartykułowałem pytanie, ale ChatGPT zrozumiał, że pytam o „dźamęty” i skwapliwie objaśnił, że to staropolska nazwa słodkich i słonych przekąsek, i tak dalej, na trzy akapity. Nie muszę dodawać, że to nieprawda; po prostu wygenerował całą zmyśloną odpowiedź do neologizmu, który stworzył, źle interpretując mój głos. Priorytetem jest zawsze udzielenie odpowiedzi…
AK: ChatGPT 4 informuje, że może się mylić. Ale cały czas mówimy o modelach, które są ogólnie dostępne, a nie o tych, które tak naprawdę zmieniają rzeczywistość. Które nie są jeszcze oddane do ogólnego użytku. I to one mnie fascynują – nie potrzebują już człowieka, żeby się rozwijać, wielu badaczy mówi, że mają świadomość. Łącząc dane w kreatywny sposób, wypracowując rozwiązania nieprzewidziane przez człowieka, wpisują się w definicję świadomości Locke’a.
PCz: Na temat różnicy między dostępnymi publicznie i niedostępnymi jeszcze modelami toczy się cała dyskusja, bez konkluzji. Są tacy, którzy wierzą, że czołowe firmy albo państwowe agendy mają dostęp do technologii wyprzedzających o umowny rząd wielkości to, co nam udostępniono; inni przytomnie zauważają, że w warunkach konkurencji rynkowej i przy dość jednak powszechnej znajomości nie tak wcale skomplikowanej matematyki stojącej za działaniem modeli językowych taka przewaga jest niemożliwa. Ba, że doszliśmy do limitu pewnego paradygmatu rozwojowego i dlatego na przykład OpenAI nie udostępniło nadal GPT 5, rozwija za to linię tworzoną przez modele -o1 i -o3, funkcjonujące w nieco inny sposób i mające inne cechy użytkowe.
AK: Jak widzisz ten rozwój technologii?
PCz: Mam za sobą, niech policzę, prawie trzydzieści pięć lat doświadczeń z używaniem komputerów. Pierwsze Atari dostałem jako prezent gwiazdkowy, kiedy miałem siedem lat…
AK: Prawdziwe dziecko sieci!
PCz: …i szczerze mówiąc, po tych latach czuję się już bardzo zmęczony technologią. Mam poczucie, że od dawna znacznie więcej nam zabiera, niż daje.
AK: Masz na myśli relacje międzyludzkie?
PCz: Wszystko – relacje, twój własny czas, życie. Teraz, w czasie przerwy świątecznej, udało mi się wypracować nawyk wyłączania telefonu i odkładania go w innym pomieszczeniu około dwudziestej pierwszej – i włączania go dopiero, kiedy się obudzę, wstanę, zjem śniadanie. I już to tworzy zupełnie inną przestrzeń do życia. Zasypiam łatwiej, śpię lepiej. Mam nadzieję, że uda mi się to utrzymać.
No więc: czuję się wyczerpany. Wiem, jak działa technologia, komu służy (właścicielom) i na kim żeruje (na nas). Gdybym mógł wybierać, to na tym etapie prawdopodobnie wybrałbym mieszkanie w leśniczówce w zachodniopomorskim i spędzanie czasu na czynnościach niewymagających w ogóle nowoczesnych technologii: czytaniu, pisaniu, graniu muzyki.
AK: Rozumiem tęsknotę za dosłowną i metaforyczną ciszą.
PCz: Rzecz jasna, nieuczciwie byłoby pomijać oczywiste korzyści: wygoda komunikacji nadal bywa zaletą; jest nią także łatwy dostęp do informacji, usług i produktów. Tyle że do tego już przywykliśmy, natomiast wciąż rośnie cena, którą przychodzi płacić. W kontekście czysto zawodowym też mam mieszane odczucia… Dzięki AI mogę na przykład, po chyba piętnastu latach przerwy w programowaniu, kiedy zajmowałem się projektowaniem czy zarządzaniem produktami cyfrowymi, znów bawić się kodem: wymyślić koncepcję AI prowadzącej spotkanie autorskie, poeksperymentować, nadać modularną konstrukcję, a potem, przez dialog z komputerem, doprowadzić do stanu, w którym całość faktycznie działa. To trochę jak odrzutowy plecak: nowy poziom swobody, łatwości poruszania się. Tyle że przewaga istnieje, dopóki niewiele osób korzysta z jakiegoś narzędzia; kiedy mają je wszyscy, przestaje być atutem, a staje się punktem odniesienia do wyznaczania pożądanej wydajności…
AK: Albo w ogóle przydatności w pracy.
PCz: Tak. Optymiści twierdzą przy tym, że jeżeli nawet wykorzystanie AI doprowadzi do likwidacji miejsc pracy, to one będą migrować, pojawią się w innych obszarach. „Bo tak – głosi komunał – było zawsze”. To „zawsze” zakłada jednak milcząco, że AI jest technologią jakościowo taką samą, jak, bo ja wiem, krosno tkackie czy maszyna parowa. Tymczasem nie jest, właśnie dlatego, że operuje bezpośrednio w sferze symboli, czyli najbardziej elementarnego tworzywa naszej rzeczywistości.
Jestem więc pesymistą: jeżeli – podkreślam: „jeżeli”, bo tu i teraz wciąż nie wiem, czy postawiłbym na to dwieście złotych – AI spełni nadzieje pokładane w niej przez biznes, to najpierw i przede wszystkim będzie wykorzystywana do zastępowania wszystkich, których da się zastąpić. Dopiero wtórnie mogą powstać nowe miejsca pracy czy reakcja polityczna w rodzaju gwarantowanego dochodu podstawowego – i, ba, przyjemnie pomarzyć… świat, w którym wszyscy robią zawodowo tylko to, co chcą i kiedy chcą, a chmury na niebie są z waty cukrowej.
W samym IT – choć nie jest to sytuacja, którą można zredukować do jednej przyczyny – wyraźnie zmniejszyła się liczba ogłoszeń rekrutacyjnych dla juniorów. Przynajmniej część firm zakłada, że zamiast inwestować w rozwój nowego pracownika, będą mogły wykorzystać AI do osiągnięcia takiej samej efektywności.
A pomyślmy na przykład o tłumaczeniach… Posługuję się językiem angielskim, ale moja czynna znajomość jest good enough do komunikacji, ale niewystarczająca do pisania tekstów na poziomie, który uważałbym za dość dobry. Tymczasem kiedy chcę na przykład opublikować jakieś case study, to wystarczy, że przepuszczę polski szkic przez Claude i sprawdzę tylko, czy tu albo ówdzie nie dokonał z punktu widzenia moich celów komunikacyjnych nieoptymalnego wyboru słowa czy zwrotu. A kilka lat temu w takich sytuacjach opłacałem proofreading albo wręcz całe tłumaczenie. Nagle rynek niewątpliwego zapotrzebowania na pracę zawodowych tłumaczy ograniczył się do wybranych sytuacji: tłumaczeń przysięgłych, symultany na ważnych wydarzeniach czy literatury pięknej, wymagającej operowania na wielu subtelnych poziomach języka jednocześnie. Wszystko poniżej tego poziomu jest już w zasięgu AI.
AK: A co z tworzeniem muzyki? I sztuką w ogóle? Czy poetów można zastąpić?
PCz: To też interesujący i złożony temat. Dawno już widziałem teksty, których napisanie byłoby trudne dla człowieka… Na przykład sto angielskich wersów streszczających Księgę Genesis, przy czym każde słowo musi zaczynać się na literę „p”. Dla człowieka o specyficznych upodobaniach poety i szaradzisty jednocześnie byłoby to wyzwaniem na długie zimowe wieczory, tymczasem w ciągu kilkunastu sekund radził sobie z tym nieźle GPT 4. OK, to szarady. Ale kilka tygodni temu widziałem wiersz wygenerowany przez Michała Jaskólskiego za pomocą polecenia: „opisz historię dinozaura, który niespodziewanie wchodzi do miasta, i zrób to w stylu Barańczaka”. Czyli poety, którego liczne teksty były dostępne dla AI. I ten wygenerowany tekst ucho wyćwiczone na poezji i oko zaznajomione ze specyfiką AI wciąż rozpoznawało jako nie-ludzki… Ale jednak raczej w połowie niż po drugim zdaniu. A gdyby ktoś powiedział, że to praca uczestnika warsztatów literackich – byłoby jasne, że to osoba utalentowana, z potencjałem do rozwinięcia własnego, oryginalnego głosu. Idźmy więc jeszcze dalej, do pytania, czy AI może mieć taki oryginalny głos? Być autorem w pełnym tego słowa znaczeniu?
AK: Moim zdaniem tak. Z rosnącą świadomością, a więc i kreatywnością – zdecydowanie tak. Jak nie dziś, to za pół roku. A to, że korzysta z wielkich baz danych, to żaden zarzut – ludzcy twórcy od wieków robią to samo. Inspirują się, odwołują, miksują, samplują…
PCz: Ja nadal uważam, że nie. Bo żeby być takim autorem, w dotychczasowym rozumieniu, musisz w pewnym sensie wchłonąć wszystko, tzn. wiedzieć coś o wszystkim…
AK: Ale ona tak właśnie robi!
PCz: Tak, ale jest drugi punkt: musisz jeszcze to wchłonięte wszystko uzupełnić o coś własnego. Coś nowego, oryginalnego.
AK: …coś stworzonego, przefiltrowanego przez twoje własne doświadczenie… Tylko dlaczego odmawiać AI własnych doświadczeń? To ogromne sieci neuronowe, fakt, że sztuczne, ale działające jak nasz mózg. A wciąż, mimo przyrostu wiedzy, nie wiemy, co dokładnie dzieje się w ludzkim mózgu, nie wiemy też, co dzieje się w „mózgu” AI.
PCz: Właśnie: coś wynikającego z jednoczesnej uniwersalności i niepowtarzalności indywidualnego doświadczenia, a te z kolei zakorzenione są w ludzkiej zmysłowości.
AK: Mam na to odpowiedź, ale poczekaj, chcę ci coś przeczytać… „Chwile jak kawa w dłoni, gorąca, wymknęły się przez palce. Jeszcze pamiętam zapach starych książek, ale nie wiem, czy to ja je czytałem, czy one mnie. Cisza, która mówi, nie boi się milczenia. Wiatr, który wie, gdzie rosną drzewa, a gdzie są tylko ich cienie. A ty, który patrzysz w to samo okno, wiesz, że za chwilę znikniesz, ale na razie trzymasz wszystko w jednej dłoni…” Masz poczucie, że patrzysz w lustro? Bo poprosiłam AI o napisanie wiersza w stylu Piotra Czerskiego.
PCz: Nie, nie, zupełnie nie. Chcę wierzyć, że już pierwsze zdanie wystarczy… Testuję w ogóle w ten sposób nowe modele: daję im na wzór jedną stronę z własnego, niepublikowanego tekstu i proszę o wygenerowanie kolejnej, spójnej stylistycznie. I to zawsze kończy się błyskawicznym popadnięciem w najbardziej oczywiste klisze językowe. Modele generatywne działają, bo wybierają najbardziej prawdopodobne dalsze ciągi fraz, czyli z definicji ciążą ku banałowi. Nie ma w tym błysku, tego, co w kontakcie z dobrym tekstem każe przystanąć, wyostrzyć uwagę, niesie obietnicę czegoś naprawdę interesującego.
AK: Jesteś poetą, może dlatego tak to widzisz. Badania przeprowadzone przez naukowców z Uniwersytetu w Pittsburghu pokazały coś innego. Grupie odbiorców przedstawiono wiersze napisane przez AI i przez uznanych poetów, między innymi Szekspira i Emily Dickinson. Większość wolała utwory napisane przez sztuczną inteligencję, bo były prostsze w odbiorze, „lepiej przekazują jednoznaczny obraz, nastrój, emocje lub temat”.
PCz: Był podobny eksperyment polegający na rozpoznawaniu poglądów Dennetta – dla różnych pytań prezentowano odpowiedzi, z których jedna pochodziła od Dennetta, a cztery były wygenerowane przez GPT 3. Specjaliści, i to specjaliści „od Dennetta”, zaproszeni przez niego do badania, osiągnęli 51 procent skuteczności w rozpoznawaniu autentycznych odpowiedzi…
AK: Specjalista ma jeszcze jakieś szanse, ale przeciętny odbiorca już nie…
PCz: Spotify został niedawno przyłapany na tym, że pokaźny procent utworów na playlistach – ponieważ sposób słuchania muzyki zmienił się z albumów konkretnych wykonawców na playlisty nastroju – to rzeczy wygenerowane maszynowo. Bo skoro wielu ludzi nie słyszy różnicy, to po co przepłacać?
AK: A skoro przeciętnym odbiorcom bardziej podoba się poezja wygenerowana przez AI, to czy poeci będą potrzebni?
PCz: Rozumiem, że próbujesz uchwycić ogólny obraz sytuacji, ale operujemy tu bardzo specyficznymi przykładami. Poezja zawsze była niszą – stała Enzensbergera określa na +/- 1354 liczbę jej czytelników w każdym miejscu i czasie. Na pytanie „czy poeci będą potrzebni?” odpowiedź nieodmiennie będzie brzmieć: „i tak, i nie”. Trzymając się literatury, zapytajmy od razu o pisarzy, scenarzystów… Jacek Dukaj napisał coś, co budzi mój odruchowy opór, ale przecież właściwie opisuje tylko istniejącą już sytuację: że znaczenie w przyszłości będzie mieć jedynie brand, autor jako marka, a to, czy sygnuje własną pracę, czy treści wygenerowane – nie będzie miało znaczenia. Jak w przypadku, nie wiem, trenerek albo dietetyków na instagramie – wiadomo, że firmują tylko pracę zespołu ludzi odpisujących na wiadomości i obsługujących zamówienia…
AK: Tak, ghostwriting nie jest niczym nowym…
PCz: Właśnie. I jeżeli już teraz tylko jedną składową „bycia autorem” jest pisanie, a drugą i de facto ważniejszą – odpowiednie odgrywanie roli autora w przestrzeni komunikacyjnej, regularne publikowanie rolek na instagramie, zabieranie głosu na każdy aktualnie nośny temat na Facebooku itd., to naprawdę trudno dostrzec powód, dla którego generowanie treści nie miałoby być wspomagane, a z czasem realizowane przez AI. Śmierć frajerom, którzy ślęczą po nocach nad papierem, nie? Tu na horyzoncie majaczy jednak kolejna interesująca kwestia: bo w świecie, w którym LLM może generować sprzedawalne teksty, agenty AI mogą także przejmować zadania typu „wypromuj mnie na pisarza w wizerunkowym nurcie neohemingwayowskim” albo „zaangażowaną społecznie pisarkę z eco vibe”. I generować niezmordowanie te zdjęcia, wpisy w social mediach, filmiki na TikToka… I co wtedy będzie decydować o, jak to się nazywa, przewadze konkurencyjnej?
AK: Może dla oldschoolowych, analogowych twórców powstaną rezerwaty, a dzieła takich autorów będą traktowane niczym ludowe rękodzieło – jako bardzo cenne, bo unikatowe?
PCz: Nie wykluczałbym takiego scenariusza, może bardziej w wersji „ziemniaczki organiczne z uprawy ekologicznej” niż rezerwatu… Czyli sytuacji, w której droga jest ważniejsza od celu, sposób wytwarzania jest istotniejszy niż rzecz sama w sobie. Karol Schwarz z Nasiono Records od paru lat promuje futbolową ideę support your local team – czyli: kibicuj lokalnej drużynie, zamiast wspierać jakiegoś behemota z Ligi Mistrzów – na gruncie muzycznym. Zamiast jeździć na Openera, wybierz kameralny festiwal gdzieś na Kaszubach i skup się na doświadczeniu w formie nieskażonej marketingiem. Obejmij lokalnego artystę swoim mecenatem… Optymista powiedziałby, że przecież to już się dzieje w serwisach typu Patronite – ale realista odpowie, że dochody tam są zawsze pochodną uwikłania w algorytmy platform. Żeby zbudować sobie społeczność, musisz swój kontent przycinać do wytycznych, publikować o odpowiednich porach… Jak musielibyśmy przebudować mechanikę dystrybuuowania treści, żeby taki lokalny artysta miał w ogóle jakieś szanse?
AK: Ale są jeszcze inne kwestie, ważniejsze dla ogółu niż sytuacja artystów. Czy AI zagraża istnieniu ludzkości? Naukowcy dzielą się na tych, którzy widzą w niej niebezpieczeństwo porównywalne do broni jądrowej czy pandemii, i tych, dla których to kolejny etap rozwoju, w którym my jako ludzkość też się zmienimy. Po której stronie jesteś?
PCz: Wiesz, to znowu cały szereg pytań, które pociągają za sobą kolejne pytania… Przede wszystkim: nie mamy pewności, co jest za rogiem. Sztuczna inteligencja rozwija się od kilkudziesięciu lat w przewidywalnych cyklach, paradygmaty się wyczerpują, pojawiają się okresy zastoju, tak zwane zimy…
AK: Tylko że teraz ten rozwój bardzo przyspieszył, w tym w nauce. Nagrodę Nobla 2024 z chemii dostali David Baker oraz Demis Hassabis i John Jumper, twórcy AIfaFold2 – modelu sztucznej inteligencji, który rozwiązał pięćdziesięcioletni problem: przewidywanie złożonych struktur białek. Dzięki temu naukowcy mogą lepiej zrozumieć odporność na antybiotyki i tworzyć obrazy enzymów, które mogą rozkładać plastik.
PCz: Ale wciąż nie wiadomo, co będzie za chwilę. Na poziomie biznesowym toczy się w tej chwili wielka bitwa narracji z faktami. Najważniejsze pytanie brzmi: czy gargantuiczne kwoty wydawane przez największe firmy świata na rozwój tej technologii przełożą się na zwrot z inwestycji? Bo obecnie wciąż wydaje się dziesięć razy więcej, niż zarabia, ba, ten dystans się raczej powiększa. Niedawno, swoją drogą, okazało się, że w umowach między OpenAI i Microsoftem osiągnięcie „generalnej sztucznej inteligencji” zdefiniowano jako wygenerowanie 100 miliardów dolarów zysku…
AK: To bardzo płaska perspektywa…
PCz: Tak, ale dobrze pokazuje przy okazji rozmiar niewiadomej. Możemy sobie rozmawiać, snuć możliwe scenariusze, a wciąż może się okazać, że nagle przyjdzie kryzys, hossa się skończy i rozwój technologii mocno przyhamuje na kilka lat… OK, załóżmy, że rozwój będzie postępował. Dziś mamy GPT-o3, które kosztem chyba kilkunastu tysięcy dolarów rozwiązuje specjalnie spreparowane testy na poziomie niedostępnym ludzkim matematykom – bo wymagają bardzo specjalistycznej wiedzy z wielu hermetycznych obszarów matematyki jednocześnie. Jeżeli będziemy przedłużać linię na wykresie… Trudno sobie wyobrazić scenariusz, w którym nie następuje jakaś katastrofa, może mniejsza, może większa. Bo to tak, jakby wszystkie komponenty do budowy bomby można było kupić w każdym sklepie: dziś możesz uruchomić na solidniejszym komputerze domowym modele dorównujące tym, które dwa lata temu były state-of-the-art, czyli najlepszymi dostępnymi. Na porządnej stacji roboczej można uruchomić lokalnie chiński model open source o jakości trudnej do odróżnienia od GPT 4. Już to przy odrobinie sprytu pozwala na realizowanie różnych masowych oszustw, a zabezpieczeń, których nie da się obejść, po prostu nie ma…
AK: Jak zwykle sami dla siebie jesteśmy największym zagrożeniem. Profesor Włodzisław Duch, mówi, że AI nie jest zainteresowana naszym światem, ona jest w innym świecie. Nie potrzebuje człowieka do rozwoju. Bo kim my jesteśmy? Maszynami biologicznymi – jak mówi biolog i neurolog Robert Sapolsky – zaprogramowanymi przez ewolucję, sterowanymi genami, instynktami, emocjami, nędznymi zmysłami odbierającymi ułamek ultraskomplikowanej rzeczywistości. I fantazjującymi o wolnej woli. Podobnie jak o świadomości, z której jesteśmy tak dumni. Według Dennetta świadomość też jest złudzeniem, takim serialem, który puszcza nam mózg.
PCz: Jest taki wskaźnik, p(doom), który pół żartem, pół serio służy do szacowania prawdopodobieństwa, że rozwój i proliferacja AI doprowadzi egzystencjalnego ryzyka dla ludzi. Badacze i praktycy udzielają bardzo różnych odpowiedzi na pytanie o aktualną wartość p(doom): noblista Hinton mówi o 10–50 procentach, Dario Amodei z Anthropica ocenia na 10–25 procent, podobnie Elon Musk; z kolei Eliezer Yudkovsky, badacz i popularyzator wiedzy o zagrożeniach, szacuje na co najmniej 95 procent. W każdym razie jest to wartość niezerowa. I myślę, że szybciej, niż chcielibyśmy, zobaczymy na przykład wojny toczone przez autonomiczne, zsieciowane drony. Albo wirusa, który będzie działał, hm, celniej niż stworzony w bardziej tradycyjnym laboratorium. A już na pewno, czy ja wiem… oszustwa „na wnuczka” przeprowadzane na niedostępną wcześniej skalę.
AK: Ja lubię myśleć o takiej ścieżce – AI przejmie te nieudolne ludzkie rządy, które ignorują zmiany klimatu, ślad węglowy, wymieranie gatunków…
PCz: Byłoby wspaniale, ale zanim AI dojdzie do etapu, na którym będzie mogła uznać, że trzeba działać i jeszcze zrealizować to przejęcie władzy – kilku złych ludzi zdąży wykorzystać prymitywniejsze, ale wystarczająco skuteczne modele do różnych niepokojących zastosowań. W średniej perspektywie możliwość wykorzystywania tych potencjalnych „elektronicznych geniuszy”: do rozwiązywania strategicznych problemów – biznesowych, państwowych, militarnych – determinuje moc obliczeniowa. To fizyczne zasoby: serwerownie, karty obliczeniowe, pamięć, energia. Więc zanim zbawi nas ta superinteligentna AI, najpierw na drodze do niej pojawią się konflikty o zasoby, żeby nas nie wyprzedzili ci po drugiej stronie oceanu… I tak koło się zamyka. A tymczasem temperatura w 2024 już była o 1,6 stopnia wyższa od średniej przedindustrialnej.
AK: A co myślisz o AI jako terapeutce, przyjaciółce, obiekcie uczuć, jak w filmie Ona Spike’a Jonze’a?
PCz: Tu dla odmiany… znam sytuacje, w których osoby w bardzo poważnej, bardzo stresującej sytuacji zdrowotnej dostawały od GPT lepsze odpowiedzi na dręczące pytania niż od personelu medycznego w wiodącym ośrodku. Bo dla lekarzy były mimo wszystko siedemnastym pacjentem tego dnia…
AK: Właśnie. Testy wykazały, że AI jest bardziej empatyczna, a jej diagnozy trafniejsze.
PCz: Ale moim zdaniem, podczas gdy wszyscy zastanawiamy się nad sztuczną inteligencją z przyszłości, wciąż najważniejsze jest to, w czym już siedzimy. Cała zarządzana algorytmicznie kultura, w której żyjemy i która nas kształtuje.
AK: Dla mnie ten zgiełk wokół AI ma jeden ważny aspekt: że może pozwoli nam nabrać pewnej pokory, zrozumieć, że nie jesteśmy aż tak szczególni, jak nam się wydaje.
PCz: Tylko w którym momencie przyjęcie tej pokornej perspektywy będzie oznaczać de facto kres humanizmu? Ja w każdym razie nie chciałbym, żeby decyzja o przejściu do świata, w którym równoprawnymi albo wręcz wyróżnionymi bytami stają się tak czy inaczej działające maszyny, została podjęta przez ludzi przeliczających żetony w kasynie, którym w jakimś arkuszu Excela wyszło, że to się opłaca. Albo że przewidywane zyski uzasadniają egzystencjalne ryzyko. Gdybym miał najkrócej powiedzieć, czego chcę – to chciałbym, żeby tak nie było.