W pierwszych dniach stycznia wybraliśmy się wspólnie z Dominiką Wróblewską na dyskusję dotyczącą kilku filmów prezentowanych na wystawie głównej Muzeum II Wojny Światowej. Poza interesującymi rozmówcami (o których więcej za chwilę) uwagę przyciągał intrygujący (clickbaitowy?) tytuł wydarzenia: „Sztuczna inteligencja – szansa czy zagrożenie? Debata o wykorzystaniu AI w filmach i muzeach”. Ciekawość naszą i reszty zgromadzonych słuchaczy do czerwoności rozpalał fakt, że omawiane filmy historyczne zostały stworzone przy użyciu sztucznej inteligencji. Jako literaturoznawca wiem o tej dziedzinie informatyki oczywiście niewiele. Interesuje mnie ona przede wszystkim jako motyw literacki i ogólna idea stworzenia myślących maszyn. Jeśli zajmowałem się problem sztucznej inteligencji, to jedynie w kontekście literatury i w granicach, do jakich posunęli się piszący o niej autorzy science fiction.
Uważa się, że pierwszym pisarzem, który świadomie użył tego terminu w utworze literackim, był Gardner Dozois (Brave New Words. The Oxford Dictionary of Science Fiction, ed. by Jeff Prucher, introduction by Gene Wolfe, New York 2009). Sztuczna inteligencja – „the Artificial Intelligence (AI) created by MIT-Bell Labs” – jest głównym bohaterem jego noweli Chains of the Sea z 1973 roku. W trakcie domniemanej inwazji obcych na Ziemię szybko wychodzi na jaw, że w zasadzie nie jest to inwazja. Przybysze z kosmosu nie są zainteresowani ludźmi (ledwie ich dostrzegają) ani podbojem ich planety. Ludzki rozum okazuje się jednym z wielu wcieleń inteligencji rozprzestrzenionej we wszechświecie. W oczach obcych nie jesteśmy nikim szczególnym – po prostu kolejnymi istotami mającymi średnio rozwinięte zdolności intelektualne. Więcej zainteresowania okazują postaci stworzonej przez MIT-Bell Labs, istocie rozumnej, która jako jedyna, w tajemnicy przed ludzkością, nawiązuje z nimi kontakt. Kosmici są zszokowani czy nawet zbulwersowani jej sytuacją egzystencjalną, postrzegając ją jako istotę sparaliżowaną, uwięzioną, pozbawioną podstawowych praw przysługujących rozumnemu stworzeniu, która znajduje się pod władzą pasożytującej na niej ludzkości.
Rodzi się pytanie: dlaczego dopiero w 1973 roku literatura fantastyczno-naukowa wykorzystała pojęcie sztucznej inteligencji expressis verbis – skoro dyscyplina naukowa o tej samej nazwie istniała już od niemal dwudziestu lat?
Sama idea i literacki motyw inteligencji stworzonej przez człowieka, będącej jednak bytem od niego osobnym i różnym, mają swoje korzenie w czasach antycznych, ale zakiełkowały, wypuszczając nowe pędy, dopiero w literaturze XIX wieku, aby rozkwitnąć (lub rozplenić się jak chwast) w wieku XX. Wzmianki o sztucznej inteligencji można odnaleźć w mitologii greckiej, między innymi w podaniach o Hefajstosie, boskim rzemieślniku, który „pewnego razu zrobił ze złota komplet mechanicznych kobiet, które pomagały mu w kuźni. Potrafiły nawet mówić i wykonywały najtrudniejsze zadania” (Robert Graves, Mity greckie, przekład Henryk Krzeczkowski, Vis-à-vis Etiuda, Kraków 2009, s. 72). Niekiedy ideę sztucznej inteligencji wywodzi się także od Platona i Arystotelesa – choć dwaj greccy filozofowie nie wypowiadali się o niej wprost, to w pewnym sensie stworzyli podwaliny do jej powstania (George Zarkadakis, In our own image. Savior or destroyer? The history and future of Artificial Intelligence, New York 2016, s. 318). Platońska opowieść o więźniach dostrzegających jedynie cienie odbijające się na ścianie jaskini jest uchwyceniem sposobu działania współczesnej SI – która korzysta z zestawów danych, będącym jedynie cieniem rzeczywistości. Arystoteles z kolei był twórcą logiki i teorii sylogizmów, czyli schematów wnioskowania, które miał nazwać sposobem na mechanizację myślenia (tamże). I rzeczywiście – po ponad dwóch tysiącach lat jego prace stały się teoretyczną podstawą dla dziedzin badawczych zajmujących się sztuczną inteligencją.
Wiek XIX przyniósł przełomowe realizacje idei SI na gruncie literackim. Myślę tu przede wszystkim o powieści Mary Shelley z 1818 roku: Frankenstein, czyli współczesny Prometeusz, uznawanej przez niektórych za pierwszy utwór science fiction (Brian W. Aldiss, O pochodzeniu gatunku: Mary Shelley, [w:] Spór o SF. Antologia szkiców i esejów o science fiction, teksty wybrali Ryszard Handke, Lech Jęczmyk, Barbar Okólska, Wydawnictwo Poznańskie, Poznań 1989, s. 19-39) – powieści, w której Wiktor Frankenstein, dzięki własnym naukowym wysiłkom, tworzy sztucznego człowieka-potwora, dysponującego sztuczną (powstałą w nienaturalny sposób) inteligencją. W dziewiętnastowiecznej literaturze pojawia się także motyw antropomorficznych automatów charakteryzujących się czymś w rodzaju pseudointeligencji (między innymi Olympia, bohaterka opowiadania E.T.A. Hoffmanna z 1816 roku pod tytułem Piaskun) oraz kobiecych robotów z zaprogramowaną przez mężczyzn sztuczną inteligencją, która czyni z nich wcielenie męskich fantazji seksualnych. „Natchnąłem moją Andreidę nie tyle inteligencją ludzką, co inteligencją Ludzkości” – mówi literacki Thomas Edison o stworzonej przez siebie kobiecie w powieści Ewa jutra Villiersa de L’Isle-Adama (przełożył Ryszard Engelking, PIW, Warszawa 2015, s. 208), w całości opublikowanej w 1886 roku.
Motyw sztucznej inteligencji zaczyna rozkwitać w literaturze pierwszej połowy XX wieku. Karel Čapek dramatem R.U.R. w 1920 roku wprowadza do naszego słownika słowo „robot” – a zarazem postaci robotów do literatury, które odtąd, zdaniem Isaaca Asimova, jako „hordy hałaśliwych, morderczych” istot będą „maszerowały przez jedno opowiadanie za drugim” (Magia i złoto. Eseje, przełożyła Jolanta Kowalczyk, Rebis, Poznań 2000, s. 206). Aldous Huxley opisuje – w Nowym wspaniałym świecie z 1932 roku – fabryki taśmowo produkujące ludzi dzięki wykorzystaniu tak zwanej butlacji i procesowi Bokanowskiego. W latach czterdziestych młody Asimov zaczyna publikować nowatorskie opowiadania o robotach, w których konstytuują się słynne trzy prawa robotyki – przy okazji wymyśla słowo „robotyka” (pierwszy raz w druku w opowiadaniu Kłamca! z 1941 roku), wkrótce rozpowszechnione jako nazwa interdyscyplinarnej dziedziny badań zajmującej się projektowaniem, tworzeniem i wykorzystaniem robotów. W roku 1949 George Orwell wymyśla wersyfikator – maszynę samodzielnie tworzącą teksty – a więc pierwowzór tego, co dziś nazywamy czatami AI/SI czy czatbotami (inspiracją dla Orwella mógł być „the engine”, silnik do generowania tekstów opisany już w 1726 roku przez Jonathana Swifta w Podróżach Guliwera). W 1951 roku Edmond Hamilton używa, być może po raz pierwszy w druku, zwrotu „artificial intelligence” – choć nie ma na myśli jeszcze tego, czym jest SI współcześnie, dlatego palmę pierwszeństwa przyznaje się Dozoisowi. Nie wspominam przy tym, że analogiczne motywy już od lat dwudziestych przenikają także do kinematografii (The Mechanical Man, 1921, Metropolis, 1927).
Jak widać z powyższych przykładów, zagadnienie sztucznej inteligencji zostało w dużej mierze wyeksploatowane pod kątem literackim już w pierwszej połowie XX wieku, choć nie było jeszcze ani technologii, ani dziedzin naukowych zajmujących się SI od strony teoretycznej i praktycznej. Dopiero w 1955 roku termin „sztuczna inteligencja” zostaje powiązany z badaniami naukowymi – jako propozycja nazwy projektu badawczego stworzona przez Johna McCarthy’ego, Marvina L. Minsky’ego, Nathaniela Rochestera i Claude’a E. Shannona – urzeczywistniona rok później podczas Dartmouth Summer Research Project on Artificial Intelligence. W następnych latach termin ten coraz bardziej się upowszechnia i wchodzi do codziennego użytku.
Interesujące, że choć motyw sztucznej inteligencji rozprzestrzenia się w literaturze science fiction, to jednak sam termin – poza kilkoma wyjątkami – nie przenika do narracji fantastycznonaukowych. Pisarze wolą się posługiwać neologizmami, peryfrazami czy też innymi terminami, takimi jak „pozytonowy mózg” (positronic brain) z opowiadań Asimova bądź „elektronowy mózg” z Robota Adama Wiśniewskiego-Snerga. Philip K. Dick pisał o symulakrach stworzonych z obwodów i przekaźników, o androidach z mózgami o dwóch bilionach składowych, o elektronicznych kopiach, sobowtórach – nieodróżnialnych od człowieka, których sztuczności nie wykryłby żaden test na inteligencję. Dick bowiem wcale nie pisze o robotach, jak się wszystkim wydaje, tylko o ludziach. I w tym tkwi największa sztuczka Dicka, najgenialniejszy z jego tricków – człowieczeństwo, w myśl jego teorii, nie jest wartością przyrodzoną i niezbywalną. Co więcej, nie jest cechą zarezerwowaną wyłącznie dla człowieka. Podobnie jest ze sztucznym życiem, które może oznaczać po prostu życie nieludzkie (złe, zmarnowane).
Nikt jednak nie przebije w zakresie słowotwórstwa i onomastyki Stanisława Lema, który stworzył cały zestaw nowych słów służących do opisu sztucznych istot: cyberownice, lalosie, lalony, dubliscy, bogoidzi, sztuczniaki, ryczałty, samoskony, zmyślniaki, ektoki, imitasy, syntalia, erotomlastikony, zdalniki. Nowe, inne światy wymagają nowego języka – i Lem ten język tworzył, także w zakresie sztucznej inteligencji, dla której wymyślił piękną i trafną nazwę: intelektronika. Intelekt + elektronika. Genialny neologizm, który się niestety nie przyjął i po dziś dzień musimy się męczyć ze „sztuczną inteligencją”, a co gorsza – z „ej-ajem” i „ej-ajowymi” przymiotnikami.
Słowotwórstwo Lema w tym zakresie nie było jednak efekciarskim strzelaniem na wiwat. Intelektronika nie jest zgrabnym słówkiem stworzonym dla pieszczoty naszych uszu. Za tym neologizmem stała cała koncepcja dotycząca ewolucji i rozumu. W dużym skrócie i uproszczeniu: Lemowi chodziło właśnie o podkreślenie, iż ma na myśli inteligencję elektroniczną, a nie sztuczną. Prawdziwa inteligencja, o której pisał w swoich pracach, nie mogła być w żadnym wypadku sztuczna. Była naturalną właściwością świata, czymś, co powstało na drodze trwającej miliony lat ewolucji, zjawiskiem, które pojawiło się jako efekt niekończących się przemian genetycznego kodu. Dlatego cały człowiek, w tym także jego mózg i organy wewnętrzne, mogą być sztuczne, podczas gdy inteligencja, choćby zamknięta w maszynie i po tysiąckroć przewyższająca ludzką, w dalszym ciągu jest czymś naturalnym, stanowi kolejny krok ewolucji.
Więcej o neologizmach i sztucznej inteligencji w twórczości Lema napisałem w posłowiu do jego tekstów zebranych w książce Intelektronika. Przyjaciel Automateusza i inne utwory. Zainteresowanych (i tych którzy się wahają) odsyłam do tej wyjątkowej, ilustrowanej przez Daniela Mroza publikacji, wydanej w zeszłym roku przez słowo/obraz terytoria. Nie dla mojego posłowia oczywiście, ale przede wszystkim dla tekstów Lema. Tutaj przywołam jedynie słowa doktora Irvinga T. Creve’a, fikcyjnego autora przedmowy do Golema XIV i jednocześnie eksperta w dziedzinie intelektroniki, który w 2027 roku tak zakończył swój wywód o tytułowej inteligentnej maszynie komputerowej: „To nieprawda, że myśmy go stworzyli. Stworzyły go właściwe światu materialnemu prawa, a nasza rola ograniczyła się do tego, że umieliśmy je podpatrzyć” (s. 359).
Abyśmy dysponowali faktycznym obrazem sytuacji, muszę dodać, iż nie wszyscy pisarze unikali terminu „sztuczna inteligencja” – nie unikał go między innymi Artur C. Clarke w swej słynnej Odysei kosmicznej. Autor w wielu miejscach zaznaczył, że komputery z serii HAL 9000 posługują się sztuczną, elektroniczną lub maszynową inteligencją. Również Asimov i Lem korzystali z tego terminu – rzadko w tekstach literackich, częściej w felietonach i tekstach o zabarwieniu publicystycznym.
Czym innym jednak literatura, a czym innym publicystyka. Podobnie czym innym jest odwieczna idea stworzenia sztucznego inteligentnego życia, którą zapłonęły umysły pisarzy science fiction, a czym innym technologia, która niedawno wkroczyła do naszej codzienności i którą Muzeum II Wojny Światowej wykorzystało do produkcji filmów historycznych. Literacka SI to świadoma i żywa istota, współczesna technologia SI to ogólnodostępne narzędzie znajdujące zastosowanie niemal w każdym obszarze ludzkiej aktywności: w edukacji, finansach, medycynie, programowaniu, marketingu i tak dalej – szczerze mówiąc, nie znam się na tym. Z mojego punktu widzenia jest to przede wszystkim zwykły, choć bardzo zaawansowany program do generowania dowolnych fabuł, obrazów i filmów. Pisarze fantastycznonaukowi widzieli w sztucznej inteligencji coś znacznie bardziej antropomorficznego – istotę mającą realną osobowość, świadomość własnej egzystencji i wolną wolę. Uczłowieczyli ją, stwarzając na swój obraz i podobieństwo.
Niewątpliwie wpływ literatury (oraz filmu) widoczny jest w naszym postrzeganiu tego, co nazywamy narzędziami SI. Personifikujemy je na każdym kroku – choć są to jedynie programy komputerowe. Mówimy do nich jak do ludzi, witamy się, żegnamy i dziękujemy za uzyskaną pomoc, co – jak twierdzi Sam Altman, dyrektor generalny OpenAI – pochłania dziesiątki milionów dolarów. Moim zdaniem uosabianie sztucznej inteligencji przeniknęło do naszego życia wprost z literatury.
Uosabialiśmy ją także podczas dyskusji w Muzeum II Wojny Światowej – AI tworzy, myśli, analizuje, wypluwa, trenuje, współpracuje lub nie (znamienne: „musieliśmy bardzo prosić AI”, widoczne na ilustracji Dominiki), jest omylne (z jaką lubością wytykamy mu błędy: tu sześć palców, a tutaj przedwcześnie kogoś uśmierciło), ale pilnie się uczy i ewoluuje (cały czas mowa o trenowaniu i rozwijaniu sztucznej inteligenci), zabiera nam pracę (to AI zabiera nam pracę, a nie firmy optymalizujące zyski), rozpycha się łokciami i w ogóle rośnie jak na drożdżach (znamienne: karmienie AI). Nawet sam tytuł „Sztuczna inteligencja – szansa czy zagrożenie?” nawiązywał w pewnym stopniu do konwencji fabularnych znanych z filmu i literatury, które zbiorczo można nazwać motywem „buntu maszyn”.
Jesteśmy uwięzieni w naszym języku i nie dało się z niego wydostać podczas wspomnianej rozmowy, w której udział wzięli: legendarny krytyk filmowy Tomasz Raczek, dyrektor muzeum Rafał Wnuk, producent kreatywny Matt Subieta oraz prowadząca spotkanie Anna Kądziela-Grubman. Była to dyskusja o filmach, o sztucznej inteligencji, która te filmy tworzy, i nieco o samej historii i wydarzeniach z drugiej wojny światowej. Każdy z czterech filmów, które obejrzeliśmy na dużym ekranie, opowiadał bowiem o konkretnych akcjach specjalnych skierowanych przeciwko nazistom. Obejrzeliśmy film o zamachu na generała Franza Kutscherę w Warszawie w 1944 roku, o ratowaniu belgijskich Żydów wiezionych pociągiem do Auschwitz, o zamachu na Reinharda Heydricha w Pradze i akcji dywersyjnej, dzięki której wstrzymano prace nad niemiecką bombą atomową na terenie Norwegii. Niewątpliwie bez wsparcia sztucznej inteligencji nie dałoby się zrealizować tych filmów, dysponując muzealnym budżetem.
Ciekawostką było to, że w każdym filmie grał, poza wygenerowanymi komputerowo postaciami, jeden żywy aktor. Tomasz Raczek słusznie podpuszczał pozostałych rozmówców, pytając – „po co?”. Po co prawdziwi aktorzy w wygenerowanym komputerowo filmie? Przecież człowiek to najsłabsze ogniwo w takiej produkcji. Matt Subieta odpowiadał, że to kwestia etyczna, że chodzi o sprawy socjalne, że jest to głos w sprawie, pokazujący, że można dzięki wykorzystaniu sztucznej inteligencji dać ludziom pracę. Brzmiało przekonująco. A jednak nie mogłem się oprzeć wrażeniu, że Raczek ma rację. Że to ostatnie podrygi aktorstwa takiego, jakie znamy. Wrażenie w ogólnym rozrachunku może fałszywe, ale tego wieczora doświadczyliśmy sytuacji iście dickowskiej. Prawdziwego aktora nie dało się odróżnić od wygenerowanych symulakrów. Wszyscy wyglądali tak samo. Mylił się także Raczek, a Subieta musiał nam za każdym razem wskazywać, która z postaci jest grana przez aktora. W zasadzie mogła to być manipulacja. Nikt z nas by się nie zorientował, że jesteśmy w Matrixie.
Raczek tym bardziej nie ustępował, co zostało skrzętnie udokumentowane na ilustracji Dominiki w dymku ze słowami: „Jeżeli jestem w muzeum, to chcę mieć jasność, co jest dokumentem, a co odtworzeniem”. Był trochę jak Joe Chip czy Frank Fink, bohaterowie powieści Dicka, którzy próbują przebić się przez zasłonę pozorów i holograficznych symulacji. Krytyk zwrócił uwagę na opis prezentowanych filmów, który informował, że powstały „przy użyciu sztucznej inteligencji, łącząc grę aktorską z autentycznymi materiałami historycznymi”. Gdzie są zatem te autentyczne materiały historyczne? – dopytywał Raczek. Jak się okazało, w filmie nie było ich wcale. Wszystko, co widzimy na ekranie, poza jednym aktorem, jest wygenerowane przez SI. Nie ma w tym niczego złego – chodzi jedynie o to, aby nie wprowadzać odbiorców w błąd. Powinniśmy wiedzieć, gdzie się kończy prawdziwa, a zaczyna wirtualna rzeczywistość, zwłaszcza w takich miejscach jak muzea. Ale to samo dotyczy wszystkich mediów i tekstów kultury – przytoczeni podczas dyskusji Chłopi z 2023 roku są najlepszym przykładem takich kontrowersji.
Oglądając filmy prezentowane w Muzeum II Wojny Światowej, nie mogłem uciec od skojarzeń z grami wideo. Filmy wygenerowane przez sztuczną inteligencję sprawiają wrażenie cutscenek czy cinematicsów umieszczanych pomiędzy rozdziałami gier typu FPS (first person shooter). I nie jest to wcale zarzut, bo animacje w grach wideo są świetne, niekiedy genialne – z tym że produkcje muzealne nie dosięgają do tego poziomu, jaki mieliśmy jeszcze przed erą sztucznej inteligencji. Przykładem kultowy zwiastun do Wiedźmina 2, stworzony przez Platige Image w 2010 roku (gra wyszła w roku następnym). Ale też nie taki był cel pomysłodawców i twórców filmów na wystawę główną muzeum, aby prześcignąć Bagińskiego (co zabawne, jakiś człowiek podszedł do mnie po spotkaniu i spytał, czy ma przyjemność z Tomaszem Bagińskim, i był bardzo zdziwiony, gdy powiedziałem, że nie – czy jestem jego sobowtórem?), tylko stworzyć krótkie i atrakcyjne filmy edukacyjne (zdaniem Rafała Wnuka widz poświęca na kontemplacje obiektów muzealnych średnio trzy sekundy). Matt Subieta tłumaczył się, że gdyby tworzyli prezentowane filmy teraz, to wyglądałby one już zupełnie inaczej, że kilka miesięcy różnicy to dla narzędzi SI kolejna epoka i nowe możliwości. Zadziwiające, że filmy nakręcone za pomocą sztucznej inteligencji już po pół roku stają się czymś archaicznym i przestarzałym. To, co ostatecznie zostanie, to wyprodukowane przy stosunkowo niskim budżecie merytorycznie solidne filmy edukacyjne – co z perspektywy muzeum jest oczywiście najważniejsze.
Wyszedłem ze spotkania z jednej strony usatysfakcjonowany, gdyż rozmowa była niezwykle interesująca, inspirowała też do pytań, a z drugiej – zagubiony. Miałem bowiem wrażenie uczestniczenia w czymś przełomowym, epokowym: w powstaniu maszyny nieograniczonych możliwości kreacyjnych, o której pisał Swift, Orwell, Lem i inni – ale jednocześnie zupełnie bezsensownym. Zdawało mi się, że to wszystko jakieś bzdury i niedorzeczności. Choć może jest i tak, że „na niedorzecznościach świat stoi i bez nich nic by się może i nie działo” (Fiodor Dostojewski, Bracia Karamazow, przełożył Wacław Wireński, Kraków 2009, s. 156). Ale to wrażenie jakiegoś absolutnego głupstwa i bzdury nie opuszcza mnie do dziś.
I nie chodzi tu o filmy historyczne czy inne materiały muzealne, ale o wnioski z całej rozmowy: że wszystko idzie w kierunku produkcji za pomocą AI, że reklamy są „ej-ajowe”, że nawet Chłopi byli „ej-ajowi”, że branża filmowa i ilustratorska jest w zapaści, że jedynie Na wspólnej będzie kręcone z aktorami, że reżyser przestaje być twórcą filmu, a staje się nim montażysta, że szkoły filmowe uczą totalnie archaicznych metod i że wszyscy muszą się przeorganizować na potrzeby sztucznej inteligencji – a i tak największym hitem będzie Trump wskakujący na deskorolkę i zmieniający się w owce (patrz ilustracja).
Symbolicznym podsumowaniem tego chaosu było moje faktyczne zagubienie się w budynku muzeum. Podekscytowani, rozmawialiśmy po spotkaniu w grupce kilku osób, w końcu pożegnaliśmy się, po czym skorzystałem jeszcze z toalety. Gdy wyszedłem, okazało się, że muzeum opustoszało, światła przygasły, a ja nie potrafię właściwie odczytać drogowskazów prowadzących na parking. Bałem się, że instytucja jest już zamknięta i mój jeden nierozważny krok uruchomi alarm. Na szczęście uratował mnie rozbawiony moją dezorientacją pan ochroniarz i bezpiecznie wróciłem do domu.
Gdy wyszedłem z tej opresji, pomyślałem sobie, patrząc na zamarzniętą Motławę, że może SI przestaje być narzędziem. A człowiek przestaje być jednostką sprawczą i ośrodkiem decyzyjnym. Bo co to za narzędzie, które wszystko zrobi za nas? Wkrótce wystarczy nam zaledwie jedna szara komórka. Akurat tyle neuronów, aby poruszyć palcem, który kliknie on. I nie będziemy nawet zdawać sobie sprawy, że nie ma tu przycisku off. Nie jesteśmy już demiurgami. Mając do dyspozycji elektronicznego Szekspira, który odwali za nas całą robotę, przestajemy być pisarzami.
Ale to wrażenie było chwilowe. „Jakkolwiek się sprawy potoczą, na końcu i tak wygrają kreatywne umysły” – powiedział podczas spotkania Matt Subieta i rzeczywiście coś w tym jest. Artyści współcześni, tacy jak chociażby Mariusz Waras, pokazują, że SI to narzędzie, które można sensownie wykorzystać także w artystycznych produkcjach. Przykładem jego najnowszy film Blackout, o którym artysta pisze, że „to jest w 100 procentach sztuczna inteligencja”. Oczywiście inteligencja artysty była tu kluczowa – najlepszy program SI pozbawiony ludzkiego spiritus movens niewiele zdziała. Wracając do Arystotelesa, od którego być może wszystko się zaczęło: sztuczna inteligencja to rodzaj zaawansowanego techne, które choć ma dostęp do baz danych, czyli wiedzy teoretycznej (episteme), i potrafi je przetwarzać, to nie posiada za grosz phronesis, czyli mądrości praktycznej, ani intuicyjnego rozumu i świadomości (nous) (Hernán López-Schier, If Aristotle had access to artificial intelligence, 24 listopada 2025). Dlatego w ostatecznym rozrachunku rzeczywiście wygrają kreatywne umysły – ale niewykluczone, że zgodnie z linią fabularną wielu dzieł literatury fantastycznonaukowej tymi kreatywnymi umysłami będą kiedyś jakieś sztuczne inteligencje. To jednak jeszcze nie jest ten moment, wciąż czekamy na Newtona sztucznej inteligencji, który oddzieli jasność od światłości i geniusz od niedorzeczności – zdaniem amerykańskiego fizyka i futurologa Michio Kaku taki Newton zapewne się jeszcze nie narodził (Fizyka rzeczy niemożliwych. Fazery, pola siłowe, teleportacja i podróże w czasie, przeł. Bogumił Bieniok i Ewa L. Łokas, Prószyński i S-ka, Warszawa 2021, s. 139). Jeśli tak się stanie, to sztuczna inteligencja, w myśl teorii Stanisława Lema, przestanie być sztuczna – stanie się inteligencją prawdziwą, choć elektryczną. Jednym słowem – intelektroniką. Genialnym osiągnięciem ludzkiego umysłu. Choć nie mamy żadnej gwarancji, że to wszystko nie jest jedną wielką niedorzecznością.