W Encyclopedia of Computer Science z 1993 roku pod hasłem informatyka (computing) czytamy, że „podstawowe pytanie dotyczące całej dziedziny informatyki brzmi następująco: co można efektywnie zautomatyzować?” 1. Trudno rozstrzygać, na ile w tej definicji mowa o rzeczywistym celu informatyki jako nauki, a na ile odzwierciedla ona język, który informatyce sufluje ekonomia wraz z zakorzenionym w niej prymatem efektywności nad wszelkimi innymi korzyściami, jakie ludzie mogą czerpać z życia gospodarczego i napędzających je zastosowań techniki. Ale jeszcze trudniej przemilczeć historyczny zrost informatyki z (neo)liberalizmem ekonomicznym, a w szczególności z charakterystyczną dla niego ideą wolnego rynku. Warto przypomnieć, że prominentni teoretycy liberalizmu ekonomicznego, od Friedricha Hayeka po Herberta Simona, wyobrażali sobie system rynkowy jako procesor przetwarzający informacje na długo przed pojawieniem się komputerów osobistych i sieci internetowej 2, a następnie zrobili całkiem sporo, aby to wyobrażenie znaturalizować przy wykorzystaniu instrumentarium pochodzącego z nauk kognitywnych 3, a także, jak w przypadku Hayeka, z wybiórczo zinterpretowanej teorii ewolucji4.
W obecnym kontekście dzikiej komercjalizacji systemów AI rozpoznanie technoliberalnego zrostu informatyki z ekonomią ma kluczowe znaczenie. Natura tego zrostu jest nie tylko polityczna, ale również epistemologiczna. Jeśli chcemy, aby systemy AI wzmacniały nasze zdolności poznawcze i „społeczny kapitał komunikowania”5, płaszczyzna polityczna musi stać się z konieczności frontem walki z hegemonami cyfrowymi, których interes biznesowy otwarcie takiemu wzmocnieniu nie sprzyja. Taką walkę trzeba prowadzić nie tylko w sferze regulacji prawnych. Musi to być również walka na rzecz zmiany ekonomicznych i technicznych reguł gry przy projektowaniu algorytmów. A podstawę dla takiej zmiany, nie tracąc z oczu żadnego z jej istotnych aspektów i uodparniając się na język technopropagandy, można wypracować jedynie na płaszczyźnie epistemologicznej, w dialogu angażującym nauki techniczne i społeczno-humanistyczne. Ponadsektorowy projekt polityczny może więc zrodzić się i powieść, jeśli towarzyszy mu nowe „zerwanie epistemologiczne” o charakterze empirycznym i intuicyjnym. Takie zerwanie, jak pisał Gaston Bachelard6, ma uwalniać myśl naukową, a w tym wypadku również myśl polityczną, od fałszywych idei (przeszkód epistemologicznych) blokujących dokładniejsze rozumienie zjawisk i uniemożliwiających osadzenie rozumienia systemów AI w szerszym ekosystemie społecznym.
Naturę technoliberalnego zrostu informatyki z ekonomią, który obecnie staje się technoprawicowy7, nazywam fundamentalizmem obliczeniowym. Twierdzę, podążając za analizami Yanisa Varoufakisa, że fundamentalizm obliczeniowy wchłonął fundamentalizm wolnorynkowy poprzez odseparowanie nowej formy kapitału w postaci pierwotnie zakumulowanych danych od produkcyjno-konsumpcyjnego porządku kapitalizmu8 Jeśli coś „po kapitalizmie” z niego się wyradza, to raczej coś gorszego. Celem tego tekstu jest zarysowanie możliwej drogi ucieczki. O ile nie jest na nią za późno.
O neoliberalizmie raz jeszcze, ale zgoła inaczej
Przez fundamentalizm obliczeniowy rozumiem redukcjonistyczne i indywidualistyczne ujęcie inteligencji, kulturowo skorelowane z indywidualizmem amerykańskim i pochodzącą z niego wizją podmiotu jako uczestnika rynku. W takim ujęciu cechą definiującą inteligencję jest zdolność do przetwarzania informacji, zaś podstawowym przekonaniem to, że mechanizmy myśli, przy odpowiedniej ilości danych i odpowiednio zaawansowanych matematycznie algorytmach, da się odtworzyć w inteligentnych maszynach obliczeniowych, a nawet zbudować sieć maszyn o inteligencji podobnej do inteligencji ludzkiej lub ją przewyższającej.
Choć takie ujęcie inteligencji ludzkiej niewiele ma wspólnego zarówno z inteligencją społeczną, jak i z inteligencją zwierzęcą, to skomputeryzowana symulacja tej pierwszej może dawać te same efekty obliczeniowe co działanie tych dwóch pozostałych, zwłaszcza jeśli miary tych efektów będzie dostarczała oderwana od życia społecznego i organizacji biologicznej ekonomistyczna logika efektywnościowa lub, tworzący z nią całkiem zgraną parę, scjentyzm. Jednocześnie ma ono wyraźny wpływ na zbiorowe imaginarium i kierunek toczącej się wokół AI dyskusji: wtłacza w nas obraz człowieka zastąpionego przez inteligentniejszą od niego maszynę, a także myśl, że takie zastąpienie to nieunikniony skutek obecnych przekształceń społeczno-ekonomicznych i technologicznych9, których nie możemy zatrzymać, ale do których możemy się przystosować, o ile tylko zawczasu się do nich przygotujemy, bo jako gatunek – jak głosi podstawowe credo neoliberalizmu – odznaczamy się nieprawdopodobnymi wręcz zdolnościami adaptacji do nowych warunków.
Mówiąc „neoliberalizm” nie mam na myśli polityki promującej deregulację, prywatyzację, minimalizację ingerencji politycznych w gospodarkę i trzymanie na krótkim pasku wydatków publicznych, choć taki „neoliberalizm” oczywiście wciąż istnieje i jest głęboko zinterioryzowany przez znaczną część klasy politycznej i klasy decydentów w Polsce i Europie. Myślę natomiast o nurcie intelektualnym, który zrodził się na początku XX wieku głównie w S t a n a c h Z j e d n o c z o n y c h, w w y r a ź n e j k o n t r z e d o dziewiętnastowiecznego „darwinizmu społecznego” Herberta Spencera i jego idei „przetrwania najlepiej przystosowanych” (the survival of the fittest), która zresztą nie ma nic wspólnego z teorią ewolucji Darwina w tym sensie, że darwinowska adaptacja nie oznacza przetrwania wyłącznie osobników o cechach najsilniejszych, lecz zdolność do rozwinięcia cech wystarczających do funkcjonowania w warunkach panujących w danym środowisku. Jak pokazują analizy Barbary Stiegler, język takiego neoliberalizmu w istotnej mierze czerpał z języka biologii, a także z ewolucjonistycznego nurtu w filozofii, reprezentowanego przez Williama Jamesa, Henriego Bergsona czy Johna Deweya. Neoliberalni myśliciele, na przykład Walter Lippmann mówiący o „naturze ludzkiej”, próbowali rozszerzyć teorię ewolucji na sferę moralną i społeczno-polityczną lub, jak w przypadku Hayeka, na działanie kapitalizmu. W ten sposób adaptacja mogła stać się „nowym imperatywem politycznym”10.
Obliczeniowy fundamentalizm zlewa się z tak rozumianym neoliberalizmem ilekroć mowa o konieczności przystosowania do zmiany technologicznej szeroko rozumianych instytucji czy o „ewolucji technologii”, jak gdyby ta ostatnia miała ewoluować i samoorganizować się tak samo jak układy żywe, co w ostateczności taki dyskurs zdecydowanie oddala od nauk o życiu, a przybliża do technoanimizmu. Niemniej jednak, tak jak neoliberalizm, pomimo całego zróżnicowania, jakie charakteryzowało myśl neoliberalną11, był naturalizowany za sprawą niewielkiej, ale wpływowej koalicji ekonomistów i polityków, tak dzisiaj totalnie leseferystyczny i w tym sensie nie neoliberalny lecz postliberalny12 model rozwoju systemów AI jest naturalizowany w podobnym trybie i jedynie z tą różnicą, że do koalicji dołączyła wąska grupa specjalistów of IT i governance.
Aby więc myśleć i mówić o innym modelu rozwoju systemów AI, trzeba wpierw rozebrać składający się na obliczeniowy fundamentalizm system neoliberalnych przekonań, bo to on tworzy głębokie warstwy znaczeniowe domyślnego języka, w którym o AI myślą i mówią jej budowniczy, entuzjaści i sprzedawcy. Do zdekodowania tego kodu nie wystarczy krytyka języka neoliberalizmu w potocznym sensie tego słowa 13, bo ten kod jest zgoła inny i zmutował wraz z AI, podobnie jak sam kapitalizm. Dlatego potrzeba również krytyki tworzących AI jako dziedzinę epistemologii.
Stara cybernetyka czy nowa informatyka?
Obecna fala AI odzwierciedla i wzmacnia sieci władzy krzyżujące się na styku technologii, kapitału i zarządzania, co czytelnie pokazuje w swoich analizach Kate Crawford14. Jednocześnie, sama idea AI, odkąd tylko przerodziła się w ambitny program badawczy podczas warsztatów w Dartmouth w 1956 roku, uznawanych za symboliczny początek tej dyscypliny15, ewoluowała w klimacie ekonomii z czasów zimnej wojny, rozwijanej z dala od świata materialnego. W ekonomii tej, jak przypomina Evgeny Morozov, skupiano się na abstrakcyjnych modelach, nie przywiązując większej wagi do tego, na ile i jakie mają one znaczenie w rzeczywistości społecznej, ale przywiązując wręcz obsesyjną wagę do optymalizacji i równowagi. Popularnością cieszyły się w niej konstrukcje teoretyczne, takie jak matematyczna teoria gier, które oderwały tę dyscyplinę od społeczeństwa i jego instytucji.
Morozov daje do zrozumienia, że inna AI jest możliwa, choć sam bardzo trzeźwo zaleca, aby wobec tej technologii, bez względu na to, jak potoczy się jej dalsza historia, zachować przede wszystkim solidną dozę krytycyzmu. Przypomina cybernetycznych pionierów tej dyscypliny: Stafforda Beera, który opracował wizjonerski projekt Cybersyn wdrożony w Chile podczas prezydentury Salvadora Allende, a także Warrena Brodeya, który stał na stanowisku, że inteligencja jest zjawiskiem emergentnym, to znaczy wyłania się w relacjach między ludźmi i ich interakcjach ze środowiskiem. W tym kluczowym aspekcie Beer i Brodey wyraźnie sprzeciwiali się indywidualistycznemu i czysto obliczeniowemu spojrzeniu na inteligencję, które reprezentował informatyk John McCarthy (twórca terminu „artificial intelligence”), czy psycholog Frank Rosenblatt (twórca Perceptronu będącego prostym modelem sieci neuronowej), a inspiracji do budowy maszyn szukali bardziej w filozofii antycznej i naukach o życiu niż w zmatematyzowanej ekonomii. Dlatego dla Brodaya motywacją nie było tworzenie „inteligentnych maszyn”, które miałyby dorównać inteligencji człowieka, czy go zastąpić, lecz maszyn, które wzmacniają interakcje między człowiekiem, maszyną a wspólnym im środowiskiem.
Powrót do tych nieznanych, mniej znanych lub zapomnianych idei cybernetycznych i ich potencjalnych następstw społeczno-politycznych jest niezwykle ożywczy we współczesnym kontekście techno- i ekologicznym, przede wszystkim dlatego, że pozwala lepiej zrozumieć miejsce, w którym jesteśmy, a także to, dlaczego się w nim znaleźliśmy i skąd mamy czerpać perspektywy na przyszłość. W tym aspekcie na szczególną uwagę zasługuje filozoficzny projekt „cybernetyki na XXI wiek”, zainicjowany przez Yuka Huia i pokazujący, jak myśl cybernetyczna rozwijała się w wielu krajach z Polską włącznie16.
Ja jednak, mówiąc i myśląc o AI uwolnionej od fundamentalizmu obliczeniowego, chciałbym zasugerować inną drogę niż powtórne przemierzenie obiegów cybernetycznych idei. Inna AI wymaga dzisiaj innej informatyki, której początkiem, podobnie zresztą jak w przypadku kognitywistyki17, było odcięcie się od cybernetyki i jej zbyt filozoficznych zapędów. Możliwość takiej „nowej informatyce” otworzyły prace z nurtu informatyki społecznej18. Jego zwolennicy i zwolenniczki, będący informatykami a nie filozofami, sami i same podkreślają, że informatyka stosowana musi wypracować nowy paradygmat epistemologiczny i dokonać rewizji własnych metod. Do tej pory, jak przekonują, ten paradygmat był pozytywistyczny, a informatyka uchodziła za naukę formalną; wytwarzała wiedzę zachowującą ważność niezależnie od kontekstu, w którym znajduje ona zastosowanie. Jakościowymi kryteriami oceny tej wiedzy były dowody formalne, algorytmiczna efektywność i strukturalna elegancja.
Takie kryteria okazują się jednak dalece niewystarczające, gdy priorytetowo traktujemy znaczenie społeczne zastosowania informatyki, co wydaje się wręcz koniecznością w kontekście systemów AI, o których efektywności nie decydują algorytmy lecz dane. Z tej perspektywy patrząc, głównym zadaniem dla informatyki, odtąd bardziej nauki technospołecznej niż tylko technicznej, staje się rozwiązanie problemów społecznych występujących w danym kontekście, a więc rozwiązywanie ich ze znajomością tego kontekstu. To dlatego takiej zmiany spojrzenia na proces projektowania maszyn nie należy traktować jako spekulacji, ponieważ ma ona znaczenie pragmatyczne i pociąga za sobą postulaty dotyczące zmiany praktyk projektowych.
Zwolennicy informatyki jako nauki technospołecznej postulują, aby artefakty informatyczne osadzać w praktykach społecznych już na etapie ich konceptualizacji. Taki postulat pochodzi ze świadomości, że jakość tych artefaktów zależy od tego, jak one na te praktyki oddziałują. Pociąga to za sobą dwie rzeczy. Po pierwsze informatyka stosowana potrzebuje solidnej teorii dotyczącej tego, czym jest praktyka społeczna, a to znacząco wykracza poza zakres nauk formalnych. Po drugie, aby działanie maszyn z tymi praktykami zestroić, informatyka stosowana musi zwrócić się ku naukom o projektowaniu, a więc czemuś, co z zasady jest teoretycznie niedookreślone i niedające pewności, z jaką zwykło się kojarzyć każdą naukę formalną. Chodzi więc o zmianę znaczącą, z jednej strony dotyczącą samej metody, a z drugiej – zmianę epistemologiczną.
Po co informatyce filozofia?
Filozofia może mieć swój udział w tej zmianie nie tylko dlatego, że zajęciem wspólnym dla projektowania i filozofii jest wytwarzanie znaczenia19, ale również dlatego, że ta zmiana musi być pomyślana jako zmiana niepodtrzymywalnego modelu rozwoju gospodarczego. Zastosowania informatyki odgrywają w tym modelu tyleż kluczową co coraz bardziej toksyczną rolę, służąc do eksploatacji naszych zasobów psychicznych i stając się narzędziami do sprawowania zautomatyzowanej „psychowładzy”20. Uchwycenie filozoficznego wymiaru tego problemu jest więc również potrzebne po to, aby pełniej zrozumieć dwuznaczny – nieredukowalnie farmakologiczny, jak powiedziałby Bernard Stiegler – wpływ techniki na nasze zdolności poznawcze oraz zdolność do obdarzania refleksją zalgorytmizowanej przestrzeni cyfrowej, a dzięki temu w niej nie przepaść.
W tym fundamentalnym, politycznym i filozoficznym zarazem aspekcie Stieglerowska propozycja dotycząca informatyki brzmi dużo radykalniej niż propozycje w duchu informatyki społecznej. Stiegler nie tyle nawołuje do rewizji metod informatyki stosowanej, ile do gruntownego przemyślenia fundamentów teoretycznych informatyki jako nauki podstawowej – choć jego głos wydaje się przede wszystkim głosem rozpaczy wobec filozofii, która, mogąc uchodzić za postępową i awangardową, średnio zrozumiała związane z procesem informatyzacji, a następnie algorytmizacji i automatyzacji społeczeństwa wyzwania: „Informatyka teoretyczna została porzucona przez […] europejską filozofię, French theory, spadkobierców myśli marksistowskiej i psychoanalizy, z wyjątkiem Félixa Guattariego. W rezultacie doszło do oddania tego specyficznego wymiaru naszych czasów ideologom neoliberalizmu, którzy chowają się za swoimi komputacjonalistycznymi naukami mylącymi naukę z kwantyfikacją (i w tym sensie kognitywistycznymi)”21.
Ale jeśli tak w istocie było, to co realnie można zrobić dzisiaj z tym porzuceniem? Jak przekonać informatyków, że zostali przez coś takiego jak „europejska filozofia” porzuceni i że przyniosło to szkodę ich zawodowi? Możemy tutaj napotkać na tak wysoką barierę w postaci radykalnie odmiennych sposobów postępowania, przyzwyczajeń poznawczych i praktyk wytwarzania wiedzy, że wielu będzie ona jawić się jako do sforsowania, a nawet kazać powątpiewać w sens podejmowania takiej próby. No bo skoro informatycy jako naukowcy spełniają się w praktyce polegającej na tworzeniu maszyn obliczeniowych, a nie na tworzeniu teorii, zaś filozofowie, przeciwnie, tworzą teorie i nie posługują się na ogół językiem formalnym potrzebnym do tworzenia takich maszyn, to jak szukać możliwego języka porozumienia?
To trudne, ale jednocześnie konkretne pytania. Nie zadając ich sobie dzisiaj, zdajemy się jutro, jako jednostki, społeczności lokalne i państwa, na dobrowolne poddaństwo i darmową pracę na platformach technofeudalnych panów. Do ucieczki od takiej przyszłości, prawdopodobnej, ale nie nieuniknionej, potrzeba nie tylko woli i determinacji politycznej, ale również budowania podwalin epistemologicznych pod nową kulturę naukowo-techniczną, która istniejące systemy AI pozwoliłaby nam przeprojektować, a nowe podporządkować potrzebom społecznym i wdrażać tam, gdzie ma to sens dla danej organizacji, społeczności lub sprawy.
Dopytujmy więc dalej: jak wyglądałby proces konceptualizacji, projektowania i wdrażania systemów AI, gdyby przyświecały mu inne cele niż zwiększanie wydajności i optymalizacja, które w praktyce nie oznaczają niczego innego niż więcej pracy ludzi i większą eksploatację zasobów. Jak byśmy wyobrażali sobie interakcję ludzi z tymi systemami, gdyby te wyobrażenia pochodziły nie z posthumanizmu technologicznego, fetyszyzującego „autonomię” systemów AI i owijającego ich polityczność w bajkę o społeczeństwie współpracy ludzi z botami, lecz z różnorodności europejskiej i innej niż europejska myśli humanistyczno-społecznej, od myśli filozoficznej do myśli politycznej i ekonomicznej? Jak rozumielibyśmy innowację, gdyby jej rozumienie wyprowadzić z kultur innowacji innych niż biznesowo-marketingowa kultura „zaburzających innowacji” (disruptive innovations)22, a tym samym wypracować kulturową przeciwwagę dla dysrupcji?
Życie
Kierunek prowadzący ku takiej kulturze naukowo-technicznej podpowiadał Norbert Wiener na początku przygody o nazwie AI. Dostrzegając, że postęp technologiczny powoduje dewaluację ludzkich mózgów, pisał, że rozwiązaniem jest „oparcie społeczeństwa na wartościach ludzkich, a nie na kupnie i sprzedaży” i że do wypracowania takiego rozwiązania potrzeba „walki na płaszczyźnie idei”23. Prowadząc taką walkę dzisiaj trzeba jednak zejść do samych 23fundamentów, na których spoczęła idea postępu technologicznego, współczesne rozumienie „technologii”, a także przekształcanego przez nie życia, nie tylko w sensie społeczno-ekonomicznym, ale przede wszystkim w sensie biologicznym.
W znakomitym eseju Antidote au culte de la performance, biolog Olivier Hamant pisze: „Życie nie posłużyło za model dla naszych społeczeństw. To raczej funkcjonowanie naszych społeczeństw wykoślawiło naszą wizję życia. A zwłaszcza uczynił to model przemysłowej optymalizacji, nałożony na życie w XIX wieku. […] Idea wydajnego życia może być częściowo prawdziwa w myśli redukcjonistycznej, w której określone mechanizmy biologiczne zostają wyodrębnione z ich kontekstu. Ale jest całkowicie fałszywa, gdy rozpatruje się systemy życia jako całość. […] Myślenie o życiu jako o systemie zoptymalizowanym wiele mówi o naszej obsesji na punkcie skuteczności, ale nie mówi nic o życiu”24.
Na przeciwległym biegunie epistemologicznym mamy mechanistyczną wizję życia przedsiębiorcy Mustafy Suleymana, jednego z założycieli firmy DeepMind, a obecnie prezesa MicrosoftAI. Przekonując, że AI to „nie tylko narzędzie czy platforma, lecz przełomowa metatechnologia, technologia napędzająca technologię i wszystko inne” Suleyman za technologię uznaje również życie jako takie, które teraz oto ulega transformacji w wyniku połączenia AI z inżynierią biologiczną: „Życie, najstarsza technologia naszej planety, liczy co najmniej 3,7 miliarda lat. Przez te eony jego ewolucja była chłodnym, samonapędzającym się, samorzutnym procesem. Potem, w ciągu zaledwie kilku ostatnich dziesięcioleci, stanowiących drobniutki wycinek ewolucyjnego czasu, jeden z wytworów życia, człowiek, zmienił wszystko. W efekcie na jaw zaczęły wychodzić tajemnice biologii, a biologia stała się narzędziem inżynierii. Historia życia w jednej chwili została napisana na nowo […] To najważniejsza obok sztucznej inteligencji transformacja, jaka dokona się za naszego życia. […] U podstaw tej fali leży odkrycie, że DNA to nic innego jak informacja, system kodowania i przechowywania danych powstały w toku biologicznej ewolucji. W ciągu ostatnich dziesięcioleci poznaliśmy ten system transmisji informacji dostatecznie dobrze, żeby dziś móc weń ingerować – modyfikować jego sposoby kodowania i sterować jego zachowaniem. W efekcie żywność, medycyna, materiały, procesy produkcyjne i dobra konsumpcyjne zostaną przekształcone i wymyślone na nowo. Podobnie jak ludzie”25.
Nasza dalsza historia z AI zależy od tego, która wizja życia posłuży za inspirację do jej tworzenia. Wizja heterogeniczna i zdecentralizowana, która promuje technoróżnorodność i dąży do łączenia low-techu z high-techem, aby sprzyjać rozrośniętym formom życia, czy też wizja jawnie technokratyczna i redukcjonistyczna, która życie podporządkowuje technice. Ten wybór polityczny i epistemologiczny zadecyduje również o tym, jak będzie wyglądało „nowe przymierze z maszyną”26, o którym pisał Félix Guattari w tekście wysłanym do „Le Monde diplomatique” na kilka tygodni przed nagłą śmiercią w 1992 roku. Czy będzie ono sprzyjać, jak chciał, przebudowie fundamentów praktyk społecznych, czy też ich zanikowi w świecie nekrotechnologii?
Michał Krzykawski, pracownik naukowy na Wydziale Humanistycznym Uniwersytetu Śląskiego w Katowicach, gdzie kieruje Centrum Badań Krytycznych nad Technologiami. Autor wielu prac z zakresu współczesnej filozofii francuskiej, filozofii techniki i filozofii społecznej, a także współredaktor prac międzydziedzinowych: Konieczna bifurkacja. „Nie ma alternatywy” (redakcja Bernard Stiegler i Kolektyw Internacja, Paryż 2020, London 2021, Katowice 2023) oraz Gospodarka i entropia. Jak wyjść z polikryzysu (redakcja Jerzy Hausner, Michał Krzykawski, Warszawa 2023). Członek Rady Narodowego Programu Rozwoju Humanistyki. Współzałożyciel i wiceprezes Fundacji Pracownia Współtwórcza wspoltworcza.org.