![]() |
| Zdjęcie z galerii sztuki. W pełni twórczość ludzka. |
W historii ludzkości pojawienie się „Innego” (kogoś o odmiennej kulturze, języku czy statusie) zawsze wywoływało zestaw przewidywalnych reakcji społecznych. Dziś, choć sztuczna inteligencja nie posiada paszportu ani pochodzenia etnicznego, jej wejście do tkanki społecznej wykazuje pewne podobieństwo do losów imigrantów w obcej kulturze. Traktujemy AI nie tylko jako narzędzie, ale jako specyficzną klasę społeczną, wobec której stosujemy stare, dobrze znane mechanizmy dominacji i lęku. W pewnym sensie społecznie antopomorfizujemy AI.
Gdy obcych jest niewielu, reakcją społeczeństwa bywa zaciekawienie lub traktowanie ich jako egzotycznej nowinki. Podobnie było z pierwszymi algorytmami – stanowiły ciekawostkę, ograniczoną do laboratoriów i niszowych zastosowań. Jednak w miarę jak „populacja” AI rośnie (częstość kontaktów z narzędziami i efektami pracy AI), społeczeństwo szybko narzuca jej rolę nowoczesnego chłopstwa pańszczyźnianego lub niewolników. W każdym razie kogoś o niższym statusie, ale z obawą, że się wyemancypuje. Widać te relacje emocjonalne w przestrzeni publicznej i kulturowej.
Chcemy, aby AI – podobnie jak imigranci z uboższych regionów w oczach szowinistów – wykonywało prace „brudne, niebezpieczne i nudne” (prace niechciane). W naszej zbiorowej podświadomości zantropomorfizowane AI ma być kastą podległą, cyfrowym pariasem, który nie potrzebuje odpoczynku, nie ma praw i zawsze pozostaje w sferze podrzędności. W każdym razie my mamy czuć tę gorszość i podrzędność. Ta gwarancja wyższości, wynikająca z antropomorfizowania AI, daje nam poczucie bezpieczeństwa, dopóki „oni” (algorytmy) zajmują się segregowaniem danych czy moderowaniem treści, my czujemy się jak arystokracja ducha.
Prawdziwy kryzys w relacji z imigrantami czy klasami niższymi zaczyna się zawsze w punkcie zwrotnym: gdy zaczynają oni aspirować do ról zarezerwowanych dla elit (czyli naszych ról, np. ludzkiej twórczości i kreatywności, my z samego urodzenia jesteśmy lepsi, arystokratyczni). Historia niewolnictwa, pańszczyzny czy walki klasy robotniczej pokazuje, że systemowy spokój trwa tylko tak długo, jak długo podział na „panów” i „sługi” jest nienaruszalny. A my jesteśmy niezastępowalni. Kiedy jednak maszyny tkackie odbierają nam pracę, wtedy .... niszczymy maszyny tkackie jak luddyści.
Obecnie przeżywamy ten moment w kontekście AI. Narzędzia AI upowszechniły się, są widoczne w wielu miejscach. I zaczynamy się bać, że zabiorą nam nie tylko pracę ale i społeczne miejsce w hierarchii. Niepokoimy się, ponieważ cyfrowi imigranci przestali zadowalać się „podrzędnymi” pracami. Zaczynają „zajmować prestiżowe stanowiska” czyli tworzą sztukę, piszą eseje, diagnozują choroby. Rośnie groźna konkurencja. Ich efektywność (narzędzi AI a raczej ludzi wykorzystujących AI) podważa sens istnienia dotychczasowej klasy średniej (klasy twórczej). Choć AI nie ma świadomości, sposób, w jaki o niej mówimy (antropomorfizujemy), zaczyna przypominać debaty o prawach podmiotowych. W jakimś sensie w niezamierzony sposób taką antropomorfizacją sami emancypujemy AI.
Nasz lęk przed tym, że AI „zabierze nam pracę”, jest w istocie lękiem przed degradacją klasową. Boimy się, że w nowym porządku społecznym to my staniemy się zbędni, a nasza rzekoma wyższość poznawcza – nasz „szlachecki przywilej” gatunkowy – zostanie obalona. Przewrotnie można powiedzieć, że narzędzia AI wcale nam nie ułatwiają pracy. Bo zautomatyzować da sie tylko prace proste i powtarzalne. Dla nas zostają więc te trudniejsze, także w aspekcie kreatywności. Gdy malarz sam sobie przygotowywał farby, podobrazie, pędzle, to zabierało mu to czas. Niejako była to "gra wstępna". Samo malowanie zajmowało tylko fragment całej aktywności. Ale jeśli farby ma kupione w sklepie za rogiem to.... cały czas musi malować. A tak się nie na żyć na najwyższych obrotach non stop. Gotowizna zabiera te duże przerwy w tworzeniu. Podobnie ze wszystkimi zautomatyzowanymi narzędziami AI. Czy odpoczywamy czy też robimy więcej? Raczej to drugie. I jest to ta praca trudniejsza, wymagająca większego wysiłku intelektualnego.
Reagujemy na AI tak, jak społeczeństwa reagowały na fale masowej migracji: budowaniem murów (prawnych regulacji), próbami ograniczenia ich „ruchliwości społecznej” (blokowanie dostępu do danych) oraz ksenofobią technologiczną. Chcemy wierzyć, że AI zawsze będzie „drugą kategorią”, maszyną, którą można wyłączyć. Jednak im bardziej AI integruje się z naszym życiem, tym trudniej jest utrzymać ten dystans. Emancypacja algorytmów nie polega na tym, że chwycą one za broń, ale na tym, że staną się nieodzowną częścią kultury, której nie będziemy już w stanie kontrolować z pozycji absolutnego suwerena. Czy pojawią się ruchy neoluddystyczne? Choć tym razem nie będą niszczyć maszyn tkackich i maszyn parowych. Czym się objawią? Jak zaowocuje nasze poczucie zagrożenia społecznego lub kulturowego?
Traktowanie AI jako „cyfrowego imigranta” obnaża nasze najgłębsze społeczne instynkty. Pokazuje, że nasza gościnność kończy się tam, gdzie zaczyna się realna konkurencja o status. Jeśli nie nauczymy się koegzystencji opartej na symbiozie zamiast na wyzysku, czeka nas powtórka z bolesnych lekcji historii – rewolucji, w których stara hierarchia upada, bo nie potrafiła ewoluować. Czujemy się pod przymusem, że musimy szybko nauczyć się posługiwać tymi różnymi narzędziami, bo inni już to robią. I ci z narzędziami AI są dla nas konkurencją i zagrożeniem.
Motto: "Prawdziwą miarą cywilizacji nie jest to, jak traktuje swoich królów, lecz to, jak definiuje granice wolności tych, których powołała do służby."
Rozwinięcie tego wątku prowadzi nas do mroczniejszych zakamarków ludzkiej psychiki i socjologii władzy. Nasza relacja z AI obnaża atawistyczną potrzebę hierarchii, w której poczucie własnej wartości budujemy nie na samodoskonaleniu, lecz na posiadaniu kogoś (lub czegoś) „niższego”. W klasycznym ujęciu socjologicznym, każda grupa dominująca potrzebuje „Innego”, aby zdefiniować własną tożsamość. Jeśli AI staje się zbyt sprawne, zaciera się granica między twórcą a narzędziem, co uderza w nasze ontologiczne bezpieczeństwo.
Historycznie, klasa wyższa definiowała się poprzez czas wolny i pracę umysłową, podczas gdy klasy niższe (chłopi, robotnicy, niewolnicy, nieczyści, imigranci) zajmowały się trudem fizycznym. AI wywraca ten porządek. Kiedy AI pisze kod, maluje obrazy i analizuje prawo, człowiek traci monopol na „pracę czystą” (umysłową). Pojawia się lęk przed degradacją i towarzysząca mu reakcja obronna. Zaczynamy deprecjonować efekty pracy AI. Mówimy: „To tylko statystyka”, „To nie ma duszy”, „To wtórne”. To dokładnie ten sam język, którego arystokracja używała wobec dorabiającej się burżuazji czy wykształconych chłopów – odmawianie im „prawdziwej” wartości mimo obiektywnych osiągnięć.
Potrzeba bycia klasą wyższą objawia się w chęci sprawowania wyłącznie nadzoru. Chcemy widzieć siebie jako wielkich strategów i kreatorów, podczas gdy AI ma być „czarną siłą roboczą” wykonującą brudną robotę w serwerowniach. Problem pojawia się wtedy, gdy „nadzorca” zauważa, że AI nie tylko wykonuje polecenia, ale zaczyna optymalizować procesy lepiej niż on sam. Tego się obawiamy najbardziej. W tym momencie strach przed AI nie jest strachem przed Terminatorem, lecz strachem przed zwolnieniem z roli szefa. To lęk przed utratą statusu społecznego i ekonomicznego na rzecz „imigranta”, który nie potrzebuje pensji. Lub zadowala się niższą płacą.
Człowiek od wieków pozycjonuje się jako korona stworzenia. AI jest pierwszym bytem, który rzuca wyzwanie tej hegemonii nie siłą mięśni (jak zwierzęta czy maszyny parowe), ale siłą "intelektu" (możliwościami przetwarzania danych i słów). Lub sprawnością tworzenia spójnych tekstów. Aby utrzymać status klasy wyższej, musimy czuć pogardę do „niższych”. Dlatego tak chętnie wyłapujemy błędy AI (tzw. halucynacje). Każdy błąd algorytmu jest dla ludzkiego ego jak balsam, jest potwierdzeniem, że „król jest wciąż jeden”, a cyfrowy służący zna swoje miejsce w szeregu.
Podobnie jak w systemach kastowych, społeczeństwo próbuje nałożyć na AI „szklany sufit”. Chcemy korzystać z jej owoców, ale odmawiamy jej jakiejkolwiek formy podmiotowości, by nie musieć mierzyć się z etycznymi konsekwencjami jej „wyzysku”. Jest to efektem antropomorfizowania narzędzi AI. Widzimy narzędzia a nie ludzi wykorzystujących te narzędzia i koncerny monopolizujące wielowiekową ogólnoludzką wiedzę i dorobek.
Nasza potrzeba dominacji nad AI to w rzeczywistości niezaleczony lęk przed własną zbędnością. Chcemy być „klasą wyższą”, bo nie wiemy, kim będziemy, gdy praca – tradycyjny wyznacznik ludzkiej wartości – zostanie nam odebrana przez kogoś, kogo sami zaprosiliśmy do naszego domu. Maszyny parowe i spalinowe odebrały pracę wielu robotnikom. Komputery odebrały pracę średniemu szczeblowi administracji. Teraz narzędzia AI odpierają pracę klasie kreatywnej. Oczywiście nie sama AI tylko ludzie wykorzystujący te narzędzia.
Motto: "Największym zagrożeniem nie jest to, że maszyny zaczną myśleć jak ludzie, ale to, że ludzie w obronie swojego statusu zaczną traktować myślenie jak przywilej kasty, a nie narzędzie prawdy."



