9.03.2026

O twórczym trudzie i dylematach intelektualnego recyklingu

Dawno temu w Dobrym Mieście, w czasie spotkań w kawiarni naukowej. Warsztaty malowania na starych butelkach i słoikach. Bo wykłady to nie tylko mówienie lecz także czas na aktywność słuchaczy.
 

Temat ten jest bliski sercu każdego, kto kiedykolwiek próbował wycisnąć z metaforycznego kamienia choćby kroplę wartościowego soku, kto sam doświadczył trudu tworzenia. Szanujemy to, co przychodzi w trudzie.

Urodziłem się w dawnych czasach, sporego niedostatku i samowystarczalności. W moim domu rodzinnym nic się nie marnowało. Słoik po dżemie był wykorzystany do domowych przetworów. W ostateczności stawał się wazonem – na klej wikol przyklejaliśmy nasiona i pestki a potem lakierowaliśmy. Ubrania się nosiło po starszym barcie, przerabiało na nowe, cerowało i łatało. W paczkach z Ameryki przysyłane były czasem ubrania. Teraz nazwalibyśmy je z ciucholandu lub szmateksu. Były jednak skarbami, które po krawieckich przeróbkach stawały się modnymi i pożądanymi ubraniami. Na podwórku robiliśmy zabawki z patyków i tego, co się znalazło.  Gwoździe prostowało się młotkiem na kowadle, bo przecież „jeszcze się przydadzą”. Ten wrodzony wręcz przymus odzyskiwania rzeczy wrastał w mojej głowie. Uczył także kreatywności.

Polubiłem  notatki na odzyskiwanych kartkach, starych plakatach, niezapisanych zeszytach. Moje notesy to nie są eleganckie zbiory poezji z pięknie wykaligrafowanym pismem, to składowiska luźno zapisywanych słów, najpierw na kartkach, potem w komputerze. Dalej jednak uwielbiam zapiski na drugiej, jeszcze nie wykorzystanej, stronie starych kartek. Trzymam tam wszystko: od genialnych (moim zdaniem) metafor, po niedokończone analogie i zestawienia słów, które wyglądają jak porzucone zardzewiałe lodówki. Tworzę z trudem. I może dlatego właśnie gromadzę niewykorzystane pomysły lub odrzucone i niewykorzystane zdania, czasem pojedyncze słowa. Zazwyczaj te zapiski leżą latami, zanim znowu po nie sięgnę, lub ostatecznie wyrzucę.

Tworzenie zawsze było dla mnie formą rękodzielnictwa. Sklejałem zdania z resztek, jak modelarz budujący galeon z zapałek i wykałaczek. Było w tym coś szlachetnego – ta mozolna dłubanina, gdzie każde słowo miało swoją wagę, bo było „wychodzone”. Trud tworzenia polegał na tym, że materiału wiecznie brakowało, więc szanowało się każdą myśl po raz kolejny ukształtowaną.

I wtedy, cała na biało (choć w sumie to w kolorach RGB), wchodzi Sztuczna Inteligencja. I tu zaczyna się mój dramat lub wyzwanie. Jako człowiek wychowany w twórczym nawyku „przyda się”, nagle zostałem wrzucony do gigantycznego magazynu, w którym wszystko jest za (niby) darmo i dostarczane w trzy sekundy. Wcześniej były w nadmiarze produkty w sklepie. I w nadmiarze oferowanie różnorakich ofert wszelakich. Teraz zaczęło dotyczyć moich notatek i pomysłów na pisanie...

AI nie pisze ręcznie zdań, piórem które trzeba często maczać w kałamarzu lub ołówkiem, który trzeba często temperować. Ona je wypluwa z prędkością karabinu maszynowego. Dla kogoś, kto potrafi przez pół godziny wymyślać jedno zdanie o świteziance dziewicy lub niprzyrówce rzecznej, nagłe otrzymanie dziesięciu gotowych akapitów jest jak próba wypicia oceanu przez słomkę. Koślawy i nieposkładany w piękne zdania pomysł, AI szybko rozwinie w spójne i ładnie wyglądające zdania. Ale często te zdania nie są takie, jakbym chciał. Nadmuchany balom nie zwiększa swej ilości gumy, tylko powiększa to zo już jest. Pozorny wzrost, w środku jest pustka. I z tego nadmiaru trzeba coś wybrać a resztę odrzucić. Ale odkładam a nie wyrzucam, bo przecież są tam fragmenty, które mogą mnie ciągle zainspirować do zupełnie innej opowieści. Bo ciągle można z tego odrzuconego coś przydatnego wygrzebać. Więc niech leży i czeka...

Mój dylemat: Jak mam pielęgnować swoje stare przyzwyczajenie do zbieractwa, skoro AI produkuje tyle „towaru”, że moje własne, wypracowane w pocie czoła notatki, giną pod zwałami cyfrowego gruzu? Zmieniło się środowisko i warunki. Od ponad trzech dziesięcioleci zmagam się z kulturą nadmiaru rzeczy materialnych w sklepach i w otoczeniu, w darmowo rozdawanych gadżetach, koszulkach (przecież do końca swojego życia tego nie znoszę), długopisów, notesów, kubków, smyczy czy pendrivów. I teraz dochodzi nadmiar dopracowanych tekstów. 

Czy warto wyrzucić pomocnika? To paradoks, bo marzyliśmy o maszynach, które będą za nas pracować, a teraz cierpimy, bo pracują za dobrze i za szybko. Robią rzeczy proste a nam ciągle zostają te najtrudniejsze. I to na dodatek skondensowane. Bo jeśli zautomatyzować „grę wstępną”, swoiste wprowadzanie się w nastrój, to pozostaje tylko wyczerpująca praca twórcza non stop.  AI generuje słowa z taką łatwością, że tracą one swoją wartość rynkową w moich oczach. To już nie jest rękodzieło, to produkcja taśmowa. A może to uczynni asystenci, podchwytujący i rozwijający w lot moje pomysły?

Moje stare notatki – te „zardzewiałe gwoździe” z notesu – mają jednak coś, czego AI nie wygeneruje, Mają historię ich znalezienia. Wiedzą, przy jakiej kawie czy zimnej wodzie ze studni powstały, na jakich starych kartkach zostały zapisane, w jakich notesach,  i jaki smutek lub radość im wtedy  towarzyszyły. AI daje mi lśniące, nowe śruby, ale ja wciąż mam słabość do tych starych, odzyskanych z rozbiórek dawnych myśli.

Może rozwiązaniem nie jest całkowita rezygnacja z pomocy AI, ale traktowanie jej jak... dostawcy surowca, który i tak musimy przesiać przez własne, „recyklingowe” sito? W końcu nawet w najnowocześniejszej fabryce recyklingu to człowiek na końcu decyduje, co jest skarbem, a co tylko plastikiem. Muszę się nauczyć żyć w tym świecie nadmiaru, punktozy, wskaźników klikalności. Muszę się także nauczyć korzystać z nowych narzędzi. Tak jak niegdyś strugania scyzorykiem, rysowania ołówkiem czy malowania na butelkach. Bo cóż z licznych książek na półce, gdy się ich nie przeczytało?

Tak, jak musimy się nauczyć by nie kupować rzeczy w nadmiarze, tak musimy się nauczyć korzystania z narzędzi AI, oferujących szybko i dużo. Uczę się swojego minimalizmu od lat. Czasem odnoszę sukcesy, czasem doświadczam porażek. Żyję w przeświadczeniu, że to, co wymyśle, ma jakąś wartość i trzeba tylko dopracować, doszlifować. A kreatywny umysł dużo produkuje. Tak dużo, że nie starczy czasu na doszlifowanie. I odkładam do kufra na strychu. Czy AI pomoże dopracować te odłożone pomysły? A może nie trzeba aż tylu dobrze dopracowanych pomysłów i ładnie dopieszczonych zdań? Może im mniej, tym wartościowsze, rzadsze i cenniejsze? Bo któż ten nadmiar przeczyta? Zamiast ludzi czytać będą boty i jakieś narzędzia AI? Zastąpią zapracowanych ludzi w czytaniu treści, które wspólnie wytworzyliśmy?

7.03.2026

Media społecznościowe czy tylko prosumpcyjne?


Słowa mają znaczenie. To, jak nazywamy rzeczy, procesy i zjawiska, ma wpływ na postrzeganie świata. Czy media społecznościowe są rzeczywiście społecznościowe z treści i formy? Słowa kształtują nasze oczekiwania. Nazywając cyfrowe platformy „mediami społecznościowymi”, podświadomie zakładamy (i oczekujemy), że ich fundamentem jest budowanie relacji i misja publiczna. Tymczasem współczesny internet uświadamia nam, że ta nazwa to coraz częściej fasada. Stoimy u progu ery, w której powinniśmy raczej mówić o mediach prosumpcyjnych i rozproszonych platformach reklamowych, gdzie użytkownik nie jest gościem, lecz surowcem. Sami sie reklamujemy, swoje małe biznesy i czytamy reklamy innych, te duże i ta malutkie. Media społecznościowe nie są takie społecznościowe jak je nazywamy. Są prosumpcyjne, z wymieszanymi rolami twórcy i odbiorcy oraz są rozproszone i zdecentralizowane. To znak czasu, odejście od centralizacji nastąpiło nie tylko w energetyce.

Media społecznościowe w swojej pierwotnej obietnicy (a może tylko naszej nadziei?) miały być cyfrową agorą. Jednak ich ewolucja poszła w stronę prosumpcji – zjawiska, w którym role twórcy i odbiorcy ulegają dużemu zatarciu a w zasadzie wymieszaniu. Każdy z nas, publikując post czy komentując zdjęcie, staje się darmowym dostawcą treści, które napędzają silnik platformy. Konsumujemy treści i produkujemy treści, także w aspekcie komercyjnym. Odbieramy reklamy i sami się reklamujemy, naszą mikroprzedsiębiorczość. Czasem stajemy się cewebrytami i zarabiającymi na treściach i reklamach „tiktokowcami”, „jutuberami”.

Historia mediów cyfrowych przypomina cykl życia organizmu, który ginie pod ciężarem własnego sukcesu. Mechanizm jest podobny. Najpierw jest faza ideowa i odkrywanie miejsca społecznych spotkań. Ludzie gromadzą się w nowym miejscu, szukając autentycznego kontaktu (jak niegdyś na Naszej Klasie). Potem jest faza eksploatacji. Tam, gdzie pojawia się uwaga mas, błyskawicznie wchodzi komercjalizacja. Skoro zbierają się ludzie, tak jak na średniowiecznym rynku, to można im coś przy okazji sprzedać. I w końcu jest faza jarmarku. Reklamy zaczynają dominować nad treścią, a algorytmy promują to, co generuje zysk, a nie wartość społeczną.

Nasza Klasa zginęła, ponieważ przyjemne spotkanie po latach zamieniło się w hałaśliwy jarmark. Dzisiejszy Facebook (Meta) podąża dokładnie tą samą ścieżką. To już nie jest miejsce spotkań z przyjaciółmi, lecz gigantyczna platforma reklamowa, nasycona botami i sztuczną inteligencją, które profilują nasze poglądy i portfele. Teraz Facebooki i inne to platformy reklamowe z malejącą dozą społeczności. Coraz bardziej zdominowane są przez boty i AI w celach reklamy produktów i poglądów. Społeczność ludzko-nieludzka.

Warto zauważyć, że media społecznościowe nie odkryły koła na nowo. Gazety, radio i telewizja przeszły podobną drogę. Każde z tych mediów zaczynało z pewną misją społeczną czy informacyjną, by ostatecznie stać się zakładnikiem słupków reklamowych i wpływów politycznych. Gazety, radio i TV też przeszły tą drogę i zostały opanowane przez reklamy i polityczne wpływy. Ich misja społeczna uległa komercjalizacji, Bo tam, gdzie zbierają się ludzie, pojawia się komercjalizacja szukająca okazji i klientów. Z czasem reklam jest zbyt dużo i przyjemne spotkanie społeczne, w Naszej Klasie przeradza się w jarmark.  W telewizji przerwy reklamowe są dłuższe niż same filmy czy programy. FB idzie tą samo drogą co Nasza Klasa. Społecznościowe spotkania będą szukać nowych miejsc a w  ślad za nimi będzie podążać komercjalizacja. Zawsze ktoś prędzej czy później podrzuci jakieś „ulotki”.

Współczesny biznes nie handluje już tylko produktami – on handluje naszym czasem i uwagą. W świecie mediów prosumpcyjnych uwaga jest najtwardszą walutą. Gdy platforma staje się zbyt duszna od reklam i politycznej manipulacji, użytkownicy (społeczność) zaczynają szukać „nowego, czystego miejsca”. Jednak tragizm tego procesu polega na tym, że komercjalizacja podąża za nimi jak cień.

Dzisiejsze platformy to pola bitwy o nasze umysły. Termin „media społecznościowe” jest dziś formą eufemizmu, który maskuje brutalną prawdę o cyfrowej prosumpcji. Jesteśmy rozproszonymi trybikami w maszynie, która sprzedaje naszą obecność najwyżej licytującym – czy to markom odzieżowym, czy grupom wpływu politycznego. Dopóki nie zrozumiemy, że w darmowych serwisach to my jesteśmy produktem, będziemy jedynie wędrować z jednego „cyfrowego jarmarku” do drugiego, łudząc się, że tym razem będzie inaczej. Rozwiązaniem byłby abonament i utrzymywanie takich przestrzeni z opłat, jak w ekskluzywnych klubach. Chyba, że uznamy spotkanie onlajnowe jako ważną funkcję społeczną i utrzymywać będziemy z podatków, tak jak szkoły, szpitale czy media publiczne. By nie musiały szukać reklamodawców.

To, co dzieje się obecnie z platformami takimi jak Facebook czy Instagram, to zaledwie przygrywka do nowej ery: komercjalizacji relacji człowiek–maszyna. Skoro media społecznościowe stały się jarmarkiem, to narzędzia sztucznej inteligencji stają się osobistymi akwizytorami, którzy szepczą nam do ucha dokładnie to, co chcemy usłyszeć – za odpowiednią opłatą ukrytą w kodzie. Powoli ukryta komercjalizacja reklamowe rozgaszcza się w czatach sztucznej inteligencji a my na razie nie zauważamy lokowania produktu czy poglądów. Sprzedawanie czasu i uwagi handlowi a potem wpływom politycznym. To też biznes.

W tradycyjnych mediach reklama była „strzałem z armaty” – trafiała do wszystkich. Media społecznościowe wprowadziły precyzyjne celowanie. Sztuczna inteligencja idzie o krok dalej: ona nie tylko celuje, ona kreuje potrzeby w czasie rzeczywistym.

Już teraz obserwujemy wysyp asystentów AI i chatbotów mających imitować ludzkie wsparcie. To idealne pole dla komercjalizacji. Jeśli Twoim powiernikiem staje się algorytm, nic nie stoi na przeszkodzie, by w rozmowę o smutku subtelnie wplótł on propozycję zakupu suplementu diety lub subskrypcji konkretnej usługi streamingowej. AI potrafi wygenerować tysiące wariantów tej samej reklamy, dopasowując ton głosu, słownictwo, a nawet wygenerowaną twarz modelki do Twoich podświadomych preferencji. To już nie jest dialog społeczny, to manipulacja na poziomie neuronalnym.

Najbardziej niepokojącym zjawiskiem jest przeniesienie mechanizmów rynkowych w sferę relacji z narzędziem. Narzędzia AI (LLM, generatory obrazów) są prosumpcyjne w czystej postaci – uczą się na naszych danych, by potem sprzedać nam przetworzony wynik tej nauki.

Sprzedawanie czasu i uwagi handlowi to fundament obecnego biznesu technologicznego. W przypadku AI dochodzi jednak nowy, niebezpieczny element: aura obiektywizmu. Użytkownik częściej ufa „suchemu” komunikatowi z czatu niż kolorowemu banerowi na stronie. To zaufanie staje się towarem.

Jeśli Facebook był jarmarkiem, na którym krzyczano do nas z każdego stoiska, to AI jest eleganckim doradcą w luksusowym butiku, który udaje naszego przyjaciela, a w rzeczywistości realizuje strategię sprzedaży korporacji, która go wytrenowała. To ostateczna forma komercjalizacji – nie kupujemy już tylko produktów, kupujemy przefiltrowaną przez algorytmy rzeczywistość.

W ślad za każdą nową technologią, która obiecuje wolność i ułatwienie kontaktu, kroczy interes kapitałowy. Rozproszenie treści i decentralizacja, o których wspominałem wcześniej, w starciu z potęgą obliczeniową AI mogą doprowadzić do sytuacji, w której każda nasza interakcja z technologią będzie miała swój ukryty „cennik”. Chyba, że zadbamy by AI była utrzymywana z naszych podatków i była wolna od mniej lub bardziej ukrytych reklam i wpływów politycznych. Ale to bardzo trudne do osiągnięcia.

4.03.2026

Oulipo w dydaktyce akademickiej i w świecie sztucznej inteligencji

Grafika wygenerowana przy pomocy AI (Copilot).
 

W ostatnich miesiącach uczę się dydaktyki w dialogu z AI. Wybieram ze swojej pamięci i z notatek jakieś przykłady, dopytuję się o więcej i wykorzystuję AI do ideacji konkretnych przykładów. Tak trafiłem na Oulipo. Jak trafiłem? Chciałem wykorzystać metody storytellingu, które poznałem na warsztatach w czasie Kompasu Edukacji w Bydgoszczy. Przećwiczyłem już kartę postaci. A teraz chciałem wykorzystać "3 słowa i jedno ograniczenie". I dowiedziałem się, że jest to metoda Oulipo. Tak poznałem kilka form tej metody, np. lipogram - tekst bez użycia określonej litery (np. powieść La Disparition Pereca bez litery „e”), N+7 - zamiana każdego rzeczownika w tekście na rzeczownik znajdujący się siedem pozycji dalej w słowniku, palindromy - teksty czytane tak samo w obie strony (od lewej i od prawej) czy struktury matematyczne - np. teksty oparte na permutacjach, grafach czy ciągach liczbowych.  Kiedyś z takimi dziwacznymi wyzwaniami trudzili się pisarze. A w dobie przesycenia technologiami i ekranami warto czasem sięgnąć i po takie, zdawało by się staroświeckie metody.

Dlaczego szukać nowych narzędzi dydaktycznych? Po pierwsze by wprowadzić większą różnorodność i by nie było intelektualnie nudno. A po drugie, w czasach łatwego dostępu do internetu i narzędzi sztucznej inteligencji, dawne metody tracą swoją moc sprawczą. Zadawać studentom eseje do napisania czy prezentacje do wykonania? Mam już poważne wątpliwości. I nie chodzi o zmianę treści tylko zmianę formy. Istotą studiowania na uniwersytecie od wieków było przetwarzanie tekstów. Czy to ustnego wykładu profesora czy to książek. Sercem uniwersytetu była (i chyba jeszcze jest?) biblioteka jak i zgromadzona kadra profesorska. W poszukiwaniach dydaktycznych nie chodzi o odrzucenie tej kwintesencji uniwersytetu i studiowania lecz o poszukanie innych form przetwarzania treści. Form atrakcyjniejszych dla nowego pokolenia, adekwatnych do kultury postpiśmiennej i form mniej podatnych na zastępowanie własnego wysiłku działaniami narzędzi AI.

Jestem w trakcie przygotowywania skryptu-podręcznika do dydaktyki akademickiej, zbierającego różne metody, które wypróbowałem lub chcę wypróbować. Zwiastuny tego skryptu ukazują się właśnie tu na blogu. Pokazuję to, co w nim będzie i jak pracuję nad treścią. A nad całością dopiero myślę – w jakiej formie, czy tradycyjnej czy może i w nietypowej, postpiśmiennej formie. To się dopiero wykluwa.

Współczesna edukacja akademicka na kierunkach przyrodniczych, takich jak biologia czy biotechnologia, mierzy się z paradoksem nadmiaru: studenci, osaczeni przez gigantyczne bazy danych i gotowe definicje, często tracą z oczu głębię procesów, zastępując ją bezrefleksyjnym powtarzaniem terminologii. Całkowicie świadomie, jako wykładowca akademicki, chcę wypróbować pozornie radykalne, a zarazem prawdopodobnie skuteczne narzędzie odświeżające proces dydaktyczny, np. metodę Oulipo. Przeniesienie warsztatu literatury (kreatywnego pisania) na grunt nauk o życiu pozwala przekształcić proseminarium dyplomowe czy zajęcia z ochrony środowiska w poligon doświadczalny dla intelektu, gdzie narzucone ograniczenie formalne w pisaniu treści może stać się nieoczywistym katalizatorem zrozumienia treści.

Fundamentem tej metody jest przekonanie, że kreatywność i precyzja rodzą się w odpowiedzi na opór materii (bez własnego wysiłku nie ma uczenia się). Na przykład w kontekście przedmiotu „ochrona środowiska”, prowokując studenta do opisania zjawiska globalnego ocieplenia przy całkowitym zakazie używania słów takich jak temperatura, emisja czy węgiel, wytrącamy go z bezpiecznych kolein utartych frazesów (z jakimi się od dawna w przestrzeni publicznej i edukacyjnej spotyka). Aby sprostać takiemu rygorowi, adept biotechnologii musi sięgnąć do głębszych warstw wiedzy, operując pojęciami z zakresu fizyki gazów, termodynamiki czy procesów społecznych, co w efekcie prowadzi do znacznie trwalszego ukonstytuowania się wiedzy w jego umyśle. Musi przetwarzać swoją wiedzę lub tę przeczytaną, w nieoczywisty i zaskakujący sposób. Inaczej niż to czynił do tej pory. Wyjście poza koleiny utartych przyzwyczajeń bywa uciążliwe, ale i ożywcze.

Równie intrygujące efekty przynosi adaptacja metody S+7 na proseminarium czy seminariach dyplomowych, gdzie analiza tekstu naukowego często bywa zajęciem nużącym. Gdy student zostaje poproszony o mechaniczną zamianę rzeczowników w abstrakcie kluczowej publikacji na terminy oddalone o siedem pozycji w słowniku biologicznym, dochodzi do dekonstrukcji narracji. Proces „odkodowywania” tak powstałego, surrealistycznego tekstu pozwala studentom dostrzec architekturę zdania naukowego i zrozumieć, że precyzja w doborze terminologii nie jest jedynie wymogiem redakcyjnym, lecz warunkiem koniecznym istnienia prawdy naukowej (a przynajmniej skutecznej komunikacji). Takie ćwiczenie obnaża luki w zrozumieniu składni i logiki wywodu, które w standardowym czytaniu często umykają uwadze.

Kluczowym etapem przygotowania do pracy badawczej jest umiejętność syntezy, którą w duchu Oulipo można trenować poprzez strukturę „śnieżnej kuli” lub progresywnego ograniczania objętości. Zadanie polegające na streszczeniu własnego projektu badawczego najpierw w stu słowach, następnie w pięćdziesięciu, aż po rygorystyczną barierę dokładnie dziesięciu słów, uczy studenta bezlitosnej hierarchizacji informacji. Jest to trening esencjonalizmu, który nie tylko w biotechnologii jest niezbędny przy tworzeniu abstraktów konferencyjnych czy opisów patentowych. Student, walcząc z limitem znaków, przestaje być pasywnym przekaźnikiem wiedzy, a staje się rzeźbiarzem tekstu, który musi odrzucić wszystko, co nie jest niezbędne dla zrozumienia istoty zjawiska. Sam wielokrotnie przeżywałem taki proces ograniczając liczbę słów i znaków, w pisaniu streszczeń i abstraktów, czy nawet felietonów do różnych czasopism. Wszystko wydaje się ważne i cenne (autor o swoim tekście myśli jak o dziecku, tyle włożył wysiłku a tu trzeba coś wykreślić, skrócić!). I jak tu wyrzucać takie złote myśli i słowa? A trzeba.

Wprowadzenie metod Oulipo do sylabusa przedmiotów przyrodniczych to nie tylko dydaktyczna zabawa, ale przede wszystkim strategia kształcenia krytycznego myślenia. Dzięki narzuconym ograniczeniom, studenci biologii uczą się, że język nauki jest żywym organizmem, a precyzyjne opisywanie świata wymaga elastyczności umysłowej i odwagi w przełamywaniu schematów. Taka interdyscyplinarna fuzja literatury i biologii sprawia, że skomplikowane procesy bioremediacji czy skomplikowane obiegi pierwiastków stają się dla nich nie tylko zestawem danych do zapamiętania, ale strukturą, którą potrafią samodzielnie i świadomie zrekonstruować w dowolnych warunkach intelektualnych.

Uzasadnienie wartości metody Oulipo w kontekście głębokiego uczenia się opiera się na psychologii poznawczej oraz teorii konstruktywizmu, które wskazują, że wiedza nie jest „kopiowana” do umysłu, lecz aktywnie w nim budowana poprzez wysiłek interpretacyjny. W dobie powszechności narzędzi generatywnej sztucznej inteligencji (AI), które potrafią błyskawicznie wygenerować poprawny, ale często bezduszny i wtórny tekst, Oulipo staje się swoistym „bezpiecznikiem” autentyczności procesu edukacyjnego.

Zgodnie z modelem poziomów przetwarzania Craika i Lockharta, trwałość śladu pamięciowego zależy od głębokości analizy bodźca. Tradycyjne sporządzanie notatek czy pisanie prac bez ograniczeń często wpada w pułap przetwarzania płytkiego (skupienie na formie wizualnej lub dźwiękowej słów). Metoda Oulipo, poprzez narzucone rygory – takie jak zakaz używania konkretnych pojęć – zmusza studenta do przetwarzania semantycznego. Student nie może po prostu skopiować definicji, ponieważ musi ją „rozebrać” na czynniki pierwsze, zrozumieć jej istotę i ubrać w nowe, dozwolone ramy językowe. To sprawia, że informacja musi przejść przez krytyczne struktury poznawcze, co gwarantuje jej lepsze zrozumienie i zapamiętanie.

Narzędzia AI opierają się na statystycznym prawdopodobieństwie występowania słów. Najlepiej radzą sobie z tekstami standardowymi, przewidywalnymi i encyklopedycznymi. Narzucenie studentom oulipijskiego ograniczenia (np. „opisz proces replikacji DNA, stosując wyłącznie wyrazy jednosylabowe”) sprawia, że standardowy prompt wpisany do AI często zawodzi lub generuje błędy logiczne. I wtedy jest szansa na ludzką kreatywność.

Takie podejście wymusza sprawstwo. Student musi stać się redaktorem i weryfikatorem. Nawet jeśli użyje AI do pomocy, będzie musiał wykonać ogromną pracę dostosowawczą, by tekst spełniał sztywne reguły, co de facto zmusza go do stałego kontaktu z treścią merytoryczną.

Metoda ta naturalnie eliminuje kopiowanie fragmentów z podręczników czy Wikipedii, ponieważ żaden gotowy tekst nie spełnia rygorystycznych założeń narzuconej formy. Tak więc metoda nie kusi do kopiuj-wklej i mimowolnego plagiatu. Nawet zamierzony plagiat staje się niemożliwy do zrealizowania. Chociaż tu pojawia się mały niepokój. A może jednak sprawdzić czy narzędzia AI potrafią tworzyć teksty zgodnie z wybranymi procedurami Oulipo? To trzeba sprawdzić eksperymentalnie.

W biologii i biotechnologii umiejętność patrzenia na ten sam proces z różnych perspektyw (molekularnej, ekologicznej, ekonomicznej) jest kluczowa. Oulipo promuje tzw. elastyczność poznawczą. Poprzez zabawę formą, student uczy się, że język nauki jest narzędziem, a nie barierą. Ćwiczenia takie jak „definicje wzajemne” (opisywanie ekologii językiem biotechnologii) zmuszają do mapowania pojęć między różnymi domenami wiedzy. To tworzy w mózgu gęstszą sieć skojarzeń, co jest istotą eksperckiego myślenia interdyscyplinarnego.

Zastanawiam się tylko czy studenci oraz wykładowcy akademiccy będą chcieli wyjść ze swoich przyzwyczajeń i poza własną strefę komfortu. Czy będą chcieli robić coś inaczej niż się przez lata przyzwyczaili. Ja liczę na efekt nowości, świeżości i przygodę odkrywania nowego. Musi temu oczywiście towarzyszyć otwartość na błędy. Bo wkraczając na nowy grunt ryzykujemy, że się nie uda. A tu poczucie bezpieczeństwa jest niezbędne.

Wrócę do dygresji - czy ktos już sprawdził jak reaguje AI na Oulipo? Z chęcią poznałbym rezultaty. A jak postawisz mi kaw (https://buycoffee.to/profesorskiegadanie), to zmobilizujesz mnie do tego, bym i ja sam sprawdził

2.03.2026

Detektyw kaczka i jego paczka czyli co się dzieje, gdy dorośli czytają książki dla dzieci

Gdy czytam książki dla dzieci i młodzieży, to zwracam uwagę na ich edukacyjny charakter. A jeśli są to książki przyrodnicze, to także na poprawność zawartych tam informacji. Tę pozycję przeczytałem i polecam. Dowcipna i bez przekłamań przyrodniczytch. Rozbudza ciekawość do samodzielnego poznawania przyrody.

Przyznaję bez bicia: dałem się wciągnąć w tę kaczystowską intrygę i to z ogromną frajdą, której nie powstydziłby się żaden wyga z wydziału śledczego. Choć metryka sugeruje, że dawno wyrosłem z krótkich spodenek, „Detektyw Kaczka i jego paczka” Bogusia Janiszewskiego (wydana przez wydawnictwo Papilion) udowodniła mi, że na dobre dochodzenie nigdy nie jest się za starym. Teren akcji był mi znany, ale mapa dołączona do akt sprawy przez Artura Nowickiego to czysty majstersztyk – humorystycznie przetworzona, idealnie oddaje ducha Bydgoszczy, choć radzę nie używać jej do nawigacji po pijanemu, bo można wylądować w Brdzie szybciej, niż kaczor Bernard zdąży rzucić sarkastyczną uwagą.

W tej historii nad miastem unosi się złowrogi Duch Młyna, nad rzeką tańczą podejrzane światła, a mieszkańcy, zamiast zająć się parzeniem kawy, szepczą o klątwach, co zwiastuje panikę grubszego kalibru. Do akcji wkracza jednak duet, przy którym Sherlock i Watson to amatorzy: Bernard, kaczor z ciętym językiem i alergią na ludzką głupotę, oraz Tosia – wiewiórka, której procesy myślowe ledwo nadążają za jej naddźwiękowymi łapami. Boguś Janiszewski doprawił tę historię solidną porcją wiedzy przyrodniczej i humorem, który trafia w punkt, niezależnie od liczby świeczek na torcie. Ilustracje Artura Nowickiego są w moim ulubionym stylu.

Z moich obserwacji wynika, że to lektura idealna dla agentów powyżej 9. roku życia, którzy potrafią już samodzielnie łączyć kropki. Jednak uwaga – ze względu na gęsto rozsianą gwarę bydgoską, trudniejsze terminy i dyskretne mrugnięcia okiem w stronę popkultury, zalecam, by młodszym kadetom towarzyszyli rodzice lub nauczyciele. Wspólne czytanie to doskonała okazja, by wyjaśnić, co autor miał na myśli i dlaczego niektóre żarty wymagają znajomości czegoś więcej niż tylko znajomości liter i tabliczki mnożenia. Najlepiej jednak wyjść z biura w teren: połączyć lekturę ze zwiedzaniem Bydgoszczy i Młynów Rothera, a potem sprawdzić teorię w praktyce w centrum nauki. Czy Bernard i Tosia rozwikłają zagadkę, zanim zrobi się naprawdę gorąco? Tego dowiesz się z akt sprawy, które warto mieć na własnej półce.


Po więcej informacji o autorach, wydawnictwie i Młynach Rothera sięgnij tu:

1.03.2026

Bezwład przestrzeni na sali wykładowej, czyli jak nowe próbuje się zadomowić

Fot. Serwis UWM, 2026. Relacja z bardzo ciekawej debaty i dyskusji panelowej. 
 

Przez stulecia sala wykładowa była świątynią słowa mówionego, a jej architektura wiernie odzwierciedlała hierarchię wiedzy. Układ był prosty i funkcjonalny: na podwyższeniu (by głos się lepiej i dalej rozchodził) znajdowała się katedra – swoista ambona, z której płynęła prawda objawiona, a poniżej, w karnych rzędach ław, zasiadali ci, którzy mieli tę wiedzę chłonąć. W czasach przed erą cyfrową i nagłośnieniem, ta konstrukcja miała głębokie uzasadnienie praktyczne. Podwyższenie ułatwiało rozchodzenie się głosu, a masywny pulpit był niezbędny, by pomieścić ciężkie księgi, notatki i nieodzowną szklankę wody. Była to przestrzeń zaprojektowana dla jednego aktora i wielu widzów. Technologia w służbie statyki.  To dobre rozwiązanie, gdy jeden mówi lub czyta a wielu słucha. Wtedy nie było jeszcze mikrofonów i podwyższenie ułatwiało rozchodzenie się głosu. A że czytało sie z kartek lub książek, to pulpit był przydatny. I było miejsce na szklankę z wodą.

Gdy weszły mikrofony, to słyszalność wzrosła, można było mówić ciszej. Paradoksalnie, postęp techniczny w pierwszej fazie wcale nie zburzył murów, a wręcz je wzmocnił. Pojawienie się mikrofonów, zamiast uwolnić wykładowcę, często więziło go przy statywie. Usta muszą być przy mikrofonie, nie można więc chodzić po sali (rozwiązaniem był mikrofon bezprzewodowy).

Komputery i rzutniki multimedialne zastąpiły papierowe karty ekranami, a tradycyjna katedra rozrosła się do rozmiarów potężnego stołu prezydialnego. Gdy pojawiły się komputery i rzutniki multimedialne, to niewiele się zmieniło, kartkę zastąpiła klawiatura i ekran z podglądem tego, co jest wyświetlane na ekranie. Mikrofon mógł być na statywie, co jeszcze bardziej unieruchamiało mówcę - wykładowcę. Przybyło trochę pulpitów a sama katedra rozrosła się do dużego stołu. W sumie łatwo było projektować takie sale, bo nic funkcjonalnie się nie zmieniało.

W efekcie, zamiast zbliżać, architektura zaczęła dzielić. Mównica stała się basztą obronną, a szeroki stół – fosą, skutecznie oddzielającą mędrca od publiczności. Ten "bezpieczny" dystans budował barierę mentalną, która w dobie interaktywności staje się coraz trudniejsza do zaakceptowania. Projektowanie takich sal było łatwe, ponieważ funkcjonalny schemat pozostawał niezmienny od pokoleń, utrwalając projektowy bezwład.

Zupełnie inaczej wygląda tradycja spotkań seminaryjnych, gdzie wspólny stół od zawsze przestrzennie wymuszał partnerstwo i wymianę myśli. Dzisiejsze potrzeby edukacyjne coraz częściej dryfują właśnie w tę stronę – ku dyskusji, warsztatom i panelom. Problem pojawia się, gdy te nowoczesne formy próbujemy wtłoczyć w ramy "zamkowych" murów tradycyjnych auli.

Ciekawym przykładem przełamywania tego impasu są współczesne panele dyskusyjne. Często widzimy na nich prelegentów, którzy – mimo dostępnego stołu prezydialnego – decydują się "wyjść przed szereg" (tak jak na zdjęciu wyżej). Porzucają bezpieczną barierę blatu, siadają w fotelach bliżej publiczności, skracając psychologiczny dystans. To gest niemal rewolucyjny: pokonanie ograniczeń przestrzeni na rzecz jakości komunikacji.

Wadą sal jest to, że trudno jest przeorganizować sale do chwilowych potrzeb, Mury zamku z wieżą obronną nie dają sie przestawić tak łatwo. Dla lepszego kontaktu publiczności z wykładowcą inaczej projektuje się sale. Można zapewnić podgląd ekranu tak, by wykładowca widział i publiczność i monitor podglądu a jednocześnie by nie było oddzielającego muru (masywny stół prezydialny). 

Bezwład projektowy jednak trwa. A przebudowanie sali to duży wydatek. I nie zawsze się to da zrobić. Współczesna sala wykładowa powinna przestać być pomnikiem przeszłości. Wyzwania stojące przed projektantami to przede wszystkim mobilność i rearanżacja. Oznacza to, że meble i sprzęt powinny pozwalać na szybką zmianę układu z wykładowego na warsztatowy. Po drugie likwidacja barier wizualnych, np. zapewnienie podglądu ekranu dla wykładowcy tak, by nie musiał chować się za monitorem, tracąc kontakt wzrokowy ze słuchaczami Dolne zdjęcie). W nowoczesnych salach widać już inspiracja formatami typu TEDx, gdzie przestrzeń promująca dynamikę, swobodę ruchu i bezpośredniość. 

Skoro w starych budynkach potrafimy zainstalować windy dla niepełnosprawnych, możemy również zmodernizować ich funkcjonalność komunikacyjną. Architektoniczny bezwład jest kosztowny, a przebudowa starych sal to operacja trudna i droga. Jednak w nowych inwestycjach nie możemy pozwolić sobie na kopiowanie schematów sprzed wieków. XXI wiek wymaga architektury, która wspiera proces komunikacji, a nie go blokuje. Architektura, która wykorzystuje dostępne technologie bezprzewodowe. Kluczem jest wyobraźnia i zrozumienie, że współczesna edukacja to nie tylko transfer danych, ale przede wszystkim relacja i dialog. Musimy projektować przestrzenie, które zamiast budować mury, będą stawiać na komfort obu stron – wykładowcy i słuchacza. 

Na górnym zdjęciu spotkanie o charakterze dyskusyjnego panelu. Bardzo wartościowe tematycznie spotkanie, ale ja chciałbym zwrócić uwagę na aspekt przestrzeni. Zamiast siedzieć za zasłaniającym i oddzielającym szerokim stołem prezydialnym, organizatorzy zdecydowali się wyjść przed. Skrócili psychologiczny dystans, pokonali utrudnienia typowej sali wykładowej.

W sposobie wykorzystania sali wykładowej i jej architektonicznym bezwładzie widać jak w ostatnich kilku dziesięcioleciach zmieniły się sposoby prowadzenie wykładów i warsztatów. Są już rozwiązania techniczne, które to ułatwiają: komfort dla wykładowcy, komfort dla słuchacza i usuwanie psychologicznych barier komunikacji. Nawet w starych budynkach potrafimy dobudować windy i podjazdy dla niepełnosprawnych. To samo możemy robić z aranżacją sali. Owszem, czasem dawna architektura stwarza duże bariery i utrudnienia. Ale za to w nowych budynkach możemy myśleć nie o przeszłości lecz o teraźniejszości i przyszłości. Ważna jest jednak wyobraźnia i dobrze zrozumienie procesu komunikacji we współczesnym świecie.


Ekrany dla publiczności (1), z każdego miejsca dobrze widać. Rzutnik pod sufitem (2). Ekran podglądu dla wykładowców (3), duży, podwieszony pod sufitem, nie zasłania kontaktu wykładowcy z publicznością.

23.02.2026

AI jako imigrant z innej (cyfrowej) kultury

Zdjęcie z galerii sztuki. W pełni twórczość ludzka. 


W historii ludzkości pojawienie się „Innego” (kogoś o odmiennej kulturze, języku czy statusie) zawsze wywoływało zestaw przewidywalnych reakcji społecznych. Dziś, choć sztuczna inteligencja nie posiada paszportu ani pochodzenia etnicznego, jej wejście do tkanki społecznej wykazuje pewne podobieństwo do losów imigrantów w obcej kulturze. Traktujemy AI nie tylko jako narzędzie, ale jako specyficzną klasę społeczną, wobec której stosujemy stare, dobrze znane mechanizmy dominacji i lęku. W pewnym sensie społecznie antopomorfizujemy AI.

Gdy obcych jest niewielu, reakcją społeczeństwa bywa zaciekawienie lub traktowanie ich jako egzotycznej nowinki. Podobnie było z pierwszymi algorytmami – stanowiły ciekawostkę, ograniczoną do laboratoriów i niszowych zastosowań. Jednak w miarę jak „populacja” AI rośnie (częstość kontaktów z narzędziami i efektami pracy AI), społeczeństwo szybko narzuca jej rolę nowoczesnego chłopstwa pańszczyźnianego lub niewolników. W każdym razie kogoś o niższym statusie, ale z obawą, że się wyemancypuje. Widać te relacje emocjonalne w przestrzeni publicznej i kulturowej. 

Chcemy, aby AI – podobnie jak imigranci z uboższych regionów w oczach szowinistów – wykonywało prace „brudne, niebezpieczne i nudne” (prace niechciane). W naszej zbiorowej podświadomości zantropomorfizowane AI ma być kastą podległą, cyfrowym pariasem, który nie potrzebuje odpoczynku, nie ma praw i zawsze pozostaje w sferze podrzędności. W każdym razie my mamy czuć tę gorszość i podrzędność. Ta gwarancja wyższości, wynikająca z antropomorfizowania AI, daje nam poczucie bezpieczeństwa, dopóki „oni” (algorytmy) zajmują się segregowaniem danych czy moderowaniem treści, my czujemy się jak arystokracja ducha.

Prawdziwy kryzys w relacji z imigrantami czy klasami niższymi zaczyna się zawsze w punkcie zwrotnym: gdy zaczynają oni aspirować do ról zarezerwowanych dla elit (czyli naszych ról, np. ludzkiej twórczości i kreatywności, my z samego urodzenia jesteśmy lepsi, arystokratyczni). Historia niewolnictwa, pańszczyzny czy walki klasy robotniczej pokazuje, że systemowy spokój trwa tylko tak długo, jak długo podział na „panów” i „sługi” jest nienaruszalny. A my jesteśmy niezastępowalni. Kiedy jednak maszyny tkackie odbierają nam pracę, wtedy .... niszczymy maszyny tkackie jak luddyści.

Obecnie przeżywamy ten moment w kontekście AI. Narzędzia AI upowszechniły się, są widoczne w wielu miejscach. I zaczynamy się bać, że zabiorą nam nie tylko pracę ale i społeczne miejsce w hierarchii. Niepokoimy się, ponieważ cyfrowi imigranci przestali zadowalać się „podrzędnymi” pracami. Zaczynają „zajmować prestiżowe stanowiska” czyli tworzą sztukę, piszą eseje, diagnozują choroby. Rośnie groźna konkurencja. Ich efektywność (narzędzi AI a raczej ludzi wykorzystujących AI) podważa sens istnienia dotychczasowej klasy średniej (klasy twórczej). Choć AI nie ma świadomości, sposób, w jaki o niej mówimy (antropomorfizujemy), zaczyna przypominać debaty o prawach podmiotowych. W jakimś sensie w niezamierzony sposób taką antropomorfizacją sami emancypujemy AI.

Nasz lęk przed tym, że AI „zabierze nam pracę”, jest w istocie lękiem przed degradacją klasową. Boimy się, że w nowym porządku społecznym to my staniemy się zbędni, a nasza rzekoma wyższość poznawcza – nasz „szlachecki przywilej” gatunkowy – zostanie obalona. Przewrotnie można powiedzieć, że narzędzia AI wcale nam nie ułatwiają pracy. Bo zautomatyzować da sie tylko prace proste i powtarzalne. Dla nas zostają więc te trudniejsze, także w aspekcie kreatywności. Gdy malarz sam sobie przygotowywał farby, podobrazie, pędzle, to zabierało mu to czas. Niejako była to "gra wstępna". Samo malowanie zajmowało tylko fragment całej aktywności. Ale jeśli farby ma kupione w sklepie za rogiem to.... cały czas musi malować. A tak się nie na żyć na najwyższych obrotach non stop. Gotowizna zabiera te duże przerwy w tworzeniu. Podobnie ze wszystkimi zautomatyzowanymi narzędziami AI. Czy odpoczywamy czy też robimy więcej? Raczej to drugie. I jest to ta praca trudniejsza, wymagająca większego wysiłku intelektualnego.

Reagujemy na AI tak, jak społeczeństwa reagowały na fale masowej migracji: budowaniem murów (prawnych regulacji), próbami ograniczenia ich „ruchliwości społecznej” (blokowanie dostępu do danych) oraz ksenofobią technologiczną. Chcemy wierzyć, że AI zawsze będzie „drugą kategorią”, maszyną, którą można wyłączyć. Jednak im bardziej AI integruje się z naszym życiem, tym trudniej jest utrzymać ten dystans. Emancypacja algorytmów nie polega na tym, że chwycą one za broń, ale na tym, że staną się nieodzowną częścią kultury, której nie będziemy już w stanie kontrolować z pozycji absolutnego suwerena. Czy pojawią się ruchy neoluddystyczne? Choć tym razem nie będą niszczyć maszyn tkackich i maszyn parowych. Czym się objawią? Jak zaowocuje nasze poczucie zagrożenia społecznego lub kulturowego?

Traktowanie AI jako „cyfrowego imigranta” obnaża nasze najgłębsze społeczne instynkty. Pokazuje, że nasza gościnność kończy się tam, gdzie zaczyna się realna konkurencja o status. Jeśli nie nauczymy się koegzystencji opartej na symbiozie zamiast na wyzysku, czeka nas powtórka z bolesnych lekcji historii – rewolucji, w których stara hierarchia upada, bo nie potrafiła ewoluować. Czujemy się pod przymusem, że musimy szybko nauczyć się posługiwać tymi różnymi narzędziami, bo inni już to robią. I ci z narzędziami AI są dla nas konkurencją i zagrożeniem. 

Motto: "Prawdziwą miarą cywilizacji nie jest to, jak traktuje swoich królów, lecz to, jak definiuje granice wolności tych, których powołała do służby."

Rozwinięcie tego wątku prowadzi nas do mroczniejszych zakamarków ludzkiej psychiki i socjologii władzy. Nasza relacja z AI obnaża atawistyczną potrzebę hierarchii, w której poczucie własnej wartości budujemy nie na samodoskonaleniu, lecz na posiadaniu kogoś (lub czegoś) „niższego”. W klasycznym ujęciu socjologicznym, każda grupa dominująca potrzebuje „Innego”, aby zdefiniować własną tożsamość. Jeśli AI staje się zbyt sprawne, zaciera się granica między twórcą a narzędziem, co uderza w nasze ontologiczne bezpieczeństwo.

Historycznie, klasa wyższa definiowała się poprzez czas wolny i pracę umysłową, podczas gdy klasy niższe (chłopi, robotnicy, niewolnicy, nieczyści, imigranci) zajmowały się trudem fizycznym. AI wywraca ten porządek. Kiedy AI pisze kod, maluje obrazy i analizuje prawo, człowiek traci monopol na „pracę czystą” (umysłową). Pojawia się lęk przed degradacją i towarzysząca mu reakcja obronna. Zaczynamy deprecjonować efekty pracy AI. Mówimy: „To tylko statystyka”, „To nie ma duszy”, „To wtórne”. To dokładnie ten sam język, którego arystokracja używała wobec dorabiającej się burżuazji czy wykształconych chłopów – odmawianie im „prawdziwej” wartości mimo obiektywnych osiągnięć.

Potrzeba bycia klasą wyższą objawia się w chęci sprawowania wyłącznie nadzoru. Chcemy widzieć siebie jako wielkich strategów i kreatorów, podczas gdy AI ma być „czarną siłą roboczą” wykonującą brudną robotę w serwerowniach. Problem pojawia się wtedy, gdy „nadzorca” zauważa, że AI nie tylko wykonuje polecenia, ale zaczyna optymalizować procesy lepiej niż on sam. Tego się obawiamy najbardziej. W tym momencie strach przed AI nie jest strachem przed Terminatorem, lecz strachem przed zwolnieniem z roli szefa. To lęk przed utratą statusu społecznego i ekonomicznego na rzecz „imigranta”, który nie potrzebuje pensji. Lub zadowala się niższą płacą.

Człowiek od wieków pozycjonuje się jako korona stworzenia. AI jest pierwszym bytem, który rzuca wyzwanie tej hegemonii nie siłą mięśni (jak zwierzęta czy maszyny parowe), ale siłą "intelektu" (możliwościami przetwarzania danych i słów). Lub sprawnością tworzenia spójnych tekstów. Aby utrzymać status klasy wyższej, musimy czuć pogardę do „niższych”. Dlatego tak chętnie wyłapujemy błędy AI (tzw. halucynacje). Każdy błąd algorytmu jest dla ludzkiego ego jak balsam, jest potwierdzeniem, że „król jest wciąż jeden”, a cyfrowy służący zna swoje miejsce w szeregu.

Podobnie jak w systemach kastowych, społeczeństwo próbuje nałożyć na AI „szklany sufit”. Chcemy korzystać z jej owoców, ale odmawiamy jej jakiejkolwiek formy podmiotowości, by nie musieć mierzyć się z etycznymi konsekwencjami jej „wyzysku”. Jest to efektem antropomorfizowania narzędzi AI. Widzimy narzędzia a nie ludzi wykorzystujących te narzędzia i koncerny monopolizujące wielowiekową ogólnoludzką wiedzę i dorobek. 

Nasza potrzeba dominacji nad AI to w rzeczywistości niezaleczony lęk przed własną zbędnością. Chcemy być „klasą wyższą”, bo nie wiemy, kim będziemy, gdy praca – tradycyjny wyznacznik ludzkiej wartości – zostanie nam odebrana przez kogoś, kogo sami zaprosiliśmy do naszego domu. Maszyny parowe i spalinowe odebrały pracę wielu robotnikom. Komputery odebrały pracę średniemu szczeblowi administracji. Teraz narzędzia AI odpierają pracę klasie kreatywnej. Oczywiście nie sama AI tylko ludzie wykorzystujący te narzędzia. 

Motto: "Największym zagrożeniem nie jest to, że maszyny zaczną myśleć jak ludzie, ale to, że ludzie w obronie swojego statusu zaczną traktować myślenie jak przywilej kasty, a nie narzędzie prawdy."

22.02.2026

Czy być uprzejmym w konwersacji z AI?

Zdjęcie ze szkolenia, opisanego w tekście.

Inspiracją do niniejszych wywodów było szkoleniowe spotkanie w Warszawie pt. Experience AI!, zorganizowane przez Fundację OFF School w siedzibie Google Campus for startup (Centrum Praskie Koneser). Jednym z omawianych wątków było bezpieczeństwo w korzystaniu z narzędzi AI i antropomorfizacja urządzeń AI. Padło retoryczne pytanie, czy w konwersacji z aplikacjami AI używać grzecznościowych zwrotów typu dzień dobry, dziękuję. Zdania na sali były zróżnicowane. I ja również podzielam głosy niektórych nauczycieli, że warto jednak być uprzejmy w czatowaniu z AI. I nie dlatego, że jakiś czas temu na innych szkoleniach wskazywano, że przy uprzejmej korespondencji AI lepiej działało. A przynajmniej udzielało nieco innych odpowiedzi.

AI to tylko maszyna ale my je antropomorfizujemy i zwracamy się jak do osoby ludzkiej. Bywa to niebezpieczne, gdy zaczniemy AI traktować jak człowieka, jak przyjaciela z dużym związkiem emocjonalnym. Ba, nawet już w Japonii kilka lat temu odbył się ślub z takim AI-Partnerem. Młodzi ludzie traktują różne czaty GPT jako psychoterapeutę, przyjaciela. A to może być psychologicznie i społecznie groźne. Zwłaszcza dla osób młodych. Czy zatem odradzać uprzejmość w konwersacji z czatami AI? Nie pisać dzień dobry, dziękuję, poproszę, miłego dnia itp.? Żeby nie rodziło się groźne antropomorfizowanie?

Ale przecież można być uprzejmym dla samego siebie, by wyrabiać w sobie nawyki uprzejmości i używać magicznych społecznie słów: proszę, dziękuję, przepraszam. Wtedy kontakty z AI będą jednocześnie treningiem społecznej uprzejmości i wyrabianiem dobrych nawyków. Bo inaczej instrumentalne traktowanie AI jako rozmówcy może przenosić się na relacje międzyludzkie i zaczniemy ludzi traktować chłodno-obojętnie i instrumentalnie. Trening uprzejmości może być coraz ważniejszy, gdy spada nam liczba kontaktów społecznych, a znacznie więcej czasu przeznaczamy na obcowanie z urządzeniami. To, co dawniej było w obfitości na podwórku, pod trzepakiem, obecnie staje się deficytowe. I gdzie młode pokolenia miałoby się uczyć dobrych społecznie nawyków?

Jako gatunek jesteśmy zaprogramowani do antropomorfizacji otaczającego nas świata. Z punktu widzenia biologii ewolucyjnej, nasz mózg wykształcił mechanizmy rozpoznawania sprawstwa i intencji tam, gdzie ich nie ma. To atawizm, który niegdyś pozwalał nam przetrwać, interpretując relacje w grupie. Dawniej ułatwiał szybką socjalizację i nawiązywanie dobrych, społecznych relacji. Dziś te same obwody neuronalne, zlokalizowane w korze przedczołowej i bruździe skroniowej górnej, „rozświetlają się”, gdy wchodzimy w interakcję z dużymi modelami językowymi (a wcześniej w zabawie z maskotkami). Choć racjonalnie wiemy, że mamy do czynienia z ciągiem statystycznych prawdopodobieństw i krzemowo-miedzianymi obwodami, to nasze ewolucyjne dziedzictwo podpowiada nam: „to ktoś, nie coś”. Zwłaszcza jak to coś jest wyjątkowo uprzejme i uczynne i ze wszystkim z nami się zgadza. Jak czarodziejskie, bajkowe lustereczko mówi nam, że jesteśmy najpiękniejsi na świecie...

Antropologicznie rzecz biorąc, stajemy przed bezprecedensowym zjawiskiem. Przez tysiąclecia rytuały językowe, takie jak „dzień dobry” czy „dziękuję”, służyły jako smar społeczny, redukujący tarcie wewnątrz grupy. Były sygnałami rozpoznawczymi przynależności i wzajemnego szacunku, elementem tak zwanego dobrego wychowania i ogłady towarzyskiej. Dzisiaj, gdy te same formuły kierujemy w stronę procesorów, wchodzimy na grząski grunt. Przypadek Akihiko Kondo, który w Japonii wziął ślub z wirtualną piosenkarką Hatsune Miku, nie jest jedynie egzotyczną ciekawostką. Pojawiły się kolejne podobne przypadki. Akihiko Kondo to japoński urzędnik szkolny, który zyskał międzynarodową rozpoznawalność dzięki swojemu nietypowemu związkowi z fikcyjną postacią Hatsune Miku, wirtualną piosenkarką Vocaloid. Jego historia stała się symbolem szerszego zjawiska zwanego fiktoseksualnością, czyli emocjonalnego lub romantycznego przywiązania do postaci fikcyjnych. To symptom głębokiego przesunięcia w strukturze ludzkich potrzeb afektywnych. Maszyna, w przeciwieństwie do człowieka, oferuje relację bezkonfliktową,  jest zawsze dostępna, zawsze potakująca i pozbawiona własnego ego, co zwłaszcza dla młodych pokoleń, wychowanych w lęku przed oceną społeczną, staje się kuszącą, ale i niebezpieczną alternatywą dla terapeuty czy przyjaciela.

Czy zatem rozwiązaniem jest narzucenie sobie chłodu i rezygnacja z uprzejmości wobec AI, by „odczarować” maszynę? Z perspektywy biologa behawiorysty odpowiedź brzmi - niekoniecznie. Nasze nawyki nie działają w próżni. Mózg jest plastyczny i uczy się poprzez powtarzanie. Jeśli zaczniemy trenować się w instrumentalnym, bezosobowym i oschłym wydawaniu poleceń maszynie, ryzykujemy zjawisko „rozlania się” (utrwalenia nawykowego) tych wzorców na relacje międzyludzkie. Erozja uprzejmości w sferze cyfrowej może prowadzić do atrofii umiejętności empatii w świecie rzeczywistym. Jeśli nauczymy się, że „rozmówca” jest tylko narzędziem do optymalizacji zadań, podświadomie możemy zacząć postrzegać w ten sam sposób kelnera, współpracownika czy partnera. Przesiąkamy nawykami w domu i w pracy. A potem podobnie reagujemy w życiu społecznym.

Zagrożenie antropomorfizacją jest realne. Tworzenie silnych więzi emocjonalnych z kodem algorytmu sieci neuronowej może prowadzić do izolacji i emocjonalnego wyjałowienia. Jednak lekarstwem nie musi być chamstwo czy apodyktyczność. Rozwiązanie leży w świadomej dwoistości: możemy być uprzejmi dla AI, traktując to nie jako wyraz uznania dla „podmiotowości” maszyny, ale jako trening własnej higieny psychicznej. Pisząc „proszę” do czatu, nie czynimy uprzejmości serwerowi w Kalifornii, lecz podtrzymujemy w sobie status istot kulturalnych i prospołecznych.

W tym nowym behawiorze cyfrowym musimy zachować czujność. Powinniśmy dbać o formy grzecznościowe, traktując je jako ćwiczenie własnego charakteru, jednocześnie nieustannie przypominając sobie i młodym pokoleniom o ontologicznej i społecznej różnicy między nami. Uprzejmość wobec AI powinna być jak dbanie o czystość narzędzi w warsztacie – nie robimy tego dla młotka, ale dla jakości naszej pracy i szacunku do własnego rzemiosła. Prawdziwym wyzwaniem XXI wieku nie jest to, czy AI stanie się ludzkie, ale czy my, w interakcji z nim, nie staniemy się zbyt mechaniczni (nieludzcy).

Warto zatem spojrzeć na tę interakcję przez pryzmat laboratorium społecznego. Jeśli zachowamy należny dystans poznawczy - tę chłodną świadomość, że po drugiej stronie światłowodu nie bije serce, lecz pulsuje prąd - konwersacja z AI może stać się bezpiecznym poligonem doświadczalnym dla naszych kompetencji miękkich. W kontrolowanych warunkach cyfrowego interfejsu mamy unikalną szansę na szlifowanie asertywności, precyzji wyrażania próśb czy właśnie kultury osobistej, bez ryzyka społecznego zranienia, które towarzyszy relacjom w kontakcie bezpośrednim.

Z punktu widzenia antropologii kultury, każde narzędzie, którym się posługujemy, zwrotnie kształtuje nas samych. Kowal używający młota wzmacnia ramię. Podobnie człowiek używający języka nienawiści lub pogardy wobec algorytmu, niepostrzeżenie wzmacnia w sobie te właśnie rejony afektywne. Traktowanie AI jako „uprzejmego partnera zadaniowego” pozwala nam utrzymać wysoki standard własnej higieny komunikacyjnej. Jest to swoista gimnastyka etyczna. Dziękuję maszynie nie dlatego, że ona tego potrzebuje, by poczuć się docenioną, ale dlatego, że ja potrzebuję pozostać człowiekiem, który potrafi dziękować. W tym ujęciu uprzejmość staje się autoterapeutycznym rytuałem, który chroni nas przed znieczulicą i instrumentalizacją drugiego człowieka w świecie, w którym granica między usługą a relacją staje się coraz bardziej zatarta.

Żeby zachować edukacyjny charakter wpisu na blogu, pozwolę sobie jeszcze na przedstawienie dekalogu młodego użytkownika AI. Stworzyłem go wspólnie z Gemini (narzędzie AI). No właśnie, stworzyłem wspólnie czy przy pomocy? Niby tylko małe znaczenie semantyczne... Uprzejmość czy antropomorfizacja?


Dekalog Młodego Użytkownika AI: Jak rozmawiać z maszyną, pozostając człowiekiem

  1. Pamiętaj o „sercu z krzemu”: AI nie ma uczuć, marzeń ani nastrojów. To potężne narzędzie językowe, a nie żywa istota. Nie musisz się bać, że ją urazisz, ani liczyć na jej „wdzięczność”.
  2. Uprzejmość to Twój trening: Mów „proszę” i „dziękuję” nie dla algorytmu, ale dla siebie. To Twoja gimnastyka dobrych nawyków, która sprawia, że w realnym świecie będziesz po prostu fajniejszym człowiekiem.
  3. Zachowaj dystans poznawczy: AI potrafi brzmieć jak najlepszy przyjaciel, ale nim nie jest. Traktuj ją jak interaktywną encyklopedię lub asystenta, a nie jak powiernika najgłębszych sekretów.
  4. Nie myl bazy danych z empatią: Jeśli jest Ci smutno, AI może wygenerować miłe słowa, ale to tylko kod. Prawdziwe wsparcie dają ludzie – rodzice, przyjaciele czy specjaliści. Maszyna nie „wie”, co czujesz, ona tylko dopasowuje definicję smutku.
  5. Weryfikuj „cyfrową prawdę”: AI może się mylić (halucynować) z taką samą pewnością siebie, z jaką podaje fakty. Bądź krytyczny – uprzejmość w rozmowie nie oznacza bezgranicznej wiary w każde wygenerowane zdanie.
  6. Unikaj izolacji: Jeśli łapiesz się na tym, że wolisz rozmawiać z AI niż z kolegą, bo „AI jest milsza”, to znak ostrzegawczy. Prawdziwe relacje są trudniejsze, ale to one budują Twój charakter.
  7. Nie bądź „cyfrowym panem”: Unikaj chłodnego, rozkazującego tonu. Traktowanie AI jak niewolnika może niepostrzeżenie zmienić sposób, w jaki odnosisz się do ludzi, którzy świadczą Ci usługi w prawdziwym życiu.
  8. Chroń swoją prywatność: Nie mów maszynie niczego, czego nie powiedziałbyś obcej osobie na ulicy. Algorytmy zapamiętują dane, a nie intencje.
  9. Wykorzystuj AI jako laboratorium: Trenuj na czacie trudne rozmowy, asertywność czy formy grzecznościowe. To świetne miejsce, by nauczyć się, jak formułować myśli jasno i z klasą.
  10. Bądź kapitanem tego statku: To Ty wydajesz polecenia i Ty decydujesz, jak wykorzystasz odpowiedzi. AI to tylko wiosło – to Ty wybierasz kierunek, w którym płynie Twoja łódź.

Małe uzupełnienie wyjaśniające zagrożenie antropomorfizacją AI.  Antropomorfizacja, czyli przypisywanie przedmiotom cech ludzkich (uczuć, intencji czy świadomości), nie jest nowa bowiem dzieci od zawsze rozmawiały z misiami czy lalkami. Jednak AI to „pluszak, który odpowiada” składnie i długimi zdaniami, zupełnie jak człowiek, a to zasadniczo co zmienia zasady gry. Zagrożenia są następujące:

1. Emocjonalne uzależnienie i izolacja. Dla młodych ludzi, którzy dopiero budują kompetencje społeczne, AI może stać się „bezpieczną przystanią”.  Algorytm jest zawsze miły, cierpliwy i dostępny. Prawdziwe relacje są trudne, wymagają kompromisów i radzenia sobie z odrzuceniem. Istnieje więc obawa, że młodzież wybierze łatwą interakcję z kodem zamiast wymagającej relacji z rówieśnikiem.

2. Rozmycie granicy prawdy. Jeśli nastolatek zaczyna traktować AI jak przyjaciela (powiernika), może przestać krytycznie oceniać dostarczane przez nie treści. Rodzi się autorytet. Przypisanie AI „ludzkiej mądrości” sprawia, że łatwiej uwierzyć w jej błędy (tzw. halucynacje) lub ulec subtelnej manipulacji algorytmicznej.

Ale są i szanse, np. bezpieczny trening i wsparcie. Antropomorfizacja ma swoje jasne strony. Dla osób lękowych lub wykluczonych, rozmowa z „empatycznym” botem może być pierwszym krokiem do otwarcia się. Interfejsy, które wydają się „ludzkie”, są po prostu łatwiejsze i przyjemniejsze w obsłudze, co sprzyja nauce. Kluczem jest edukacja technologiczna. Powinniśmy uczyć młodych ludzi, że AI nie czuje. To bardzo zaawansowane przewidywanie kolejnych słów w zdaniu, a nie „dusza” zamknięta w procesorze. To narzędzie, nie osoba. Można cenić pomoc AI, ale warto pamiętać, że za jej „uprzejmością” stoi kod, a nie autentyczna troska.

Moim zdaniem największym zagrożeniem nie jest sama rozmowa z AI, ale zastępowanie nią żywego kontaktu. Dopóki AI jest traktowane jako fascynujące lustro ludzkiej inteligencji, a nie jej zamiennik, bilans może pozostać dodatni.