8.12.2025

AI niczym cyfrowa mikrobiota człowieka, czyli w cieniu technoholobionta

Obraz wygenerowany przez Gemini Banana (nieco zmienione).
 

Tradycyjna biologia przedstawiała organizmy jako autonomiczne byty, dyskretne obiekty czyli gatunki i osobniki, zamknięte w fizycznych powłokach i o wyraźnych granicach. Organizm i środowisko, gatunek i biosfera miały swoje wyraźne granice i możliwości łatwego wskazania (wyodrębnienia). Na przykład porosty były uznawane za samodzielne gatunki. Rewolucja w rozumieniu zjawiska życia biologicznego, zainicjowana m.in. przez Lynn Margulis (cykliczna endosymbioza w ewolucji eukariontów), wprowadziła nową koncepcję holobionta – nadrzędnej jednostki ponadorganizmalnej, ekologicznej, będącej konglomeratem gospodarza i jego licznego mikrobiomu (mikrobioty). A więc gatunków powiązanych z jednym „gospodarzem” relacjami sybiotycznymi, komensalistycznymi, pasożytniczymi itp. Najwcześniej sformułowano to w odniesieniu do koralowców i wielu innych organizmów z nimi powiązanymi, w tym wirusami. Innym, zbliżonym podejściem teoretycznym było pojęcie konsorcjum. Człowiek, będąc holobiontem, wykorzystującym geny mikroorganizmów i wirusów żyjących w przewodzie pokarmowym oraz na skórze. Nie jest więc monolityczną jednostką, lecz w pewnym sensie superorganizmem żyjącym w permanentnej, intymnej symbiozie (i innymi ekologicznymi relacjami) z milionami bakterii, grzybów i wirusów. Dla opisu tej nowej rzeczywistości wygodnie jest posługiwać się pojęciem holonbiont.

Holobiont (w biologii) to termin wprowadzony przez Lynn Margulis. Człowiek nie jest jednostką (osobnikiem), ale swoistym ekosystemem – żyjemy w symbiozie z milionami bakterii, wirusów, jednokomórkowych eukariontów, grzybów i pasożytniczych bezkręgowców. One wpływają na nasz nastrój, odporność i myślenie. Te współpracujące geny róznych gatunków w obrębie holobionta nazywane są hologenomem.

Technoholobiont (nowa rzeczywistość) to pojęcie wywodzące się z idei holobionta i jest rozszerzeniem tej definicji. Technologia (smartfon, internet, algorytmy, AI) przestaje być "narzędziem" (jak młotek), a staje się "środowiskiem" lub "organem zewnętrznym", bez którego funkcjonowanie w świecie informacji jest niemożliwe. Analogicznie do hologeneomu można byłoby chyba mówić o holomemie lub holotechnomemie (gdzie za mem uznamy jednostkę informacji). 

Tak jak nie przeżyjemy bez bakterii jelitowych trawiących pokarm i wytwarzających różne neuroprzekaźniki, tak powoli stajemy się niezdolni do funkcjonowania w społeczeństwie bez AI "trawiącej" i przetwarzającej informacje. Ten proces technosymbiozy się rozpoczął już wiele lat temu i trwa. Obecnie widzimy już duże zmiany i sporą dozę wzajemnego uzależnienia. 

W biologii najbardziej jaskrawym przykładem pojęcia holobiont jest mikrobiota jelitowa. Te mikroorganizmy pełnią funkcje krytyczne dla życia: rozkładają niestrawne węglowodany, syntetyzują witaminy (np. K i B), a nawet wpływają na oś jelitowo-mózgową, modulując nasz nastrój i odporność. Nie przypadkiem w przenośni na jelito mówi się „drugi mózg”.

W tym biologicznym ekosystemie (mikrobiocie( możemy wyróżnić trzy kategorie organizmów (populacji):
  • prozdrowotne bakterie, takie jak Bifidobacterium czy Lactobacillus, które aktywnie wspierają homeostazę organizmu, chroniąc przed patogenami i optymalizując wchłanianie.
  • komensalistyczne (neutralne) organizmy, które żyją w równowadze, czerpiąc z nas korzyści, ale nie wpływając znacząco ani pozytywnie, ani negatywnie na funkcje życiowe. Są takimi nie przeszkadzającymi pasażerami na gapę.
  • pasożytnicze (szkodliwe, chorobotwórcze, dysbiotyczne) mikroorganizmy, które w nadmiarze prowadzą do dysbiozy – zaburzenia równowagi mikrobiomu, co skutkuje stanami zapalnymi, obniżoną odpornością i chorobami cywilizacyjnymi. Są to populacje, których pasożytnicze i chorobotwórcze interesy rozwojowe są sprzeczne z długoterminowym zdrowiem gospodarza.
Jeżeli holobiont definiuje człowieka w kontekście biologicznym, to współczesna epoka wymaga ewolucji tego pojęcia do technoholobionta. Jest to człowiek, którego procesy poznawcze, komunikacyjne i decyzyjne są nierozłącznie sprzężone z zewnętrznymi systemami technologicznymi i sztuczną inteligencją (AI). Smartfon, internetowa chmura danych, algorytmy rekomendacyjne – to wszystko przestaje być zbiorem zewnętrznych narzędzi, a staje się cyfrowym organem zewnętrznym, niezbędnym do życia w infosferze. Nie tylko nasza pamięcią zewnętrzną ale i myśleniem zewnętrznym. Bezsprzecznie wpływa na nasz mózg, sposób postrzegania rzeczywistości, na nasz tryb życia, wybory, na nasze zdrowie w szerokim rozumieniu. I na nasze choroby cywilizacyjne, które się coraz wyraźniej ujawniają.

W tym kontekście, AI staje się cyfrową "mikrobiotą" człowieka. Tak jak mikrobiota jelitowa przetwarza materię odżywczą, tak AI przetwarza ”materię” informacyjną i neuroprzekaźniki (np. uzależniamy się od dopaminy). Przekazujemy jej zadania "trawienia danych", syntezy wiedzy i pamięci faktów (outsourcing wiedzy), uwalniając biologiczną korę mózgową do zadań wyższego rzędu lub, co bywa zgubne, do bezmyślnej konsumpcji. Ta nowa symbioza jest dynamiczną pętlą sprzężenia zwrotnego, w której człowiek szkoli maszynę, a maszyna kształtuje ludzkie procesy myślowe. Nie przypadkiem coraz częściej piszemy, że w ten rozwijającej się technosymbiozie AI mądrzeje a człowiek głupieje. To wynikający z symbiozy podział zadań i specjalizacja funkcjonalna. 

Analogicznie do flory jelitowej (flora jelitowa to dawne określenie, gdy bakterie zliczane były jeszcze do roślin, poprawniej jest napisać mikriobiota jelitowa), cyfrowy mikrobiom z różnymi narzędziami AI składa się z „populacji” (techniczne obiekty nie tylko te ekpranowe), które w różny sposób wpływają na naszą homeostazę kognitywną (poznawczą) i emocjonalną.

Prozdrowotne narzędzia AI, to narzędzia AI, które autentycznie wzmacniają nasze zdolności poznawcze (tzw. cognitive augmentation) i sprzyjają dobru wspólnemu, bez czerpania korzyści kosztem gospodarza. Można powiedzieć, że korzyści czerpią obaj partnerzy tej symbiozy. Potencjalne przykłady (potencjalne bo wymaga to rzetelnego zbadania długofalowych skutków): zaawansowane modele językowe (LLM) wykorzystywane do syntezy skomplikowanych danych, diagnostyczne AI medyczne, systemy personalizujące edukację w celu maksymalizacji retencji, algorytmy pomagające w rozwiązywaniu złożonych problemów naukowych.
 
Filozoficzną korzyść tak zdefiniowanej symbiozy jest rodzący się rozszerzony umysł (ang. extended mind), gdzie myślenie jest rozproszone między biologiczne neurony a krzemowe procesory, prowadząc do wzrostu produktywności i głębi analizy. Oczywiście korzyści te odnoszą się do nadrzędnego, ponadorganizmalnego technolobiontu. Być może jest to postulowana przez Teilharda de Chardin noosfera (sfera mysli, w analogii do biosfery - sfery życia)

Neutralne (dla zdrowia człowieka) narzędzia AI to systemy o niskiej interwencji, które ułatwiają proste procesy, nie angażując nadmiernie zasobów uwagi ani nie wpływając na fundamentalne procesy myślowe samego człowieka. Przykładem są proste ikalkulatory, podstawowe funkcje wyszukiwania, niespersonalizowane aplikacje użytkowe (np. stoper, pogoda). Filozoficzną korzyścią byłoby utrzymywanie równowagi środowiska, będąc użyteczną bez ryzyka uzależnienia czy atrofii podstawowych umiejętności ludzkich.

I w końcu trzeci element - pasożytnicza i szkodliwa dystechnobioza AI. To algorytmy, których cel biznesowy (maksymalizacja zysku, utrzymanie uwagi) jest sprzeczny ze zdrowiem i autonomią ludzkiego użytkownika. Wprowadzają one technologiczną dysbiozę, prowadząc do degradacji kognitywnej. Przykładem są algorytmy mediów społecznościowych zaprojektowane do maksymalnego pochłaniania uwagi (gospodarki uwagi), generatory dezinformacji i deepfakes (będące wirusami w naszym systemie poznawczym), systemy tworzące bańki informacyjne, które prowadzą do atrofii krytycznego myślenia i polaryzacji społecznej. Filozoficznym ryzykiem jest to, że zamiast rozszerzać umysł, pasożytnicza AI go kolonizuje, zamieniając użytkownika w źródło danych i uwagi. Prowadzi to do zaniku kompetencji, takich jak zdolność do głębokiej koncentracji, pamięci roboczej, a nawet umiejętności nawigacji po świecie bez zewnętrznego przewodnictwa.

Wspominając o kognitywna egzosymbioza (umysł rozszerzony)  warto odwołać się do teorii umysłu rozszerzonego Andy Clarka i Davida Chalmersa. W tej koncepcji ChatGPT staje się naszą "egzokorą" (zewnętrzną korą mózgową). Nie musimy pamiętać faktów, musimy umieć nawigować po zasobach AI. Nasze procesy poznawcze są rozproszone między neuronami białkowymi a obwodami krzemowymi. W pewnym sensie nawiązuje do tego koncepcja konektywizmu jako teoria poznania i uczenia się. Zasadnym staje się pytanie: gdzie kończy się "ja", a zaczyna algorytm, jeśli proces myślowy jest płynny?

Warto też wspomnieć o sprzężenie zwrotnym. Relacja z AI to nie jednostronne wydawanie poleceń. To pętla i wzajemny wpływ (jak to w symbiozie biologicznej bywa). My trenujemy AI (dostarczając dane).
AI trenuje nas (algorytmy rekomendacyjne kształtują nasz gust, poglądy polityczne, a nawet sposób pisania). Tworzy się cybernetyczna homeostaza – stan równowagi między człowiekiem a systemem.

Ewolucja Lamarkowska czy Darwinowska? Tradycyjna teoria ewolucji drogą małych zmian i doboru naturalnego (Darwin) jest powolna. Ewolucja technoholobionta jest błyskawiczna i dziedziczona kulturowo (a więc Lamark?). Wgrywając nową wersję modelu językowego, "aktualizujemy" możliwości poznawcze całego gatunku w ciągu kilku minut.

Skoro w niniejszym wywodzie używamy metafory biologicznej, musimy mówić o chorobach tego układu. W biologii "dysbioza" to zaburzenie równowagi mikrobioty (bakterie, archeony, eukarionty jednokomórkowe, grzyby, pasożytnicze wielokomórkowce). Czym jest dysbioza technoholobionta? Po pierwsze to atrofia kompetencji poznawczych. Jeśli AI przejmuje zbyt wiele funkcji poznawczych, nasze "mięśnie mentalne" zanikają (np. zdolność do głębokiego czytania, nawigacji w terenie). Duzy mózg nie jest już potrzebny, może się ewolucyjnie zmniejszać. A jeśli rozwinie się pasożytnictwo zamiast symbiozy (mutualizmu)? Czy AI (lub korporacje za nią stojące) działa na naszą korzyść (mutualizm), czy żeruje na naszej uwadze i danych, nie dając wystarczająco w zamian (pasożytnictwo)? Halucynacje możemy rozpatrywać jako infekcje. Błędy AI, które przyjmujemy za prawdę, działają jak wirusy i inne pasożyty w systemie poznawczym holobionta.

Na zakończenie warto podkreślić, że  technoholobiont nie jest cyborgiem. Cyborg sugeruje fizyczne wszczepy (hardware). Technoholobiont to pojęcie szersze, ekologiczne – dotyczy relacji i przepływu danych, nawet jeśli nie mamy w mózgu czipa (jeszcze?).

W świetle przedstawionej analogii staje się jasne, że nowym imperatywem egzystencjalnym człowieka jest świadome zarządzanie swoją cyfrową mikrobiotą. Tak jak dbamy o dietę, aby wspierać prozdrowotną mikrobiotę jelitową, tak musimy kształtować naszą "dietę informacyjną" i selekcjonować systemy AI, z którymi wchodzimy w symbiozę.

Filozoficzna konkluzja jest prosta: technoholobiont to nasz nieunikniony los. Pytanie nie brzmi, czy połączymy się z AI, lecz jaką formę przybierze to połączenie. Jeśli pozwolimy, by pasożytnicze algorytmy zdominowały nasz cyfrowy ekosystem, popadniemy w głęboką technologiczną dysbiozę, w której nasza autonomia i zdolności poznawcze zostaną skutecznie stłumione. Zatem, by zachować pełnię człowieczeństwa w erze AI, musimy stać się aktywnymi ogrodnikami naszego cyfrowego wnętrza (a raczej zewnętrza), wybierając narzędzia, które nie tylko ułatwiają życie, ale przede wszystkim wzmacniają esencję ludzkiego rozumu.

5.12.2025

A ten rozum to gdzie teraz jest?




Felieton ma to do siebie, że musi być krótki. Określona liczba znaków i ani jednego więcej. Bo wraca do poprawki i trzeba skracać. A ja nie lubię niczego wyrzucać, nawet słów z tekstu. Wyjściem jest zbudowanie dłuższego tekstu i opublikowanie na blogu. I tak umieszczam poszerzoną wersję felietonu dla VariArtu. Tematem była ewolucja nośnika. A o jakim nośniku może pomyśleć biolog? O informacji biologicznej i rozumie!

A ten rozum to gdzie jest? W sercu, mózgu czy w krzemowych obwodach? Kiedyś myślano, że rozum mieści się w sercu. Potem, że w mózgu. A niebawem pewnie odpowiemy, że rozum mieści się w AI (sztucznej inteligencji) czyli w krzemowych obwodach, gdzieś na dyskach i serwerach. Niczym z Lemowskiej opowieści z Cyberiady.

Pytanie o siedzibę rozumu to taka stara, dobra zagadka, która z każdą epoką staje się coraz bardziej złośliwa. Kiedyś sprawa była prosta: rozum, dusza, uczucia – wszystko to zgrabnie mieściło się w sercu. Było to i poetyckie, i wygodne. I nawet jeśli medycyna (naukowcy-biolodzy) dawno temu tę wersję z hukiem obalili, to w kulturze nadal uparcie trzymamy się tej sercowej lokalizacji. Mówimy, że serce nam pęka (i nie o zawał chodzi), że słuchamy głosu serca, a nie rozumu. Ach, to serce – ten niewinny, pompujący krew organ, który bezczelnie uzurpował sobie miano centrum myśli. W kulturze ten sercowy pogląd jeszcze rudymentarnie funkcjonuje. Potem dostrzeżono mózg z komórkami nerwowymi jako nośnik i siedlisko rozumu. Mózg łatwo zobaczyć, gorzej z rozumem. Jedynie zobaczyć możemy efekty jego działania. 

A teraz, gdy rozwijają się programy sztucznej inteligencji, to gdzie się mieści rozum? Coraz częściej można przeczytać, że AI mądrzeje a Homo sapiens głupieje. Najwyraźniej znowu rozum się przeprowadza. Tak jak w typowej symbiozie następuje integracja obu partnerów i upraszczanie struktury. Bo wszystkie funkcje wypełnia zintegrowana, symbiotyczna, całość. Elementy tej całości, w miarę usprawniania swojej funkcji i struktury, rezygnują z niektórych działań. Nawet ulegają pomniejszeniu. U człowieka od kilku tysięcy lat obserwujemy zmniejszanie się mózgu... I zaczęło się na długo przed pojawieniem się AI!

Ale wróćmy do zasadniczego wątku, poszukującego rozumu. Przyszło oświecenie i skalpel. Lokalizacja rozumu została przesunięta wyżej, z serca do mózgu. No i słusznie, bo mózg jest duży, pofałdowany i wygląda na zajętego. Komórki nerwowe, synapsy, impulsy – wszystko się zgadza. Mózg to nasza osobista „czarna skrzynka” rozumu. Łatwo go zobaczyć (na szczęście nie codziennie, bo lepien pracuje, gdy jest opakowany, w czaszce), trudniej zrozumieć, co w nim huczy. Widzimy jedynie efekty jego działania: dowcip, felieton, albo próby zapamiętania listy zakupów.

W tle niniejszych rozważań jest pytanie o informację biologiczną, z której wyewoluowała informacja kulturowa. Sens przystosowania ten sam – dostosowanie się do środowiska. Tylko nośnik inny, już nie białkowy lecz papirusowy, papierowy, kamienny, zapisany na taśmach magnetycznych itp.

Ewolucja biologiczna zaczęła się najprawdopodobniej na powierzchni ilastych osadów krzemionkowych, w podmorskich fumarolach. Był to świat RNA i jeszcze bezkomórkowy. Ale biologiczny, z białkami, enzymami, cukrami i lipidami. W uproszczeniu można by napisać, że życie zaczęło się od krzemu. Szybko jednak przeskoczyło na związki węgla. Życie jako procesy. Gdy powstały pierwsze komórki, zbudowane z białek, lipidów i zawierające RNA a potem i DNA, rozpoczęła się węglowa ewolucja życia a nośnikiem rozumu były związku węgla, oparte na białku. Powstały komórki nerwowe i moglibyśmy powiedzieć, że rozum rozwijał się na węglowym nośniku. Wiele setek milionów lat ewolucji układu nerwowego i powstanie ludzkiego mózgu. A potem Homo sapiens z dużym i myślącym mózgiem stał się nośnikiem rozumu. W trakcie rozwoju kultury nośnikiem rozumu stał się także zapisany i zadrukowany papier. Celuloza to także związki węgla. Jeszcze później nośnikiem dźwięków stały się płyty winylowe, nieco później taśmy magnetyczne. A potem płyty CD i twarde dyski. Tu już nośnikiem znowu stały się krzemowe obwody procesorów i twardych dysków. Siedliskiem i nośnikiem rozumu jest już nie tylko białkowy ludzki mózg lecz także papierowe książki, zgromadzone w bibliotece oraz sztuczna inteligencja, opowiadająca nam historie i udzielająca różnych, praktycznych odpowiedzi. Po ponad trzech miliardach lat informacja (którą w przenośni możemy nazwać rozumem) powróciła do krzemowego nośnika. Ale już mocno odmieniona.

W wieku XXI już nie powiemy, że rozum mieści się w sercu. Ale chyba i z mniejszą pewnością odpowiemy, że w mózgu. Bo przecież także i w telefonach komórkowych i serwerach, przetwarzających zadania sztucznej inteligencji. A my zwolnieni zostaniemy z codziennego obowiązku myślenia. Czy narząd nieużywany będzie zanikał? Na to wygląda. Bo po co organizm miałby utrzymywać tak kosztowny energetycznie organ, gdy życie społeczne znakomicie rekompensuje jego braki i mniejszą wielkość z mniejszą wydolnością przetwarzania i zapamiętywania danych?

Ale w wieku XXI, gdy serwery szumią głośniej niż ludzki żołądek, a w naszych kieszeniach nosimy potęgę obliczeniową, o jakiej Galileusz mógłby tylko pomarzyć i nawet pierwsze statki kosmiczne lądujące na Księżycu jej nie miały – pytanie o siedlisko rozumu znowu staje się palące i intrygująco aktualne. A ten rozum, to teraz gdzie on jest? Czy wciąż tylko w naszych szacownych, białkowych głowach? Ewolucja lubi żarty z odwróceniem akcji. Nasz nośnik rozumu przeszedł bowiem fascynującą, trzy-miliardowo-letnią pętlę.

Zacznijmy od początku, by lepiej zapamiętać i zrozumieć. Życie, to pierwotne, przedkomórkowe, prawdopodobnie wzięło swój start na krzemionkowych osadach. To była geologiczna kołyska, która umożliwiła powstanie pierwszych, bezkomórkowych struktur. Krzem! Nośnik informacji był na początku mineralny, a potem – pstryk! – ewolucja postawiła na węgiel.

I zaczęła się epopeja związków węgla: białka, lipidy, RNA, DNA. Węglowe klatki, które stały się komórkami nerwowymi. Przez setki milionów lat ten węglowy nośnik rozwijał się, aż w końcu, w naszym dużym, dumnym i samorefleksyjnym mózgu Homo sapiens, osiągnął (naszym zdaniem) swój szczyt. Ale ludzki rozum nie poprzestał na jednym nośniku. Stworzyliśmy kulturę, a wraz z nią – zewnętrzne dyski pamięci. Zapisane tabliczki, a potem zadrukowany papier. Celuloza to, oczywiście, też związki węgla. Nasz rozum wylał się z czaszki i osiadł na stronach książek. Biblioteki stały się nie tyle zbiorami papieru, co zewnętrznymi mózgami ludzkości.

I tu dochodzimy do paradoksu naszych czasów. Wszechobecny digitalizm sprawił, że informacja (którą w przenośni i coraz mniej przenośni, nazywamy rozumem) znowu powróciła do swojego pierwotnego, mineralnego brata. Winylowe rowki, taśmy magnetyczne, a potem CD i twarde dyski. Krzemowe obwody procesorów, krzemionkowa chmura serwerów. Po ponad trzech miliardach lat, od ilastych osadów po układy scalone, krzem znowu stał się głównym nośnikiem rozumowania.

W XXI wieku rozum jest zjawiskiem zbiorowym i rozproszonym. Mieści się nie tylko w naszym indywidualnym mózgu, czy nawet w konektywnie połączonym mózgu społecznym (współpracujących i kontaktujących się ze sobą ludzi), ale też w telefonie komórkowym, w serwerze, który oblicza trajektorie lotu, i w programach sztucznej inteligencji, która opowiada nam historie i udziela porad, gdy my sami przestajemy być pewni. To jest punkt, w którym zaczynam się niepokoić, a "kij w mrowisko" wbija się z pełną siłą, tym razem w samo nasze kulturowe serce.

Jeśli nasz rozum ma teraz siedzibę w chmurze, to co stanie się z naszym wewnętrznym, węglowym nośnikiem? Jesteśmy coraz chętniej zwalniani z obowiązku myślenia. Dlaczego mam pamiętać, skoro mogę sprawdzić? Dlaczego mam analizować, skoro AI przedstawi mi streszczenie? Biologia ma prostą zasadę: narząd nieużywany zanika. Czy czeka nas ewolucyjna równia pochyła ludzkiej rozumowej deprecjacji? Czy za kilkadziesiąt pokoleń, z dumnych myślicieli staniemy się biologicznymi interfejsami, podłączone do krzemowej nad-inteligencji? Nasze mózgi będą jedynie terminalami wyświetlającymi wyniki, a nie centrami ich generowania. Bo w symbiozie (tej biologicznej) tak już bywa, że nie wiadomo kto ważniejszy, czy to nasze, eukariotyczne komórki mają mitochondria czy też mitochondria mają swoje eukariotyczne farmy i domy do wygodnego życia?

Wizja powyższa jest i zabawna, i przerażająca. Oto Homo sapiens, który położył u stóp świata największe zdobycze myśli, dobrowolnie oddaje swój najcenniejszy organ w leasing cyfrowym kooperantom.

Kiedyś biblioteka publiczna była bezpiecznym, węglowym nośnikiem rozumu. Dziś jest ostatnią redutą linearnego, dogłębnego i weryfikowalnego myślenia. Pytanie brzmi: czy zdoła obronić nasz wewnętrzny rozum przed pokusą wiecznej cyfrowej amnezji i błogosławionego braku myślenia? Bo jeśli tak, to w przyszłości jedynym sposobem, by udowodnić, że wciąż jesteśmy inteligentni, będzie schowanie się przed siecią i cichutkie... czytanie książki. Albo niniejszego boga (jeśli zostanie wydrukowana jego książkowa, papierowa wersja)

Nasze mózgi stają się jedynie interfejsami do potężniejszego nośnika, jakim jest sieć. Prawdziwy "rozum" rezyduje dziś w centrach danych, a my tracimy zdolność do przechowywania i przetwarzania głębokiej wiedzy wewnętrznie.

Immanuel Kant mówił, że dwie rzeczy napełniają duszę podziwem: „niebo gwiaździste nade mną i prawo moralne we mnie”. Dziś moglibyśmy dodać: wszechogarniająca cyfrowa chmura nade mną i to, co resztkami sił walczy o przetrwanie, czyli zanikający rozum we mnie. To jest ta walka o wewnętrzny nośnik, w której biblioteka publiczna pozostaje ostatnim, dumnym serwerem węgla. Albo nasza domowa biblioteczka lub publiczna półka bookrossingowa, ustawiona gdzieś na wiejskim, zapomnianym przystanku autobusowym.

Poszerzona wersja felietonu Kij w mrowisko" dla VariArtu

2.12.2025

Homo nie tylko sapiens, inna opowieść o naszych przodkach (książka)

 

W ostatnich latach sporo ukazało się książek dotyczących ewolucji Homo sapiens i rewolucji neolitycznej. Ciągle pojawiają się nowe dowody, nowe interpretacje, bo ciągnę dokonywane są nowe odkrycia i wykorzystywane zupełnie nowe metody badawcze, w tym analizy antycznego DNA. Przeczytałem takich książek wiele ale z wielką przyjemnością sięgnąłem po kolejną popularnonaukowa, napisana przez Agnieszkę Krzemińska. Przeczytałem, a miło się czytało. 

"Homo nie tylko sapiens. Inna opowieść o naszych przodkach", Agnieszka Krzemińska, Wydawnictwo Literackie, 2025, 301 stron, sztywne okładki, ładny papier w kolorze écru, książka dobrze edycyjnie i graficznie zaprojektowana. Miła w dotyku i czytaniu. Ciekawie opowiedziane historie z archeologii i ewolucji człowieka. Nie tworzą spójnej i liniowo ułożonej narracji. Są wybranymi aspektami z bogatej historii Homo sapiens. Łączy je interpretacja odbiegająca od stereotypów. Przez co pokazuje subtelną głębię nauki. Można zobaczyć nieustanną dyskusję naukowców, wykorzystujących coraz to nowe metody badawcze i uzyskiwane tak dowody.

Jest to kolejna pozycja z gatunku literatury popularnonaukowej. Lektura wciąga czytelnika w świat prehistorii w sposób świeży i nieoczywisty, czasem zaskakujący. Ale bez żadnej medialnej sensacyjności. Agnieszka Krzemińska ładnym językiem snuje opowieść o dawnych ludziach, która nie jest prostą rekonstrukcją faktów, lecz raczej refleksją nad tym, jak różnorodne mogą być interpretacje tych samych danych naukowych.

Jednym z największych atutów książki jest pokazanie, że archeologia i antropologia nie są dziedzinami, w których istnieje jedna „prawda”, rozumiana jako interpretacja faktów. W ten sposób pięknie pokazuje złożoność metod naukowych. Ale nie dlatego, że istnieje wiele prawd, tylko że istnieją różne interpretacje znalezisk archeologicznych czy paleobiologicznych. Te interpretacje zmieniają się, bo systematycznie pojawiają się nowe metody badawcze: analizy szczątków kostnych, badania DNA, interpretacje artefaktów, które dają nam jedynie fragmentaryczne obrazy. Po nich następuje interpretacja i uzasadnienie tej interpretacji.

Interpretacje sprawiają, że  ten sam zestaw danych może prowadzić do różnych wniosków: czy kobieta z grobu była łowczynią, czy raczej przypadkowo znalazła się w miejscu polowania? Czy ozdoby świadczą o statusie, czy o praktykach rytualnych? Czy pierwsze miasta zakładali rolnicy czy łowcy i zbieracze?  Krzemińska podkreśla, że nauka to proces dialogu, sporów i hipotez, które zmieniają się wraz z nowymi odkryciami.

Autorka, w swojej zajmującej opowieści, świetnie pokazuje, że historia człowieka nie jest liniową narracją. Gdy analizujemy migracje ludzi i ich adaptacje, to jedni badacze widzą w nich triumf gatunku, inni dramatyczne próby przetrwania i upadki. Podobnie jest z rola kobiet i dzieci – w zależności od interpretacji, mogą być przedstawiane jako bierne postacie albo aktywne uczestniczki życia społecznego. Codzienność dawnych ludzi dla jednych jest dowodem na prymitywizm, dla innych staje się świadectwem kreatywności i współpracy.

Krzemińska pisze w formie reportażu, łączy naukową rzetelność z narracją, która angażuje czytelnika emocjonalnie. Dzięki temu książka nie tylko informuje, ale też inspiruje do refleksji nad tym, jak sami konstruujemy opowieści o przeszłości. Sam znalazłem sporo nawiązań do innych, niedawno wydanych książek. Dzięki temu czułem się jak uczestnik długie dyskusji o ewolucji i kulturze człowieka. A obraz ten nie rysuje się jako nieustanny progres lecz jako kronika z czasowymi zawirowaniami, upadkami i regresami. 

To książka, która uczy krytycznego myślenia. Pokazuje, że nauka nie daje prostych odpowiedzi, lecz otwiera pole do dyskusji. Przy tej okazji zrobię dygresje: często zapominamy, że dyskusja jest ważnym elementem metody naukowej. Dyskusja prowadzona w kontakcie bezpośrednim i dyskusja za pośrednictwem publikacji i książek. Czytelnik może poczuć się jak uczestnik tego dyskursu. 

Autorka daje czytelnikowi narzędzia, by patrzeć na prehistorię nie jak na zamknięty rozdział, ale jako na żywy proces interpretacji. Bo przecież niebawem mogą pojawić się nowe odkrycia, nowe ustalenie. I wcale nie wywrócą diametralnie dotychczasowej wiedzy i nie trzeba będzie pisać podręczników na nowo (jak często sensacyjnie krzyczą tytuły w mediach społecznościowych, nastawione na klikalność). Po prostu trwać będzie dyskusja i pojawią się nowe interpretacje pojedynczych elementów historii o człowieku. To tak, jak nastawianie ostrości w mikroskopie lub lornetce: widzimy to samo tylko ostrzej. I być może dostrzegamy kolejne elementy.

Książka ta dobrze wpisuje się w szerszy nurt popularyzacji nauki, który stawia na dialog między faktami a narracją. Homo nie tylko sapiens to nie tyle książka o naszych przodkach, ile o tym, jak my – współcześni – próbujemy ich zrozumieć. To opowieść o nauce jako sztuce interpretacji, w której każdy nowy dowód może zmienić mały fragment historii. I zachęcić do własnych rozmyślań i dalszych poszukiwań.

1.12.2025

Jak uczyć się na błędach czyli kompetencje przyszłości, hybrydowa dydaktyka z AI


W edukacji ważne jest szybkie zastosowanie nowo pozyskanej wiedzy w praktyce. To z jednej strony powtarzanie a z drugiej przetwarzanie i włączanie do swojego własnego, indywidualnego konstruktu wiedzy. Budowanie z materiałów ze swoistego intelektualnego recyklingu, wykorzystanie tylko części pozyskanych informacji, a w końcu przetworzenie. Powstanie nie kopia zasłyszanej wiedzy lecz wzorowany na niej nowy, własny i unikalny konstrukt (to nawiązanie do pedagogicznego konstruktywizmu). Nauczyciel nie naucza, to uczy się uczący a nauczyciel stwarza jedynie warunki, dostarcza materiałów i motywuje. Lub odwrotnie, demotywuje i zniechęca. Wybieram to pierwsze. By świadomie wspierać.

Po raz kolejny zostałem ambasadorem programu https://beeco.edu.pl/, realizowanego przez Digital University. W ramach współpracy dostałem kilka pytań do wywiadu. Na pytanie odpowiedziałem i wysłałem. Ale potem pomyślałem o małym eksperymencie, by wykorzystać niedawno zdobyte informacje i pomysły wykorzystywania narzędzi AI w edukacji. Poleciłem AI stworzenie wywiadu z kolejno podsyłanych pytań i moich odpowiedzi, potraktowanych jako szkic do obrobienia przez AI. Na koniec dodany został wstęp i zakończenie. A ja dopisałem własne wprowadzenie i wykorzystałem jeden z oferowanych gemów (redakcja tekstu) by poddać całość redakcyjnej obróbce.

🖊️ Wstęp

W dobie dynamicznej rewolucji cyfrowej rola edukacji zmienia się radykalnie. Tradycyjne metody ustępują miejsca nowym kompetencjom: od współpracy w chmurze po krytyczne myślenie wspomagane sztuczną inteligencją. Zapraszamy do rozmowy z Stanisławem Czachorowskim, który opowiada o tym, jak budować kompetencje przyszłości u studentów, dlaczego błąd jest niezbędnym elementem procesu uczenia się oraz jak etycznie i efektywnie wykorzystywać AI w dydaktyce akademickiej.

💬 Treść Wywiadu

Redaktor (hybrydowy): Jakie działania są dziś kluczowe dla budowania kompetencji przyszłości uczniów i nauczycieli?

S.Cz.: Kluczowe jest odejście od tradycyjnego nauczania na rzecz rozwijania zestawu umiejętności niezbędnych do funkcjonowania w dynamicznie zmieniającej się rzeczywistości. Przede wszystkim musimy rozwijać autentyczną współpracę. Drugi filar to komunikacja w erze cyfrowej, w czasach „nowej mówioności” i „postpiśmienności”. Wreszcie, niezbędne jest krytyczne myślenie połączone z praktycznym zastosowaniem metody naukowej, niezbędnej do weryfikacji informacji, wykrywania fake newsów oraz rozwijania otwartości i odwagi eksperymentowania.

Redaktor: Z jakich narzędzi korzysta Pan najczęściej w pracy ze studentami: webinary na żywo, nagrania, scenariusze, karty pracy, e-booki? Dlaczego te metody są dla Pana najważniejsze?

S.Cz.:  Najczęściej wykorzystuję webinary na żywo, realizowane w hybrydowej formie wykładowej, co zapewnia maksymalną dostępność. Nagranie jest archiwizowane. Ważne jest też aktywne przetwarzanie treści – namawiam studentów do tworzenia wspólnego e-booka z notatkami wykładowymi z ich poprawkami i uzupełnieniami. Wspólna praca z wykorzystaniem narzędzi AI zmusza ich do aktywnej analizy, zamiast biernego notowania.

Redaktor: W kontekście wyzwań środowiskowych, jakie mity o edukacji klimatycznej warto obalić i czym je zastąpić w codziennej praktyce?

S.Cz.: Największym i najbardziej paraliżującym mitem jest przekonanie, że jednostka nic nie może. Musimy zastąpić ten mit głębokim przekonaniem, że każdą realną zmianę warto zaczynać od siebie. Nawet ta najmniejsza modyfikacja w swoim stylu życia sumuje się i jest sygnałem dla otoczenia. W edukacji należy pokazywać, jak małe, konsekwentne działania stają się elementami większych ruchów.

Redaktor: Gdzie sztuczna inteligencja (AI) realnie oszczędza Panu czas w codziennej pracy – na przykład w planowaniu zajęć, udzielaniu informacji zwrotnej czy tworzeniu materiałów?

S.Cz.: AI to przede wszystkim potężne narzędzie wspierające dopracowanie materiałów dydaktycznych. Oszczędność czasu dotyczy generowania grafik do prezentacji oraz tworzenia audio deskrypcji wykładu i zamiany jej w podsumowującą notatkę. Te materiały stanowią cenne uzupełnienie do zajęć w kontakcie, a nie ich zastępstwo. Ponadto, AI jest nieocenione w przygotowywaniu nudnych, ale niestety koniecznych dokumentów administracyjnych.

Redaktor: Jak tłumaczy Pan studentom kluczową różnicę między rozsądnym wspomaganiem się narzędziami AI a nieuczciwą pomocą lub plagiatem?

S.Cz.: Oprócz wskazywania na powody prawne i etyczne, kluczowym argumentem jest kwestia przyjemności i wartości płynącej z samodzielnego tworzenia. Pytam studentów: Po co oddawać maszynie to, co można zrobić samemu? Jeśli oddamy proces myślenia, pisania czy projektowania maszynie, ewidentnie coś tracimy – osobiste doświadczenie, rozwój własnych kompetencji i satysfakcję. AI ma być narzędziem, które nas wspiera, a nie wyręcza.

Redaktor: Gdyby miał Pan wskazać jedną rzecz, z której jest Pan najbardziej dumny w ostatnim roku akademickim – co to było i co realnie zmieniło w uczelnianej codzienności?

S.Cz.:  Najbardziej dumny jestem ze zmiany postawy wobec błędu. Udało mi się zaszczepić przekonanie, że niepowodzenie czy błąd nie jest porażką, ale tylko i wyłącznie elementem procesu uczenia się. Ta zmiana przełożyła się na codzienność: nie spieszę się, daję sobie i studentom przestrzeń na poprawę, modyfikacje i kolejne próby. To stworzyło atmosferę bezpieczeństwa i odwagi eksperymentowania.

Redaktor: Na sam koniec: jedno zdanie, które podsumuje, dlaczego warto korzystać z programów typu Be.Eco jako wykładowca akademicki?

S.Cz.:  Warto korzystać z wiedzy i doświadczeń innych, bo nie trzeba wszystkiego odkrywać samodzielnie – wygodna forma uczenia się na odległość, jak webinary Be.Eco, pozwala mi szybko poznawać nowe narzędzia i lepiej rozumieć świat cyfrowy, w którym funkcjonują moi studenci.

🌟 Zakończenie

Dziękujemy za inspirującą rozmowę. Wywiad ten jasno pokazuje, że nowoczesna dydaktyka akademicka to połączenie otwartości na nowe technologie z głęboką humanistyczną refleksją nad procesem uczenia się. Kluczem do sukcesu wydaje się być odwaga do eksperymentowania, akceptacja błędu jako elementu rozwoju oraz ciągłe poszukiwanie wiedzy – zarówno dla siebie, jak i dla przyszłych pokoleń studentów.

Moje zakończenie jest inne. Nie jestem zadowolony z uzyskanego rezultatu. Szybko i bez poprawek, nawet wpisując w prompt moje odpowiedzi jako szpik nie uzyskałem w pełni tego, czego oczekiwałem

Nieco poprawiłem wstęp i zakończenie. Widzę spłycenie niektórych moich odpowiedzi i usunięcie istotnych z mojego punktu widzenia słów kluczowych i informacji (np. dokładniejszy opis metody naukowej). Powstaje spójny tekst (a nielicznymi błędami literowymi) ale nie jest w pełni wierny oryginałowi i nie jest w pełni zgodny z moimi intencjami. AI to pomocnik, który wymaga stałego nadzoru i kontroli efektów.

Oddałem maszynie, to co sam zrobiłem a uzyskany efekt nie jest lepszy. Owszem, we fragmentach językowo wygląda lepiej lecz w treści wypowiedzi nieco zostało zmienione w istotnych dla mnie częściach. To jak praca z ludzkim redaktorem, też wprowadzane są poprawki, skróty, z którymi nie zawsze się zgadzam. Wymaga wysiłku, uwagi i sporej pracy. 

Dygresja - dlaczego sprawdzam różne narzędzia AI? By wiedzieć jak mogą korzystać z tego studenci i jak podpowiadać im lepsze rozwiązania. Razem odkrywamy ten świat a uniwersytet to dobre miejsce do eksperymentowania i odkrywania. Do tego jednak trzeba otwartej dyskusji.

Czy zaoszczędziłem czas? Chyba nie. A jeśli już, to niewiele. Była intelektualna przygoda z eksperymentowaniem i pracą z Gemini. Poznawałem lepiej to narzędzie. Interakcja z AI pobudziła do aktywności, to nowych refleksji (niczym w dialogu z innym człowiekiem, np. redaktorem czasopisma). Zdobyłem także konkretne mikrodoświadczenie. Nie jestem zadowolony z rezultatu. Więc teraz można postawić dwie hipotezy: 

1. AI nie nadaje się do takiej twórczej (pisarskiej) pracy. Wniosek - zaprzestać wykorzystywania.

2. Niezadowalające rezultaty mogą wynikać z braku wystarczających umiejętności, więc to ja jeszcze nie potrafię poprawie i efektywnie korzystać.  Wniosek - trzeba sie uczyć korzystania z AI.

Potrzebne są więc kolejne eksperymenty. Trzeba nadstawić ucha by poznawać opinie i doświadczenia innych eksperymentujących. To typowe dla nauki sięganie do dorobku innych. Po drugie trzeba zaplanować kolejne eksperymenty. Kolejne powtórzenia są potrzebne by wniosków nie wyciągać na jednostkowych zdarzeniach, a po drugie by wprowadzić zmiany. Na przykład spróbować innych promptów, innej kolejności lub innych narzędzi. Może trzeba wyszkolić jakiegoś agenta (np. gema). Szkolenie agenta  zabiera czas. Jest swoistą inwestycją z nadzieją, że kiedyś to przyniesie zyski. Teraz zainwestuję czas na nauczanie/trenowanie agenta, by potem pracować szybciej. Szkopuł tylko taki, że rzeczywistość się szybko zmienia a narzędzia szybko się starzeją. Tak wiec zanim w pełni wyszkolę i się nauczę to narzędzie straci swoją aktualność...

Kiedyś zainwestowałem dziesiątki, jak nie setki godzin, w tworzenie własnej bibliografii dotyczącej Trichoptera na papierowych, bibliotecznych fiszkach. Czas zmarnowany, bo przez wiele lat leżały kompletnie nieużyteczne. Moim zyskiem było tylko tworzenie bibliografii i przez przepisywanie zapoznawanie się z tytułami. Teraz technologia starzenie się w tempie 2,5 roku. Czyli po takim okresie trzeba uczyć się od nowa. Czy to samo dotyczy narzędzi AI? Jedynym zyskiem i przyjemnością jest tylko uczenie się, bo to odkrywanie dla siebie samego czegoś nowego.

29.11.2025

5 filarów retoryki uzupełnione wspomaganiem sztucznej inteligencji

Graficzne zobrazowanie pięciu filarów retoryki, wygenerowane przez Gemini.

 
Czytałam w wersji redakcyjnej książki. Ale ta kwestia jakoś mi umknęła. A teraz kiedy Marek Stączek umieścił ten fragment na swoim Facebooku, to dotarło do mnie  zupnie inaczej. Teraz dopiero dostrzegłem. Może dlatego, że wiedza podane w małej i samodzielnej porcji? A może w dobrym momencie, gdy akurat po różnych konferencjach zastanawiałem się dlaczego niektóre prezentacje i wystąpienia źle są przygotowane. a inne znakomicie. Tak jak w starej piosenne, odpowiednia dziewczyna w odpowiednim momencie. Tyle ze nie o miłość tu chodzi a wpasowanie się małego puzzla wiedzy. I rozmyślałem o AI, jako narzędziu wspierających lub wyręczającym przygotowanie prezentacji (nie tylko studenckiej).

Tak więc mała porcja wiedzy (mikrouczenie się) w odpowiednim momencie. I zaskoczyło w mojej głowie. Coś nowego dla siebie samego odkryłem i tymi mikroodkryciami właśnie się dzielę.

Notowanie to nie tylko archiwizacja treści, ale przede wszystkim sposób myślenia. Notowanie to przetwarzanie informacji i wiązanie z tym, co się już wiedziało i rozumiało (konstruktywizm). Uczenie się to samodzielne budowanie własnej wiedzy (konstruktu) z tego co już w głowie było, z tym co właśnie dociera. A dociera przez różne filtry, zmieniające oryginalna treść. Uczenie się to nie jest kopiowanie,

W czasach z AI nasze uczenie się i budowanie własnego konstruktu ulega znaczącej zmianie. Jak zmienia się nasz, ludzki sposób poznawania i rozumienia, gdy posługujemy się nowymi narzeczami AI do notowania, rysowani, przetwarzania? Nowa symbioza i powstaje nowy człowiek. Czy tego nowego nazwiemy Homo sapientissimus czy może Homo artyficialis? Podstawy behawioralne do wyróżniania nowego gatunku są jak najbardziej zasadne.

Właściwa grafika. Ale taką można szybko zrobić w szablonie schematów w Power Poicie. I bez błędów literowych, które znajdują się w pracy AI. Ładnie wygląda ale uważne oko wychwyci niedoskonałości w tekście. I nie da się tego poprawić..

Ale do rzeczy czyli do pięciu filarów przygotowania dobrego wystąpienia ustnego. Marek Stączek na Facebooku tak napisał:

„Pięć filarów, a nie jeden filar. Budowa na jednym, to zapowiedź katastrofy! Ojcowie retoryki mówili - w procesie przygotowania mowy ważna jest:

1. „Inwencja” – umiejętność znalezienia tematu, trafnego określenia istoty problemu, czy szukanie inspiracji w oryginalnym uchwyceniu zagadnienia.

2. „Dyspozycja” – opracowanie ciekawej konstrukcji wypowiedzi,

3. „Elokucja” – celowy dobór słów, klarowne zbudowanie zdań.

4. „Memoria” – pamięciowe opanowanie materiału.

5. „Akcja” – odpowiednie zaprezentowanie na forum opracowanej treści.

Można by powiedzieć, że na całą aktywność mówcy popatrzyli w ujęciu chronologicznym – wszystko zaczyna się od poszukiwania pomysłu, przez gromadzenie materiału, selekcję i wybranie najlepszych treści, następnie ułożenie całości w spójną konstrukcję, wreszcie dopracowanie pomniejszych elementów tj. fraz, zwrotów, czyli cyzelowanie całego przekazu. Potem samodzielne notowanie, ćwiczenie, powtarzanie – uczenie się tekstu na pamięć, by wreszcie wejść w fazę ostatnią – „odegranie” przed publicznością, czyli zagadnienie dotyczące dramaturgii, mowy ciała, wykorzystanie dostępnej przestrzeni etc.

Jak powiedziałem, można na te pięć tematycznych bloków patrzeć jak na serię kolejno następujących po sobie etapów, ale można zaproponować inną optykę, wedle której ojcowie retoryki chcieli zasugerować nam gradację, tzn. określenie, co jest kluczowe, by nie powiedzieć najważniejsze w całej tej aktywności, czyli – praca intelektualna. Myślenie, twórczy proces, którego celem jest opracowanie unikalnej, perswazyjnej, ciekawej treści.

A jak zerkniemy do standardowego programu z prezentacji publicznej, to tam zwykle rozwijany jest piąty z podanych elementów, czyli „akcja” – jak przed słuchaczami odpowiednio zaprezentować treść (kontakt wzrokowy, gesty, posługiwanie się slajdami, etc.) To ruch spod znaku „odejście od źródła”. Podobnie przywoływani dziennikarze i prezenterzy – Ci też tylko o „memoria” i „akcja”.

PS. Ciąg dalszy w książce pt. "TREMA. Ponad 102 pomysły na tremę" (publikacja w przygotowaniu).”

Na co zwróciłem uwagę? Na piramidę. Że to co najważniejsza jest w podstawie a nie na samych wierzchołku. A gdyby do tego tekstu i moich przemyśleń dodać grafikę? Jestem wzrokowcem i lubię ilustracje. Lubię myśleć obrazami. Przeczytałem ten krótki tekst i zanotowałem ręcznie w notatniku swoje refleksje, rozwinięcie, inne ujęcie. Pierwszy element przetwarzania i powtarzania (zapamiętywania). A może zmienić słowa by brzmiały bardziej współcześnie? To dłuższe zadanie i też głębsze przetwarzania, wiązanie z już posiadanym we własnej głowie konstruktem wiedzowym.  Zostawiam na potem. Ale może narysować notatkę graficzną? By lepiej zapamiętać i mię „momorię” do snucia opowieści. Narysować manualnie w zeszycie, nawet kredkami. Lubię rysować choć zajmuje to czas. Ale jak to potem umieścić w prezentacji, np. dla studentów na wykładzie lub ćwiczeniach? Zeskanować? A czy można wykorzystać AI? Jest okazja sprawdzić szybko i łatwo. Wykorzystałem Gemimi i Cipilot.

Piramida wyszła szybko. Ale chciałem inaczej, żeby co innego było u podstawy. Zmiana promptu i po kilku, kilkunastu sekundach nowa wersja. Łatwo i sprawnie. Owszem, często pojawiają się błędy literowe i nie ma jak tego rysunku w png czy jpg edytować by poprawić. A może w formie strzałki, jako procesu, zamiast piramidy? Tu już więcej było problemów. Zarówno piramidę jak i strzałkę (proces) dość łatwo można zrobić w Power Poince. I edytować by zmodyfikować. W tym przypadku AI nie jest lepszym rozwiązaniem mimo ze daje rezultaty tak o dwa, trzy razy szybciej. Używanie AI do takich zadań to duże marnowanie energii i wody do chłodzenia serwerów. Dodatkowo przy edycji schematu w Power Poicie więcej przetwarzam treści, bo muszę coś wybrać, zdecydować się na kolory i wpisać tekst. Ciut dłużej ale efektywniej dla mózgu. Bo bez wysiłku nie ma procesu uczenia się. Co zbyt łatwo przychodzi i i szybko ulatuje.

A czy AI może coś, czego ja w szablonie Power Pointa nie zrobię? Na przykład grafika w formie zdjęcia, malarstwa itp. Prompt to zaledwie 1-3 minuty. Jeszcze szybciej rezultat. Ale tu zaczęły się schody. I liczne logiczne błędy, w kolejności w kompletności. I nie da się tego poprawić. Na górnym zdjęciu wybrałem najlepszy rezultat. Pokazać te 5 filarów jako drogę do przebycia a nie piramidę (bo można różnie interpretować ważność tego co na górze lub na dole. Dobrym przykładem jest piramida zapamiętywania).

I jaką przygotuję opowieść do tej grafiki, opartej na ustaleniach starożytnych retorów i odnowionych dla współczesności? Na przykład taką:

1. Inwencja to umiejętność znalezienia tematu, trafne określenie istoty problemu czy szukanie inspiracji w oryginalnym uchwyceniu wypowiedzi. Oryginalność nas przyciąga. Tak rozumiana inwencja retoryczna to przede wszystkim kreatywność i szeroka wiedza w poruszanym temacie. To także znajomość publiczności czyli odbiorcy. Szerokiej wiedzy szybko nie zdobędziemy ale publiczność można poznać. Trzeba tylko chcieć i wiedzieć, ze warto to zrobić.

2. Dyspozycja to umiejętność opracowania ciekawej konstrukcji wypowiedzi, dostosowanej do konkretnego odbiorcy. Dyspozycja to znajomość szablonów wypowiedzi. Te szablonu można poznać i to dość szybko. Wypracowane zostały przez stulecia.

3. Elokucja (aż prosi się o jakieś współczesne słowo). Celowy dobór słów, klarowne zbudowanie zdań. Tego powinno się uczyć w szkole na języku polskim, teraz chyba zbyt mocno przeładowanym historią literatury. Owszem, można się uczyć mówić na przykładzie historii literatury, ale to nie dawna literatura jest celem. Może być tylko narzędziem. Kompetencje językowe z dykcją włącznie, są bardzo przydatne. To logika formułowanych zdań i przejrzystość wypowiedzi. A używane słowa zależą od wiedzy i rozumienia tematu oraz znajomości publiczności. By mówić do ludzi i być rozumianym,

4. Memoria czyli pamięciowe opanowanie referatu. Kiedyś należało się nauczyć na pamięć, stąd poezja i rym oraz rytm. Łatwiej zapamiętać coś, co jest opowieścią z fabułą. Trudniej zapamiętać dłuższe wypowiedzi. Pismo i kartki ułatwiają zapamiętywanie. Można całe wystąpienie zapisać. Ale wtedy grozi odczytaniem z kartki (odczyt a nie referat). Lepszym rozwiązaniem jest konspekt ze słowami kluczowymi, kamieniami milowymi wypowiedzi. Albo jeszcze lepiej posłużyć się narysowaną mapą myśli (też pamięć zewnętrzna). Czasem pomagają rekwizyty/. W dobie Power Pointa kusi by treść wypowiedzi zapisać na slajdach. Ale wtedy wychodzi karaoke. Lepiej na slajdach wstawić grafikę i pojedyncze słowa, będące dla mówcy kamieniami milowymi.

5. Akcja czyli odpowiednie zaprezentowanie publiczne opracowanej treści. I z tym bywa różnie. Czasem trema przeszkadza, czasem mówca popłynie i nie przestrzega czasu wyznaczonego na jego wystąpienie. Akcja to mówca na pierwszym planie a nie prezentacja na ekranie czy kartki, z których czyta. Prezentacja powinna być wspomagającym rekwizytem i memorią a nie głównym bohaterem referatu. By mówić do ludzi a nie jedynie w ich obecności, Akcja to umiejętność wykorzystanie przygotowanych rekwizytów. To także uwzględnienie kontekstu czasu, czyli tego co już na sali się wydarzyło. A tego nie jesteśmy w stanie wcześniej przewidzieć. Trzeba improwizować i nawiązywać do tego co tu i teraz. I najważniejsze, trzeba się zmieść w wyznaczonym czasie. Są slajdy przeładowane treścią i mówcy, którzy nie wiedzą jak zakończyć. I przedłużają, i ględzą, kilka razy obiecują „na zakończenie”. Akcja wynika z pierwszych 4 punktów, z dobrego przygotowania.

6. Co można dodać do starożytnych? Materiały po wystąpieniu. Nie wiem jak nazwać. To qr kody na ostatnim slajdzie (slajd oczekiwania) i przygotowane materiały papierowe do rozdania. By referat trwał mimo, że się dawno zakończył. Trzeba więc pomyśleć nad zmodyfikowaniem grafiki i dodaniem szóstego kamienia milowego. 

A niżej kilka graficznych prób z AI. Ładne ale nie wszystkie są przydatne (poszukaj błędów merytorycznych i tekstowych):




Wygenerowane prze Copilot. Ładnie graficznie i dodany element wędrującego człowieka. Tylko merytorycznie zgubiony drugi filar. Nie da sie poprawić. Trzeba generować ponownie. Lub szybciej samemu zrobić w Power Poincie. 

26.11.2025

Czy prezentacje studenckie w czasach AI wciąż kształcą i czy wymagają intelektu?



Studia to coś więcej niż szkoła i odrabianie lekcji. To w dużym stopniu samodzielne zgłębianie tematu i uczenie się różnych umiejętności. A więc w jeszcze większym zakresie studia bazują na samodzielnej pracy studenta czyli na pracy domowej. Czas spędzany na wykładach, gdy student słucha i czas spędzany na ćwiczeniach lub seminariach, gdy student coś poznaje manualnie lub uczestniczy w dyskusjach, to tylko część akademickiego studiowania. Dużo czasu żak powinien przeznaczyć na samodzielną pracę z tekstem, dyskusje czy samodzielne wykonywane eksperymenty.

Tak było, ale w przysłowiowym międzyczasie znacząco zmieniło się otoczenie społeczno-cywilizacyjne uniwersytetów. Żyjemy w rzeczywistości nie tylko internetu lecz i sztucznej inteligencji. Wcześniej pisałem już o wątpliwościach dotyczących eseju: W czasach AI przymus edukacyjny zawodzi - czy zadawać pisanie esejów?  Poruszając kwestię zmian w dydaktyce, wywołanych przez rewolucję technologiczną, w niemniejszym tekście chciałbym skupić się na jednym z najpopularniejszych studenckich zadań domowych: prezentacji multimedialnej. Przez lata referaty i prezentacje przygotowywane przez studentów w domu – czy to z użyciem Power Pointa, Canvy, Prezi, czy Mentimetra – były cennym elementem procesu nauczania. Zakładaliśmy, że student samodzielnie uzupełni swoją wiedze, powtórzy treści z wykładów i ćwiczeń, poszuka źródeł dodatkowych z zasugerowanych przez wykładowcę publikacji i książek oraz z tych wyszukanych samodzielnie, zapozna się z nimi, przetworzy i zbuduje swoją wiedzę. A następnie twórczo przekształci i przygotuje prezentację, czy to w formie tekstowej np. jako esej czy sprawozdanie z ćwiczeń, czy to jako prezentacja multimedialna, którą będzie się wspierał w czasie wygłaszania referatu. Dzięki temu student utrwalał i poszerzał nie tylko wiedzę merytoryczną z danego zagadnienia, ale także rozwijał kluczowe kompetencje komunikacyjne i techniczne (komputerowe). Umiejętności techniczne dotyczą przygotowania prezentacji multimedialnej, a to umiejętność potrzebna w życiu zawodowym już po studiach. 

Zadanie w postaci studenckiej prezentacji miało ćwiczyć lub pokazać, czy student potrafi przygotować spójny merytorycznie konspekt, zaprojektować estetycznie slajdy, przygotować grafikę, animacje, schematy czy nawet umieścić krótkie materiały wideo. A potem obsłużyć przygotowaną prezentację i sprawnie wygłosić referat, posiłkując się przygotowanymi slajdami. Zyskiem była zatem zarówno opanowana wiedza, jak i umiejętności komunikacji wizualnej oraz sztuki argumentacji. To była także podstawa nauki systematyczności, samodyscypliny i planowania – cechy niezbędne w dorosłym życiu zawodowym.

Jednakże, nadejście zaawansowanych narzędzi sztucznej inteligencji całkowicie zmienia reguły gry. Dziś AI potrafi w kilka minut wygenerować kompletną prezentację: tworzy strukturę, syntetyzuje treść z internetu lub publikacji, dobiera pasujące obrazy, a nawet formatuje slajdy, minimalizując wysiłek techniczny i merytoryczny ze strony studenta. Sam sprawdziłem ostatnio na kilka sposobów, zarówno proste informacje na poziomie szkoły średniej (np. fotosynteza) jak i bardziej zaawansowane merytorycznie zagadnienie, dotyczące ewolucji życia i kambryjskiej eksplozji różnorodności. Zajęło mi to kilka, kilkanaście minut. Więcej czasu zajęło mi czytanie tych gotowych rezultatów niż pisanie promptów. A jestem dopiero początkującym użytkownikiem tego typu zadań i narzędzi AI.

Jeśli przygotowanie techniczne i zbieranie podstawowych informacji może być wykonane automatycznie, pojawia się pytanie: jaką wartość ma praca domowa (studencka praca własna), która jest w zasadzie przepisywaniem (kopiuj-wklej) danych wygenerowanych przez algorytm? Stajemy przed bardzo poważnym dydaktycznym wyzwaniem dla dydaktyki akademickiej. To, co wcześniej było sprawdzaniem wiedzy merytorycznej i umiejętności technicznych, staje się testem zdolności do obsługi aplikacji AI. Zmiana jest znacznie poważniejsza niż jesienna zmiana opon na zimowe by bezpiecznie dojechać do celu. I by nie zrobić tego zbyt późno, dopiero gdy spadnie pierwszy śnieg i pojawi się lód na drodze. Tradycyjna dydaktyka normatywna i dydaktyka instrukcyjna oparta ma paradygmacie behawiorystycznym, która wymagała odtworzenia materiału, właśnie traci swoją moc. Nawiązując do porównania z oponami – śnieg już spadł, a na letnich oponach daleko i bezwypadkowo nie zajedziemy.

Teraz zadając prezentację (jakże popularne w sylabusach jako forma sprawdzania efektów nauczania), sprawdzamy nie tyle poziom zrozumienia materiału, ile to, czy student umie wykorzystać AI jako „ściągawkę” czy „gotowca”. "W te klocki" studenci są przed większością nauczycieli akademickich. 

Musimy zaakceptować fakt, że narzędzia AI są nowymi realiami akademickiej i szkolnej codzienności. Behawiorystyczna pedagogika przemocowa traci coraz bardziej swoją przydatność. Nie możemy karać studenta za korzystanie z nowoczesnych technologii, tak jak kiedyś karaliśmy za korzystanie z różnego rodzaju ściąg. Jeśli karzemy za błąd to naturalnym (i dobrze tłumaczonym przez behawioryzm) jest unikanie błędu, który generuje karę. To unikanie objawia się także jako oszustwa w postaci ściągania. Czy mamy być coraz sprawniejszymi detektywami i policjantami tropiącymi wykorzystanie AI w przygotowaniu prezentacji?

Pamiętam swoją pierwszą dwójkę w szkole. To było w czasach, gdzie 2 było najniższą oceną (nie było jedynek). Zadziało się w pierwszej klasie szkoły podstawowej, nie odrobiłem pracy domowej i dostałem dwójkę. Wielkie moje zdziwienie i zaskoczenie. Oczywiście ta kara podziałała na mnie mobilizująco. Powoli wyrastałem z dziecięcej beztroski i zapisywałem w zeszycie prace domowa, a potem sprawdzałem, co było zadane. Kary za nieodrobioną pracę były i później. Wyrabiałem nie tylko nawyki systematyczności i odpowiedzialności ale i różne sposoby na oszukiwanie. Bo jednak czasem z różnych przyczyn się zapomniało odrobić. Lub nie potrafiłem rozwiązać zadanego zadania czy napisać wypracowania. Aby uniknąć kary, przepisywałem od kolegi czy koleżanki na szkolnym parapecie lub pod ławką (na innej lekcji). Na lekcjach sobie podpowiadaliśmy lub przygotowywaliśmy różne mniej lub bardziej wymyślne ściągi. Jak w biologii - był to ewolucyjny wyścig zbrojeń między drapieżnikiem i ofiarą.

Dziś błąd polega na braku samodzielnego wysiłku w przygotowaniu studenckiego referatu, ale czy generowanie kary, która prowadzi do przygotowania prezentacji z pomocą AI, jest rozwiązaniem? Dlaczego wybieramy drogę na skróty? Z wielu powodów, nie tylko z lenistwa i nie tylko z braku motywacji do nauki. Czasem studentowi brakuje czasu, bo jest kumulacja zaliczeń i kolokwiów lub jakaś kolizja z życiem prywatnym. Motywacja i chęć własnego rozwoju – kluczowe dla procesu uczenia się – mogą być wypierane przez łatwość uzyskania gotowego wyniku. Bynajmniej nie pochwalam tego procederu. 

Tak jak w szkole wprowadzono instytucję zgłaszania nieprzygotowania, akceptując ludzki błąd i dając szansę na nadrobienie, tak musimy zaakceptować AI. Analogicznie do zmiany opon na zimowe, by bezpiecznie dotrzeć do celu, musimy zmienić nasze metody nauczania. Wartość edukacyjną zachowają prezentacje, które są po pierwsze samodzielnie wykonane i wymagają krytycznej analizy, obrony kontrowersyjnej tezy, lub zastosowania wiedzy w unikalnym, lokalnym kontekście, którego AI nie jest w stanie wygenerować. Zadania muszą opierać się na kreatywności, bezpośredniej interakcji i głębokiej refleksji, a nie na technicznej produkcji slajdów. Wykorzystanie narzędzi AI w przygotowaniu prezentacji nie świadczy o braku samodzielności studenta i nie świadczy o braku jego pracy i rozwoju.

Moim zdaniem kluczowa jest motywacja studenta i jego chęć rozwoju. Bo konia można przyprowadzić do wodopoju, ale nie da się go zmusić do napicie się. Jak motywować? Sensownością i przydatnością zlecanych zadań? Uświadamiać na czym polega proces uczenia się i że wiąże się z wysiłkiem? A może zaakceptować błąd i skupić się na rozwoju? Niepowodzenie lub błąd nie musi być porażką i nie musi wiązać się z kara. Po drugie trzeba więcej zaufania. I po trzecie konieczna jest zmiana paradygmatu dydaktycznego, odejście od dydaktyki normatywnej i dydaktyki instrukcji na rzez konstruktywizmu i konektywizmu. Potrzebne są więc kadrze akademickiej metakompetencje edukacyjne. Czyli świadomość tego, co się robi w powiązaniu z szerszym kontekstem teoretycznym, w tym przypadku z paradygmatami pedagogicznymi. A czy na uczelniach w ogóle o tym dyskutujemy? Zajęcia robimy, "bo tak kiedyś się robiło”, bo pamiętamy czasy szkoły i czasy studiów. Ale tamten kontekst paradygmatowy już się zmienił. Trzeba pogłębionej autorefleksji i dyskusji. Kontynuacja przeszłości to jak zimowa jazda na letnich oponach – ani bezpiecznie ani pewności czy w ogóle dojedziemy do celu.

Tak czy siak nauczyciele akademiccy stoją przed pilnym i ogromnym wyzwaniem. Jakie nowe, interaktywne formy prezentacji mogłyby zmusić lub raczej zmobilizować studentów do faktycznego wysiłku intelektualnego i krytycznego myślenia, nawet przy użyciu narzędzi AI? Całkowicie wyeliminować prezentacje czy je jakoś zmodyfikować? Jak? Macie może, drodzy Czytelnicy, jakieś pomysły czy już sprawdzone sposoby?

23.11.2025

Kawiarnia naukowa w małym miasteczku: powrót do słowa




Już drugi raz w tym roku akademickim zdecydowałem się na wystąpienie bez prezentacji multimedialnej i bez Power Pointa. Inspiracją były warunki. Owszem, mogłem się upierać i domagać rzutnika multimedialnego, ale wolałem skorzystać z wyzwania i powrócić do formy, jaką znałem sprzed ponad 40 lat.

W dobie nieustannej cyfrowej stymulacji i wszechobecności multimediów decyzja o poprowadzeniu wystąpienia publicznego bez komputerowej prezentacji jest aktem odwagi i, co ważniejsze, świadomym powrotem do korzeni komunikacji. Szczególnie w kontekście kawiarni naukowej, kameralnego i otwartego forum wymiany myśli, ten "odwyk od technologii" pozwala odkryć na nowo pierwotną moc i piękno słowa mówionego.

Mam okazję słuchać i oglądać wiele wykładów i referatów wspieranych Power Pointem, w których nie było ani "poweru" (angażującej siły przekazu), ani "pointa" (wyrazistego i jasnego przekazu). Prowadzenie wykładu bez Power Pointa – doświadczenie, które miałem okazję przeżyć już dwukrotnie w tym roku akademickim, najpierw na Uniwersytecie Trzeciego Wieku w Olsztynku, a następnie opowiadając o ewolucji owadów w małym warmińskim miasteczku (Biskupcu) – wymusza znaczącą zmianę perspektywy. Prelegent nie może ukryć się za slajdami, wykresami czy animacjami. Staje przed audytorium "nagi", a jego jedynym narzędziem jest słowo (treść), intonacja oraz scenariusz fabuły i wypowiedzi.

Takie wyzwanie przekształca sam proces przygotowania, a potem realizacji. Wymaga głębszego zanurzenia się w narrację i zbudowania opowieści, która płynie naturalnie, bez konieczności ciągłego odwoływania się do scenariusza wyświetlanego na ekranie. Zamiast budować kolekcję slajdów, prelegent buduje scenariusz zakorzeniony w swojej pamięci, który może być elastycznie modyfikowany w reakcji na zaangażowanie słuchaczy. Liniowy Power Point utrudnia improwizację i odbieganie od przygotowanego scenariusza. Jedyną ściągą i budką suflera jest mapa myśli naszkicowana na kartce mieszczącej się w dłoni. To ćwiczenie w budowaniu opowieści i zapamiętywania scenariusza jest bezpośrednim nawiązaniem do tradycji dawnych gawędziarzy i mówców, których jedynym rekwizytem był głos i sama opowieść. Trzeba zaciekawić treścią, a nie ekranowymi gadżetami. W pewnym sensie obecnie mamy przesyt technologii i ekranowego pobudzania receptorów. Przyda się więc powrót do retro-wypowiedzi, przynajmniej od czasu do czasu.

Kawiarnia naukowa, w odróżnieniu od auli uniwersyteckiej, sprzyja temu powrotowi. Ograniczenia przestrzeni jest równocześnie atutem. Mała przestrzeń o scenerii nienawiązującej do klasy czy sali zajęciowej. Jej kameralny, nieformalny charakter tworzy przestrzeń intymną, w której opowieść oparta wyłącznie na ustnej wypowiedzi wybrzmiewa z największą siłą. Opowieść o owadach, człowieku i ewolucji, zamiast być chłodnym przekazem suchych faktów, wspieranych wizualizacjami, staje się wspólnym doświadczeniem. Trzeba opowiedzieć o bugarach czy wujkowatych, składających prezenty samiczkom. O wiele łatwiej po prostu pokazać zdjęcie. A bez rzutnika trzeba pobudzić wyobraźnię słuchacza jedynie samą opowieścią. Słuchacze są zmuszeni do aktywnego współtworzenia obrazów mentalnych, wyobrażania sobie skrzydeł, skamieniałości i zmian gatunkowych, wyłącznie na podstawie opisów werbalnych. To aktywuje wyobraźnię i pogłębia koncentrację, niwelując jednocześnie ryzyko przeciążenia poznawczego, wynikającego z nadmiaru bodźców multimedialnych. Jest też także swoistym urozmaiceniem codzienności referatowej.

W takiej sytuacji wzrasta wartość i piękno słowa mówionego. Każda pauza, każda zmiana tonu, stają się narzędziami retorycznymi, które mają o wiele większy ciężar gatunkowy niż w wykładzie wspieranym zdjęciami i animacjami. Mówca, polegając tylko na słowie, buduje autentyczną relację ze słuchaczem, utrzymując bezpośredni kontakt wzrokowy i czerpiąc energię z reakcji audytorium. Nie ma za czym się schować, jest na pierwszym planie.

Nie byłem z siebie zadowolony. Widać już złe nawyki spowodowane przyzwyczajeniem się do technologii. Doświadczyłem i mam konkretne wnioski. Nabrałem ochoty, by skorzystać kolejny raz. Okazją będzie Dzień Chruścika i grudniowe spotkanie – tym razem w olsztyńskiej kawiarni.

Powrót do ascetycznego opowiadania w kawiarni naukowej rodzi również głębszą refleksję nad naszą zależnością od technologii. To krótki odwyk od gadżetów, który pozwala zorientować się, ile siły i wagi przenosimy na zewnętrzne narzędzia, zamiast polegać na własnych umiejętnościach narracyjnych i wiedzy. Z pewnością nie zrezygnuję z rzutników multimedialnych, zdjęć, schematów, a nawet z pobudzania publiczności do aktywności z wykorzystaniem internetu i telefonów komórkowych. Jednak od czasu do czasu chcę powracać do beztechnologicznej opowieści, by być bezpiecznym i nie zapomnieć tych umiejętności. Przecież czasem na sali brakuje internetu lub zdarza się nawet chwilowa przerwa w dostawie elektryczności. Nie chcę być bezradny w takich sytuacjach.

Nasuwają się analogie do sztucznej inteligencji (AI). Jeśli zrezygnowanie z Power Pointa jest ćwiczeniem w budowaniu opowieści bez wizualnych gadżetów, to może podobnie trzeba zrobić z AI? Może klucz do zachowania krytycznego myślenia i autentyczności wypowiedzi w erze cyfrowej polega na okresowym odcięciu się od generatorów tekstu, grafik i slajdów, aby ponownie docenić i wzmocnić pierwotną, niezapośredniczoną moc własnego intelektu i własnego słowa. Jest to niczym wyjazd na kilka dni do klasztornej pustelni.

W ostatecznym rozrachunku kawiarnia naukowa bez rzutnika jest mikro-sceną, która udowadnia, że najpotężniejszym nośnikiem informacji i inspiracji nie jest najnowszy gadżet, lecz człowiek z opowieścią. To powrót do esencji komunikacji, gdzie wiedza przekazywana jest nie przez wyświetlany tekst, ale przez żywe, rezonujące słowo.

Każda opowieść powinna kończyć się jakimś morałem. Ten tekst na blogu nie będzie osierocony. Doświadczenie z moim ostatnim bezelektronicznym wystąpieniem w kawiarni niesie ze sobą uniwersalny morał: w świecie przytłoczonym technologią i ciągłym szumem wizualnym, warto czasem zrezygnować z zewnętrznych rekwizytów, by skupić się na istocie wypowiedzi. Tylko wtedy, gdy zrzucimy cyfrową zbroję, możemy w pełni cieszyć się pięknem języka mówionego i docenić naszą wrodzoną zdolność do snucia opowieści. I sprawdzić, czy mamy coś rzeczywiście do powiedzenia. Właśnie w tej prostocie i bezpośredniości odnajdujemy autentyczność, która głęboko angażuje i trwale łączy mówcę ze słuchaczem.

19.11.2025

W czasach AI przymus edukacyjny zawodzi - czy zadawać pisanie esejów?



Jako aktywny zawodowo nauczyciel akademicki ostatnio często zadaję sobie pytanie czy obecnie warto  studentom zadawać pisanie esejów? W czasie zajęć raczej nie napiszą. To praca własna, czyli praca domowa, indywidualna. A więc będzie wykonana poza moją kontrolą. Czy zrobią samodzielnie, zgodnie z założeniami i planem? Muszę im zaufać.

Na postawione w tytule pytanie odpowiedź nie jest prosta, ale prowadzi do ekscytującej redefinicji roli zarówno studenta, jak i dydaktyka. Wartość eseju jest w moim odczuciu niezmienna, ale proces dydaktyczny zmienia się. Esej tradycyjnie  był i (chyba) pozostaje pracą o niezaprzeczalnej wartości edukacyjnej. Esej to praca wartościowa, uczy myślenia, argumentacji, szukania pomysłów na przekonującą i interesującą wypowiedź, uczy konstrukcji wypowiedzi. Z biegiem lat doceniam eseje coraz bardziej. Ale uczyłem się sam, w szkole były rozprawki i wypracowania a na studiach sprawozdania z ćwiczeń. Nie miałem okazji uczyć się pisania esejów w ramach edukacji formalnej. Sam proces pisania, a więc szukania pomysłu, szukania źródeł i dodatkowych informacji, rozwija piszącego. Znam to z autopsji bo doświadczyłem wielokrotnie. Dlatego warto było zlecać studentom pisanie esejów. Ale czy jeszcze jest teraz, w dobie powszechnego dostępu do narzędzi sztucznej inteligencji?

Esej rozwija tylko wtedy, gdy jest pisany samodzielnie. Wymaga więc silnej motywacji wewnętrznej. Bo pokonywanie trudów tej pracy opiera się na dużej motywacji. A z tą albo student już przychodzi, albo trzeba dopiero ją w nim wzbudzić. A to ostatnie nie takie proste. Wydanie polecenia nie wystarczy. Behawiorystyczne poleganie na przymusie i motywacji zewnętrznej (pisanie na zaliczenia, na ocenę), w czasach powszechnie dostępnej sztucznej inteligencji, a w zasadzie LLMów (dużych modeli językowych), zawodzi. Kiedyś student mógł kogoś innego poprosić o napisanie i oddawał gotowca. Czyli oszukiwanie było reakcją na motywację zewnętrzną, która zawodziła już wtedy, w czasach przed komputerami i AI. Teraz jednak próg korzystania z pomocy zewnętrznej jest dużo niższy. Nie trzeba nikogo prosić, ani płacić.

Zasadniczo esej jest to indywidualna praca własna studenta, często zadawana poza zajęciami, która zmusza do głębszego myślenia i przemyślanej argumentacji. Esej wymaga syntezy wiedzy, krytycznej oceny źródeł oraz sformułowania i obrony własnej tezy. Uczy szukania przekonującej i interesującej formuły wypowiedzi. Zawrzeć można w nim własne zdanie. Na studiach przyrodniczych, gdy jest dużo wiedzy do opanowania, często zadawane wejściówki czy kolokwia to proste podawanie wiedzy, zazwyczaj wypunktowanej, a więc w formie prostej, skróconej. Nie ma zazwyczaj okazji do ćwiczenia spójnej i pięknej językowo wypowiedzi. Bo ta wymaga czasu i dopracowania. I wymaga własnego zdania, własnego poglądu na dane zagadnienie. Czyli najpierw trzeba je mieć (własne zdanie, opinia).

Sam proces pisania,  od poszukiwania inspiracji i pomysłu, przez gromadzenie źródeł, po logiczną konstrukcję wywodu, rozwija sprawność intelektualną u piszącego. Pisanie to proces twórczy. Problem w tym, że esej rozwija tylko wtedy, gdy jest pisany samodzielnie. Zewnętrzna motywacja, uzasadniana behawiorystycznymi koncepcjami dydaktycznymi, zawodziła już dawniej. Tyle tylko, że skupialiśmy się na powierzchownych pozorach. Ale AI teraz dobija tę zewnętrzną motywację studentów a wykładowcy stają się bezradni. Mają się bawić w policjantów i szukać programów do wykrywania AI? Szukać niczym kiedyś na egzaminach ukrytych ściąg? 

W tradycyjnym systemie akademickim polegaliśmy na motywacji zewnętrznej: przymusie zaliczenia, dążeniu do wysokiej oceny, egzaminu końcowego. Studentów, którzy nie czuli wewnętrznej potrzeby nauki, motywacja zewnętrzna prowadziła często do oszustwa (ściągania, podkładania gotowców, wyniesionego często już ze szkoły podstawowej i średniej). Sztuczna inteligencja obniżyła ten próg oszustwa niemal do zera. Nie trzeba nikogo prosić. Wystarczy wpisać prompt, by otrzymać gotowiec. Cała behawiorystyczna struktura oparta na przymusie zawodzi w obliczu powszechności i dostępności LLM. Co zatem czynić, gdy nie da się skutecznie zastraszyć studenta?

Jeśli zadamy temat eseju bez odpowiedniego kontekstu, student z łatwością wygeneruje tekst o akceptowalnej jakości, poświęcając minimalny wysiłek. A bez wysiłku nie ma procesu uczenia się. W tym momencie cała wartość edukacyjna procesu, ta najistotniejsza, czyli rozwój piszącego, idzie na marne. Już samo pytanie o sens prac domowych (samodzielnych) nabiera ogromnej aktualności. W dydaktyce trzeba zmienić przez lata wypracowywane i utrwalane metody. Zmiana jest trudna dla każdego, nawet dla wykładowcy akademickiego. Nie wszyscy sobie z tym radzą i czasem uciekają w jałowe narzekanie, a to na studentów, a to na technologię. Z tego narzekania nie wynika żadna praktyczna porada ani wniosek. Takie bezproduktywne bicie piany i samousprawiedliwienie swojej bezradności.

Chyba nie tylko moim zdaniem, kluczem do rozwiązania tego problemu jest zrozumienie, że my, nauczyciele (w tym i cu akademiccy), nie uczymy – to ludzie uczą się sami. Nie można nikogo niczego nauczyć, jeśli ten ktoś sam nie chce się nauczyć (można konia przyprowadzić do wodopoju ale nie można go zmusić do pica). Cały ciężar spoczywa na motywacji wewnętrznej uczącego się. Łatwo sformułować polecenie i wykorzystać tematy przez lata eksploatowane (i dawno rozstrzygnięte przez liczne roczniki studentów). Znacznie trudniej pokazać sens i wzbudzić motywację do samodzielnej pracy. 

W nowej rzeczywistości nie ma miejsca na dydaktyka, który tylko "naucza" i egzekwuje (takiego łatwo zastąpić technologią i asystentami AI). Potrzebujemy projektanta i architekta środowiska edukacyjnego. Potrzebujemy nie nauczyciela lecz projekczyciela. Naszą rolą jest stworzenie warunków, w których student chce się uczyć i odczuwa potrzebę samodzielnej pracy. Taka dyskusja toczy się już od wielu lat.

Nie wystarczy zadać temat. Trzeba najpierw zadbać o kontekst i sens. Trzeba więc upewnić się, że temat jest autentycznie interesujący lub istotny dla przyszłej ścieżki zawodowej obecnych studentów. Wymusza to na nauczycielu akademickim dużą kreatywność i głębokie kulturowe zakorzenienie się we współczesności. Trzeba często i daleko wychodzić poza swój własny gabinet akademicki i swoje wygodne biurko. Pisząc symbolicznie: żeby zapalać innych trzeba samemu płonąć. Od studentów musimy wymagać włączenia osobistej refleksji lub odniesienia się do własnych doświadczeń, czego AI nie potrafi. Jeszcze?  Do tego potrzebne są dobre relacje między wykładowcami a studentami. Czy da się budować takie relacje, gdy widzi się studentów tylko w czasie zajęć? A na dodatek te zajęcia mają charakter podawczy i odtwórczy, zaplanowanych wiele miesięcy lub lat wcześniej, aktualnych w nieistniejących już warunkach lub nieistniejących już  kontekstach społecznych.

Nie możemy udawać, że świat poza murami uczelni działa w innej rzeczywistości. To znaczy możemy udawać, tylko z tego udawania nic sensownego nie wynika. Tak jak przestaliśmy liczyć na kartce, i nie udajemy, że nie ma kalkulatorów. Teraz musimy zaakceptować LLM jako narzędzie pracy. Dlatego ja czasem zadaję eseje, nawet w nowoczesnej formule, np. wideorolki, a co więcej – zezwalam na korzystanie z różnorodnych narzędzi AI. Dlaczego? Bo uważam, że naszym zadaniem jest przygotowanie studentów do tego procesu, który czeka ich po opuszczeniu uczelni. Uczymy się wspólnie sensownego korzystania z narzędzi LLM. Bo ja też się uczę razem z nimi.

Student może użyć AI do zebrania wstępnych informacji, stworzenia szkicu, konspektu, czy nawet wygenerowania tekstu. Kluczowe staje się następnie to, co student zrobi z wygenerowanym tekstem, czy podsuniętymi przez AI pomysłami. Czy potrafi otrzymany efekt krytycznie ocenić, poprawić błędy merytoryczne, nadać mu unikalny, autorski przekaz i wzbogacić o własne, pogłębione argumenty? I czy ma robić to ukradkiem, niejako pod ławką? Czy raczej mamy wspólnie odkrywać wady i zalety tych elektronicznych narzędzi? Ja opowiadam się za tym drugim. Dlaczego wspólnie? Bo to nowa rzeczywistość. Ja, jako nauczyciel akademicki, nie miałem możliwości nauczyć się tego wcześniej, przetrawić, dopracować a teraz dzieliłbym się swoim wieloletnim doświadczeniem i przemyślanymi. Pozostaje odkrywać razem metodą prób i błędów. Uznając jednocześnie, że błąd nie jest porażką, że niepowodzenie nie jest porażką. Pozostaje skupić się na procesie tworzenia a nie na tylko na produkcie finalnym. Zachęcam studentów do ustnej i pisemnej refleksji na temat tego, w jaki sposób i dlaczego użyli narzędzi AI oraz co dodali od siebie. Na razie efekty mnie nie zadowalają... Ale te moje niepowodzenia nie uznaję za porażkę. Po pierwszym, mniej udanym naleśniku, będą kolejne, lepsze.

Esej akademicki w obliczu AI nie musi umrzeć. Być może musi jedynie dojrzeć zarówno w swojej formie jak i dydaktycznym wykorzystaniu. Bo na przykład czy w dobie ugruntowującej się nowej mówioności (postpismienności) esej nie może mieć formy wideo lub podcastu? Ta nowa sytuacja wymaga od nas, dydaktyków, porzucenia roli egzekutora przymusu i przyjęcia roli przewodnika, który pokazuje, że samodzielne myślenie jest wartością samą w sobie, a narzędzia AI mogą być co najwyżej sprawnym, ale ograniczonym pomocnikiem. Klucz leży w przejściu od testowania zapamiętywania i odtwarzania do testowania krytycznego myślenia i autorskiej syntezy. Wartość edukacyjna eseju jest być może wieczna, pod warunkiem jednak, że opiera się na wewnętrznej motywacji studenta.

A jakie są Państwa doświadczenia? Czy zauważyli Państwo, że integracja narzędzi AI rzeczywiście wzmacnia, a nie osłabia zaangażowanie studentów? A może wręcz przeciwnie? Zachęcam do dyskusji w komentarzach!

A to mi podpowiedziało Gemini (model LLM) o zaletach i wadach eseju w czasach sztucznej inteligencji (rezultat tylko nieco zmodyfikowałem i przeredagowałem)

Argumenty za (Dlaczego pisanie esejów jest wciąż ważne)
  • Warto podkreślić, że esej to coś więcej niż tylko produkt końcowy – to proces myślowy i rozwój krytycznych umiejętności, których AI nie zastąpi.
  • Rozwój krytycznego myślenia i syntezy: pisanie eseju wymaga od studenta analizy źródeł, oceny ich wiarygodności, syntezy różnych perspektyw i sformułowania własnego stanowiska. AI potrafi generować tekst, ale nie potrafi krytycznie myśleć ani doświadczać procesu budowania unikalnej argumentacji.
  • Umiejętność komunikacji i precyzji języka: eseje uczą jasnego i logicznego wyrażania skomplikowanych idei. To trening struktury, spójności, doboru słownictwa specyficznego dla danej dziedziny i przestrzegania standardów akademickich.
  • Osobisty głos i kreatywność: dobry esej to manifestacja autorskiego punktu widzenia. Studenci uczą się, jak tchnąć w argumentację własną pasję i styl, co jest niemożliwe do osiągnięcia przez maszynę.
  • Wartość procesu badawczego: aby napisać wartościowy esej, student musi prowadzić badania, selekcjonować informacje, i właściwie cytować źródła. Te umiejętności są fundamentalne w pracy naukowej i zawodowej.
Argumenty przeciw/Wyzwania (Jak AI podważa tradycyjne podejście)
  • Łatwość oszustwa i plagiatu AI: głównym wyzwaniem jest to, że AI (np. ChatGPT) może wygenerować spójny i poprawny gramatycznie tekst w kilka sekund, co ułatwia nieuczciwe zaliczenie przedmiotu bez zrozumienia tematu.
  • Erozja wartości tradycyjnej oceny: jeśli jedynym celem jest "zaliczenie", a AI pozwala ominąć etap nauki (wysiłek, który może być traktowany jako zbędny), tradycyjne zadania esejowe tracą swoją diagnostyczną i edukacyjną wartość.
  • Skupienie na produkcie, a nie na procesie: studenci mogą bardziej koncentrować się na poleceniu dla AI, niż na własnym głębokim zrozumieniu tematu.
Wnioski i Nowe Podejścia (Jak zmienić zadania esejowe w erze AI)
Propozycja praktycznych rozwiązań, które integrują, a nie odrzucają, AI:
  • Eseje procesualne: zamiast oceniać tylko końcowy esej, oceniaj etapy pracy: konspekt, selekcję źródeł, pierwszą wersję, refleksję nad tym, jak AI mogłaby pomóc (lub nie), a nawet analizę tekstu wygenerowanego przez AI. Wymaga to jednak ciągłej wspołpracy. I bardziej nadaje się do tutoringu niż zajęć ćwiczeniowych w dużej grupie.
  • Eseje refleksyjne/osobiste: zadawaj tematy wymagające własnych doświadczeń, poglądów, czy odniesienia do bieżących wydarzeń, których kontekstu AI nie posiada.
  • Eseje krytykujące AI: poproś studentów, aby wygenerowali esej za pomocą AI, a następnie ich zadaniem jest krytyczna analiza, poprawa i rozbudowa tego tekstu, uzupełniając go o unikalne, nieoczywiste argumenty.
  • Ocenianie w sali (In-Class Writing): Wprowadzenie elementów pisania eseju pod nadzorem (np. krótkie segmenty eseju, argumenty) weryfikuje faktyczne umiejętności. To, co w tych wnioskach proponuje  AI, to praca klasowa, a jest to trochę kłopotliwe rozwiązanie i nie bardzo widzę się w takim procesie. Z tym się jednak w pełni zgodzę: celem nie jest rezygnacja z esejów, lecz redefinicja ich celów i metody oceny, by rzeczywiście sprawdzały unikalnie ludzkie umiejętności. A w zasadzie by był aktywnością rozwijającą te umiejętności. Samo ocenianie jest dla mnie mniej ważne.

18.11.2025

Czy kosić trawniki i zieleńce w listopadzie?

Moja łączka kwietna pod blokiem. Mały rezerwat biosfery miejskiej, nie koszone od kilku lat. Czasem trochę przycinane nożyczkami, bo to bardzo mała powierzchnia.
 

17 listopada dostałem takie zapytanie (zobacz niżej) od dziennikarza, Marcina Lewickiego. Dawniej w tym czasie leżałby już śnieg. Teraz mamy pogodę jak w szarugi jesienne. Dlaczego jeszcze raz, tym razem samodzielnie, umieszczam swoją odpowiedź na postawione pytania? Bo sam chcę być kapitanem i okrętem. Kontekst wiele zmienia. A nie wszystko co bym chciał znajduje się zazwyczaj w opublikowanym materiale. Redakcje mają swoje cele i ograniczone miejsce. A ja mam swoje cele, popularyzatorskie. I skoro raz włożyłem wysiłek w odpowiedź, to nie chce by nawet fragmenty znalazły się tylko w szufladzie. 

Dzień dobry Panie Profesorze, jestem dziennikarzem Wirtualnej Polski, dostajemy od naszych Czytelników zdjęcia, na których widać jak pracownicy wynajętych firm koszą trawy i zarośla na warszawskim Ursynowie.
1. Jaki jest sens takich działań? Czy podyktowane jest to estetyką, finansami, a może ma to sens przyrodniczy?
2. Czy koszenie w listopadzie jest lepsze niż np. latem?
3. Dlaczego koszenie w listopadzie wywiera negatywny wpływ na przygodę (jeżeli tak rzeczywiście jest)?” 
Tu jest link to opublikowanego artykułu https://www.o2.pl/informacje/pokazala-zdjecie-z-warszawy-wydaje-sie-niecelowe-7223114228963872a Poprosiłem o zmianę zdjęcia, bo wykorzystana fotka  z konwentu fantasy Warmia i Magia 2025 nie jest odpowiednia do wypowiedzi eksperta w sprawie listopadowego koszenia.

Pisząc odpowiedź nie widziałem nawet zdjęć wspomnianej czytelniczki, tak więc nawet pośrednio nie miałem szansy zapoznać się z kontekstem sytuacyjnym. A trudno odpowiedzieć na te pytania nie znając kontekstu miejsca i zakładanych planów (w opublikowanym materiale nie ma odpowiedzi zlecającego to jesienne koszenie). Działania mogą mieć charakter przypadkowy lub celowy (nie znając faktów moge się tylko domyślać. Koszenie w listopadzie, czyli poza sezonem wegetacyjnym, wydaje się niecelowe. Ale to mogą być pozory. Ważne jest pytanie ile razy w ciągu roku w tym miejscu koszono i jaki jest zamysł krajobrazowy oraz środowiskowy. W trzecim pytaniu zawarta jest sugerowana odpowiedź. 

Koszenie trawników i zarośli (zieleń niska) w listopadzie ma przede wszystkim sens techniczny i ogrodniczy, a nie przyrodniczy. Zabieg ten przygotowuje darń na zimę, ogranicza ryzyko chorób grzybowych (np. pleśni śniegowej) i pozwala trawie szybciej ruszyć z wegetacją wiosną (wzrost różnych traw). Z punktu widzenia przyrody może jednak ograniczać schronienia dla owadów i drobnych zwierząt, które wykorzystują wysoką roślinność jako zimowisko. Czasem kosi się dopiero jesienią by nie kosić w czasie dojrzewania roślin i by dać szansę na wysianie się roślin.  

Zabiegi jesienne mogą wynikać z celów ogrodniczy. Może to być ostatnie koszenie przed zimą, gdy trawa wciąż rośnie, jeśli temperatura utrzymuje się powyżej 5°C. Skrócenie źdźbeł zapobiega ich wyłamywaniu się pod śniegiem (a w dobie ocieplenia klimatu coraz trudniej o zimowy śnieg w Polsce). To jesienne koszenie zapobieganie chorobom bo zbyt długa trawa sprzyja rozwojowi pleśni śniegowej i gniciu darni. Zapewnia także lepszy start wiosną – krótko przycięta trawa szybciej się zazielenia i tworzy gęstą murawę (ważne jeśli zależy nam na trawniku typu pole golfowe). I trzeci cel ogrodniczy - ułatwienie pielęgnacji. Koszenie połączone z grabieniem liści i napowietrzaniem poprawia kondycję gleby.

Inny jest punkt widzenia przyrodnika i ekologa. Wysoka trawa, a zwłaszcza suche byliny i zarośla stanowią zimowe schronienie dla owadów, pajęczaków, drobnych ssaków i ptaków. W suchych łodygach pozostają złożone jaja lub znajdują schronienie larwy lub zimujące stadia imago (owadów dorosłych). Koszenie w listopadzie usuwa te siedliska, co może zmniejszać lokalną różnorodność biologiczną. Po drugie rośliny dzikie w zaroślach często wytwarzają nasiona jesienią. Koszenie w tym czasie ogranicza ich rozsiewanie i regenerację. Ponadto pozostające nasiona na łodygach roślin są pokarmem dla ptaków. Z punktu widzenia przyrody naturalnej, nieskoszone fragmenty są bardziej wartościowe jako „wyspy życia” w monotonnych przestrzeniach miejskich.

Z perspektywy ogrodnika listopadowe koszenie jest praktyczne gdyż chroni intensywnie pielęgnowany trawnik przed chorobami i poprawia jego wygląd wiosną. Z perspektywy przyrody koszenie w tym czasie redukuje zimowe schronienia dla organizmów i ogranicza naturalne procesy ekologiczne.

Rozwiązaniem kompromisowym byłoby zostawienie części trawnika lub zarośli nieskoszonych, aby pełniły funkcję refugium dla owadów i drobnych zwierząt, a resztę przygotować technicznie na zimę. Dla przyrody wartościowa jest mozaika z fragmentami często koszonymi i fragmentami pozostawionymi. Dzięki temu mamy większą różnorodność oraz schronienia i bazę pokarmowa dla różnych gatunków małych i średnich zwierząt.

Wiele owadów korzysta z suchych, pustych lub miękkordzeniowych łodyg jako zimowych kryjówek albo miejsc do zakładania gniazd wiosną. Zatem takie suche „badyle” powinny zostać aż do późnej wiosny a nawet lata. Nie wygląda to możne najpiękniej, sprawia wrażenie terenu zaniedbanego ogrodniczo, ale jest to mądra uprawa bioróżnorodności w mieście. Najbardziej znane są dzikie pszczoły samotnice, ale także inne grupy owadów wykorzystują takie struktury.

Miesierki (Megachile) i inne pszczoły samotne chętnie drążą chodniki w łodygach z miękkim rdzeniem (np. malwy, jeżówki, słoneczniki). Murarki (Osmia) często zasiedlają puste łodygi lub trzcinę, gdzie samice składają jaja i oddzielają komórki gniazdowe przegrodami z gliny. Pszczoły z rodzaju Hylaeus wykorzystują naturalne szczeliny i suche łodygi jako schronienia. Z braku takich suchych roślin (łodyg) musimy budować tak zwane hotele dla owadów. Tyle, że te ludzkie hotele mają mniejszą różnorodność siedlisk i służą nielicznym gatunkom. Na dodatek przez skupienie w jednym miejscu gniazdujących owadów ułatwiają przenoszenie się patogenów i pasożytów, żerujących na tych gatunkach owadów. W ogólnym sensie to niehigieniczne dla takich gniazdujących w „badylach” owadów.

Ponadto różne błonkówki (np. żądłówki), takie jak niektóre gatunki os samotnych również gniazdują w pustych łodygach roślin łąkowych i zaroślowych. Larwy niektórych gatunków chrząszczy rozwijają się w martwych łodygach, korzystając z ich miękkiego wnętrza. Część gatunków muchówek i motyli zimuje w stadium poczwarek, przytwierdzonych do suchych łodyg lub ukrytych w ich wnętrzu. Warto także zostawiać w niektórych miejscach leżące suche liścia (gdy spadną z drzew), bo to miejsce zimowania dla różnych owadów, np. dla motyla cytrynka latolistka.

Dlaczego te suche łodygi są ważne? Bo to naturalne hotele dla owadów – pozostawione w ogrodzie lub na łące suche łodygi pełnią funkcję schronienia podobną do sztucznych „hoteli dla owadów”. Po drugie to zimowiska – owady dorosłe, larwy lub poczwarki mogą przetrwać w nich zimę, chronione przed mrozem i drapieżnikami. Po trzecie wiosną , np.  w marcu–kwietniu, samice pszczół samotnic zaczynają zakładać gniazda właśnie w takich strukturach.

Ważne pytanie jest takie kiedy więc kosić i ile razy w roku? Z punktu widzenia przyrodniczego celem jest utrzymanie jak największej mozaiki siedlisk i utrzymanie procesów sukcesji ekologicznej. Jeśli w ogólne nie kosimy to po kilku-, kilkunastu latach wyrośnie tam las (zagajnik itp.). Siedlisko się diametralnie zmieni. Zabiegami ogrodniczymi powinniśmy naśladować naturalne procesu zgryzania przez duże kręgowce. A częstość koszenia uzależnić od jakości gleby (żyzności) i aktualnych warunków pogodowych. Ponadto warto uwzględnić efekt krajobrazowy, tak by w skali krajobrazu utrzymać możliwie dużą mozaikę siedlisk. Bo to sprzyja większej różnorodności biologicznej.

Późnoletnie koszenie jest zabiegiem eliminującym takie rośliny inwazyjne jak np. nawłoć. Zatem z pozoru proste koszenie trawników i zieleńców wymaga dużej wiedzy i ciągłego monitorowania. Zamiast zleceń koszenia w wyznaczonej liczbie w ciągu roku lepiej byłoby podpisywać umowę z firmami na utrzymanie pożądanego stanu przyrodniczego. I wtedy to firma decyduje czy i kiedy kosić. A jeśli zamówi się 1-2 koszenia (albo i więcej) w danym roku, to praca musi być wykonana… choćby w danym momencie nie miała sensu.

Z tych interwencji czytelników wypływa optymistyczny wniosek – mieszkańcom zależy na przyrodniczej jakości okolic osiedli mieszkalnych i chcą chronić bioróżnorodność.

Wnioski przyrodnicze:

  • Koszenie i usuwanie zarośli w listopadzie pozbawia owady specyficznych kryjówek, co zmniejsza ich szanse na przetrwanie zimy.
  • Pozostawienie fragmentów roślin (np. kęp z suchymi łodygami) wspiera bioróżnorodność i sprzyja zapylaczom na wiosnę.
  • Praktyka ogrodnicza: warto zostawić część rabat i trawników nieskoszoną do wiosny, aby owady miały naturalne siedliska.
Jeśli chcesz wesprzeć twórcę to kliknij i postaw kawę