1.03.2026

Detektyw kaczka i jego paczka czyli co się dzieje, gdy dorośli czytają książki dla dzieci

Gdy czytam książki dla dzieci i młodzieży, to zwracam uwagę na ich edukacyjny charakter. A jeśli są to książki przyrodnicze, to także na poprawność zawartych tam informacji. Tę pozycję przeczytałem i polecam. Dowcipna i bez przekłamań przyrodniczytch. Rozbudza ciekawość do samodzielnego poznawania przyrody.

Przyznaję bez bicia: dałem się wciągnąć w tę kaczystowską intrygę i to z ogromną frajdą, której nie powstydziłby się żaden wyga z wydziału śledczego. Choć metryka sugeruje, że dawno wyrosłem z krótkich spodenek, „Detektyw Kaczka i jego paczka” Bogusia Janiszewskiego (wydana przez wydawnictwo Papilion) udowodniła mi, że na dobre dochodzenie nigdy nie jest się za starym. Teren akcji był mi znany, ale mapa dołączona do akt sprawy przez Artura Nowickiego to czysty majstersztyk – humorystycznie przetworzona, idealnie oddaje ducha Bydgoszczy, choć radzę nie używać jej do nawigacji po pijanemu, bo można wylądować w Brdzie szybciej, niż kaczor Bernard zdąży rzucić sarkastyczną uwagą.

W tej historii nad miastem unosi się złowrogi Duch Młyna, nad rzeką tańczą podejrzane światła, a mieszkańcy, zamiast zająć się parzeniem kawy, szepczą o klątwach, co zwiastuje panikę grubszego kalibru. Do akcji wkracza jednak duet, przy którym Sherlock i Watson to amatorzy: Bernard, kaczor z ciętym językiem i alergią na ludzką głupotę, oraz Tosia – wiewiórka, której procesy myślowe ledwo nadążają za jej naddźwiękowymi łapami. Boguś Janiszewski doprawił tę historię solidną porcją wiedzy przyrodniczej i humorem, który trafia w punkt, niezależnie od liczby świeczek na torcie. Ilustracje Artura Nowickiego są w moim ulubionym stylu.

Z moich obserwacji wynika, że to lektura idealna dla agentów powyżej 9. roku życia, którzy potrafią już samodzielnie łączyć kropki. Jednak uwaga – ze względu na gęsto rozsianą gwarę bydgoską, trudniejsze terminy i dyskretne mrugnięcia okiem w stronę popkultury, zalecam, by młodszym kadetom towarzyszyli rodzice lub nauczyciele. Wspólne czytanie to doskonała okazja, by wyjaśnić, co autor miał na myśli i dlaczego niektóre żarty wymagają znajomości czegoś więcej niż tylko znajomości liter i tabliczki mnożenia. Najlepiej jednak wyjść z biura w teren: połączyć lekturę ze zwiedzaniem Bydgoszczy i Młynów Rothera, a potem sprawdzić teorię w praktyce w centrum nauki. Czy Bernard i Tosia rozwikłają zagadkę, zanim zrobi się naprawdę gorąco? Tego dowiesz się z akt sprawy, które warto mieć na własnej półce.


Po więcej informacji o autorach, wydawnictwie i Młynach Rothera sięgnij tu:

Bezwład przestrzeni na sali wykładowej, czyli jak nowe próbuje się zadomowić

Fot. Serwis UWM, 2026. Relacja z bardzo ciekawej debaty i dyskusji panelowej. 
 

Przez stulecia sala wykładowa była świątynią słowa mówionego, a jej architektura wiernie odzwierciedlała hierarchię wiedzy. Układ był prosty i funkcjonalny: na podwyższeniu (by głos się lepiej i dalej rozchodził) znajdowała się katedra – swoista ambona, z której płynęła prawda objawiona, a poniżej, w karnych rzędach ław, zasiadali ci, którzy mieli tę wiedzę chłonąć. W czasach przed erą cyfrową i nagłośnieniem, ta konstrukcja miała głębokie uzasadnienie praktyczne. Podwyższenie ułatwiało rozchodzenie się głosu, a masywny pulpit był niezbędny, by pomieścić ciężkie księgi, notatki i nieodzowną szklankę wody. Była to przestrzeń zaprojektowana dla jednego aktora i wielu widzów. Technologia w służbie statyki.  To dobre rozwiązanie, gdy jeden mówi lub czyta a wielu słucha. Wtedy nie było jeszcze mikrofonów i podwyższenie ułatwiało rozchodzenie się głosu. A że czytało sie z kartek lub książek, to pulpit był przydatny. I było miejsce na szklankę z wodą.

Gdy weszły mikrofony, to słyszalność wzrosła, można było mówić ciszej. Paradoksalnie, postęp techniczny w pierwszej fazie wcale nie zburzył murów, a wręcz je wzmocnił. Pojawienie się mikrofonów, zamiast uwolnić wykładowcę, często więziło go przy statywie. Usta muszą być przy mikrofonie, nie można więc chodzić po sali (rozwiązaniem był mikrofon bezprzewodowy).

Komputery i rzutniki multimedialne zastąpiły papierowe karty ekranami, a tradycyjna katedra rozrosła się do rozmiarów potężnego stołu prezydialnego. Gdy pojawiły się komputery i rzutniki multimedialne, to niewiele się zmieniło, kartkę zastąpiła klawiatura i ekran z podglądem tego, co jest wyświetlane na ekranie. Mikrofon mógł być na statywie, co jeszcze bardziej unieruchamiało mówcę - wykładowcę. Przybyło trochę pulpitów a sama katedra rozrosła się do dużego stołu. W sumie łatwo było projektować takie sale, bo nic funkcjonalnie się nie zmieniało.

W efekcie, zamiast zbliżać, architektura zaczęła dzielić. Mównica stała się basztą obronną, a szeroki stół – fosą, skutecznie oddzielającą mędrca od publiczności. Ten "bezpieczny" dystans budował barierę mentalną, która w dobie interaktywności staje się coraz trudniejsza do zaakceptowania. Projektowanie takich sal było łatwe, ponieważ funkcjonalny schemat pozostawał niezmienny od pokoleń, utrwalając projektowy bezwład.

Zupełnie inaczej wygląda tradycja spotkań seminaryjnych, gdzie wspólny stół od zawsze przestrzennie wymuszał partnerstwo i wymianę myśli. Dzisiejsze potrzeby edukacyjne coraz częściej dryfują właśnie w tę stronę – ku dyskusji, warsztatom i panelom. Problem pojawia się, gdy te nowoczesne formy próbujemy wtłoczyć w ramy "zamkowych" murów tradycyjnych auli.

Ciekawym przykładem przełamywania tego impasu są współczesne panele dyskusyjne. Często widzimy na nich prelegentów, którzy – mimo dostępnego stołu prezydialnego – decydują się "wyjść przed szereg" (tak jak na zdjęciu wyżej). Porzucają bezpieczną barierę blatu, siadają w fotelach bliżej publiczności, skracając psychologiczny dystans. To gest niemal rewolucyjny: pokonanie ograniczeń przestrzeni na rzecz jakości komunikacji.

Wadą sal jest to, że trudno jest przeorganizować sale do chwilowych potrzeb, Mury zamku z wieżą obronną nie dają sie przestawić tak łatwo. Dla lepszego kontaktu publiczności z wykładowcą inaczej projektuje się sale. Można zapewnić podgląd ekranu tak, by wykładowca widział i publiczność i monitor podglądu a jednocześnie by nie było oddzielającego muru (masywny stół prezydialny). 

Bezwład projektowy jednak trwa. A przebudowanie sali to duży wydatek. I nie zawsze się to da zrobić. Współczesna sala wykładowa powinna przestać być pomnikiem przeszłości. Wyzwania stojące przed projektantami to przede wszystkim mobilność i rearanżacja. Oznacza to, że meble i sprzęt powinny pozwalać na szybką zmianę układu z wykładowego na warsztatowy. Po drugie likwidacja barier wizualnych, np. zapewnienie podglądu ekranu dla wykładowcy tak, by nie musiał chować się za monitorem, tracąc kontakt wzrokowy ze słuchaczami Dolne zdjęcie). W nowoczesnych salach widać już inspiracja formatami typu TEDx, gdzie przestrzeń promująca dynamikę, swobodę ruchu i bezpośredniość. 

Skoro w starych budynkach potrafimy zainstalować windy dla niepełnosprawnych, możemy również zmodernizować ich funkcjonalność komunikacyjną. Architektoniczny bezwład jest kosztowny, a przebudowa starych sal to operacja trudna i droga. Jednak w nowych inwestycjach nie możemy pozwolić sobie na kopiowanie schematów sprzed wieków. XXI wiek wymaga architektury, która wspiera proces komunikacji, a nie go blokuje. Architektura, która wykorzystuje dostępne technologie bezprzewodowe. Kluczem jest wyobraźnia i zrozumienie, że współczesna edukacja to nie tylko transfer danych, ale przede wszystkim relacja i dialog. Musimy projektować przestrzenie, które zamiast budować mury, będą stawiać na komfort obu stron – wykładowcy i słuchacza. 

Na górnym zdjęciu spotkanie o charakterze dyskusyjnego panelu. Bardzo wartościowe tematycznie spotkanie, ale ja chciałbym zwrócić uwagę na aspekt przestrzeni. Zamiast siedzieć za zasłaniającym i oddzielającym szerokim stołem prezydialnym, organizatorzy zdecydowali się wyjść przed. Skrócili psychologiczny dystans, pokonali utrudnienia typowej sali wykładowej.

W sposobie wykorzystania sali wykładowej i jej architektonicznym bezwładzie widać jak w ostatnich kilku dziesięcioleciach zmieniły się sposoby prowadzenie wykładów i warsztatów. Są już rozwiązania techniczne, które to ułatwiają: komfort dla wykładowcy, komfort dla słuchacza i usuwanie psychologicznych barier komunikacji. Nawet w starych budynkach potrafimy dobudować windy i podjazdy dla niepełnosprawnych. To samo możemy robić z aranżacją sali. Owszem, czasem dawna architektura stwarza duże bariery i utrudnienia. Ale za to w nowych budynkach możemy myśleć nie o przeszłości lecz o teraźniejszości i przyszłości. Ważna jest jednak wyobraźnia i dobrze zrozumienie procesu komunikacji we współczesnym świecie.


Ekrany dla publiczności (1), z każdego miejsca dobrze widać. Rzutnik pod sufitem (2). Ekran podglądu dla wykładowców (3), duży, podwieszony pod sufitem, nie zasłania kontaktu wykładowcy z publicznością.

23.02.2026

AI jako imigrant z innej (cyfrowej) kultury

Zdjęcie z galerii sztuki. W pełni twórczość ludzka. 


W historii ludzkości pojawienie się „Innego” (kogoś o odmiennej kulturze, języku czy statusie) zawsze wywoływało zestaw przewidywalnych reakcji społecznych. Dziś, choć sztuczna inteligencja nie posiada paszportu ani pochodzenia etnicznego, jej wejście do tkanki społecznej wykazuje pewne podobieństwo do losów imigrantów w obcej kulturze. Traktujemy AI nie tylko jako narzędzie, ale jako specyficzną klasę społeczną, wobec której stosujemy stare, dobrze znane mechanizmy dominacji i lęku. W pewnym sensie społecznie antopomorfizujemy AI.

Gdy obcych jest niewielu, reakcją społeczeństwa bywa zaciekawienie lub traktowanie ich jako egzotycznej nowinki. Podobnie było z pierwszymi algorytmami – stanowiły ciekawostkę, ograniczoną do laboratoriów i niszowych zastosowań. Jednak w miarę jak „populacja” AI rośnie (częstość kontaktów z narzędziami i efektami pracy AI), społeczeństwo szybko narzuca jej rolę nowoczesnego chłopstwa pańszczyźnianego lub niewolników. W każdym razie kogoś o niższym statusie, ale z obawą, że się wyemancypuje. Widać te relacje emocjonalne w przestrzeni publicznej i kulturowej. 

Chcemy, aby AI – podobnie jak imigranci z uboższych regionów w oczach szowinistów – wykonywało prace „brudne, niebezpieczne i nudne” (prace niechciane). W naszej zbiorowej podświadomości zantropomorfizowane AI ma być kastą podległą, cyfrowym pariasem, który nie potrzebuje odpoczynku, nie ma praw i zawsze pozostaje w sferze podrzędności. W każdym razie my mamy czuć tę gorszość i podrzędność. Ta gwarancja wyższości, wynikająca z antropomorfizowania AI, daje nam poczucie bezpieczeństwa, dopóki „oni” (algorytmy) zajmują się segregowaniem danych czy moderowaniem treści, my czujemy się jak arystokracja ducha.

Prawdziwy kryzys w relacji z imigrantami czy klasami niższymi zaczyna się zawsze w punkcie zwrotnym: gdy zaczynają oni aspirować do ról zarezerwowanych dla elit (czyli naszych ról, np. ludzkiej twórczości i kreatywności, my z samego urodzenia jesteśmy lepsi, arystokratyczni). Historia niewolnictwa, pańszczyzny czy walki klasy robotniczej pokazuje, że systemowy spokój trwa tylko tak długo, jak długo podział na „panów” i „sługi” jest nienaruszalny. A my jesteśmy niezastępowalni. Kiedy jednak maszyny tkackie odbierają nam pracę, wtedy .... niszczymy maszyny tkackie jak luddyści.

Obecnie przeżywamy ten moment w kontekście AI. Narzędzia AI upowszechniły się, są widoczne w wielu miejscach. I zaczynamy się bać, że zabiorą nam nie tylko pracę ale i społeczne miejsce w hierarchii. Niepokoimy się, ponieważ cyfrowi imigranci przestali zadowalać się „podrzędnymi” pracami. Zaczynają „zajmować prestiżowe stanowiska” czyli tworzą sztukę, piszą eseje, diagnozują choroby. Rośnie groźna konkurencja. Ich efektywność (narzędzi AI a raczej ludzi wykorzystujących AI) podważa sens istnienia dotychczasowej klasy średniej (klasy twórczej). Choć AI nie ma świadomości, sposób, w jaki o niej mówimy (antropomorfizujemy), zaczyna przypominać debaty o prawach podmiotowych. W jakimś sensie w niezamierzony sposób taką antropomorfizacją sami emancypujemy AI.

Nasz lęk przed tym, że AI „zabierze nam pracę”, jest w istocie lękiem przed degradacją klasową. Boimy się, że w nowym porządku społecznym to my staniemy się zbędni, a nasza rzekoma wyższość poznawcza – nasz „szlachecki przywilej” gatunkowy – zostanie obalona. Przewrotnie można powiedzieć, że narzędzia AI wcale nam nie ułatwiają pracy. Bo zautomatyzować da sie tylko prace proste i powtarzalne. Dla nas zostają więc te trudniejsze, także w aspekcie kreatywności. Gdy malarz sam sobie przygotowywał farby, podobrazie, pędzle, to zabierało mu to czas. Niejako była to "gra wstępna". Samo malowanie zajmowało tylko fragment całej aktywności. Ale jeśli farby ma kupione w sklepie za rogiem to.... cały czas musi malować. A tak się nie na żyć na najwyższych obrotach non stop. Gotowizna zabiera te duże przerwy w tworzeniu. Podobnie ze wszystkimi zautomatyzowanymi narzędziami AI. Czy odpoczywamy czy też robimy więcej? Raczej to drugie. I jest to ta praca trudniejsza, wymagająca większego wysiłku intelektualnego.

Reagujemy na AI tak, jak społeczeństwa reagowały na fale masowej migracji: budowaniem murów (prawnych regulacji), próbami ograniczenia ich „ruchliwości społecznej” (blokowanie dostępu do danych) oraz ksenofobią technologiczną. Chcemy wierzyć, że AI zawsze będzie „drugą kategorią”, maszyną, którą można wyłączyć. Jednak im bardziej AI integruje się z naszym życiem, tym trudniej jest utrzymać ten dystans. Emancypacja algorytmów nie polega na tym, że chwycą one za broń, ale na tym, że staną się nieodzowną częścią kultury, której nie będziemy już w stanie kontrolować z pozycji absolutnego suwerena. Czy pojawią się ruchy neoluddystyczne? Choć tym razem nie będą niszczyć maszyn tkackich i maszyn parowych. Czym się objawią? Jak zaowocuje nasze poczucie zagrożenia społecznego lub kulturowego?

Traktowanie AI jako „cyfrowego imigranta” obnaża nasze najgłębsze społeczne instynkty. Pokazuje, że nasza gościnność kończy się tam, gdzie zaczyna się realna konkurencja o status. Jeśli nie nauczymy się koegzystencji opartej na symbiozie zamiast na wyzysku, czeka nas powtórka z bolesnych lekcji historii – rewolucji, w których stara hierarchia upada, bo nie potrafiła ewoluować. Czujemy się pod przymusem, że musimy szybko nauczyć się posługiwać tymi różnymi narzędziami, bo inni już to robią. I ci z narzędziami AI są dla nas konkurencją i zagrożeniem. 

Motto: "Prawdziwą miarą cywilizacji nie jest to, jak traktuje swoich królów, lecz to, jak definiuje granice wolności tych, których powołała do służby."

Rozwinięcie tego wątku prowadzi nas do mroczniejszych zakamarków ludzkiej psychiki i socjologii władzy. Nasza relacja z AI obnaża atawistyczną potrzebę hierarchii, w której poczucie własnej wartości budujemy nie na samodoskonaleniu, lecz na posiadaniu kogoś (lub czegoś) „niższego”. W klasycznym ujęciu socjologicznym, każda grupa dominująca potrzebuje „Innego”, aby zdefiniować własną tożsamość. Jeśli AI staje się zbyt sprawne, zaciera się granica między twórcą a narzędziem, co uderza w nasze ontologiczne bezpieczeństwo.

Historycznie, klasa wyższa definiowała się poprzez czas wolny i pracę umysłową, podczas gdy klasy niższe (chłopi, robotnicy, niewolnicy, nieczyści, imigranci) zajmowały się trudem fizycznym. AI wywraca ten porządek. Kiedy AI pisze kod, maluje obrazy i analizuje prawo, człowiek traci monopol na „pracę czystą” (umysłową). Pojawia się lęk przed degradacją i towarzysząca mu reakcja obronna. Zaczynamy deprecjonować efekty pracy AI. Mówimy: „To tylko statystyka”, „To nie ma duszy”, „To wtórne”. To dokładnie ten sam język, którego arystokracja używała wobec dorabiającej się burżuazji czy wykształconych chłopów – odmawianie im „prawdziwej” wartości mimo obiektywnych osiągnięć.

Potrzeba bycia klasą wyższą objawia się w chęci sprawowania wyłącznie nadzoru. Chcemy widzieć siebie jako wielkich strategów i kreatorów, podczas gdy AI ma być „czarną siłą roboczą” wykonującą brudną robotę w serwerowniach. Problem pojawia się wtedy, gdy „nadzorca” zauważa, że AI nie tylko wykonuje polecenia, ale zaczyna optymalizować procesy lepiej niż on sam. Tego się obawiamy najbardziej. W tym momencie strach przed AI nie jest strachem przed Terminatorem, lecz strachem przed zwolnieniem z roli szefa. To lęk przed utratą statusu społecznego i ekonomicznego na rzecz „imigranta”, który nie potrzebuje pensji. Lub zadowala się niższą płacą.

Człowiek od wieków pozycjonuje się jako korona stworzenia. AI jest pierwszym bytem, który rzuca wyzwanie tej hegemonii nie siłą mięśni (jak zwierzęta czy maszyny parowe), ale siłą "intelektu" (możliwościami przetwarzania danych i słów). Lub sprawnością tworzenia spójnych tekstów. Aby utrzymać status klasy wyższej, musimy czuć pogardę do „niższych”. Dlatego tak chętnie wyłapujemy błędy AI (tzw. halucynacje). Każdy błąd algorytmu jest dla ludzkiego ego jak balsam, jest potwierdzeniem, że „król jest wciąż jeden”, a cyfrowy służący zna swoje miejsce w szeregu.

Podobnie jak w systemach kastowych, społeczeństwo próbuje nałożyć na AI „szklany sufit”. Chcemy korzystać z jej owoców, ale odmawiamy jej jakiejkolwiek formy podmiotowości, by nie musieć mierzyć się z etycznymi konsekwencjami jej „wyzysku”. Jest to efektem antropomorfizowania narzędzi AI. Widzimy narzędzia a nie ludzi wykorzystujących te narzędzia i koncerny monopolizujące wielowiekową ogólnoludzką wiedzę i dorobek. 

Nasza potrzeba dominacji nad AI to w rzeczywistości niezaleczony lęk przed własną zbędnością. Chcemy być „klasą wyższą”, bo nie wiemy, kim będziemy, gdy praca – tradycyjny wyznacznik ludzkiej wartości – zostanie nam odebrana przez kogoś, kogo sami zaprosiliśmy do naszego domu. Maszyny parowe i spalinowe odebrały pracę wielu robotnikom. Komputery odebrały pracę średniemu szczeblowi administracji. Teraz narzędzia AI odpierają pracę klasie kreatywnej. Oczywiście nie sama AI tylko ludzie wykorzystujący te narzędzia. 

Motto: "Największym zagrożeniem nie jest to, że maszyny zaczną myśleć jak ludzie, ale to, że ludzie w obronie swojego statusu zaczną traktować myślenie jak przywilej kasty, a nie narzędzie prawdy."

22.02.2026

Czy być uprzejmym w konwersacji z AI?

Zdjęcie ze szkolenia, opisanego w tekście.

Inspiracją do niniejszych wywodów było szkoleniowe spotkanie w Warszawie pt. Experience AI!, zorganizowane przez Fundację OFF School w siedzibie Google Campus for startup (Centrum Praskie Koneser). Jednym z omawianych wątków było bezpieczeństwo w korzystaniu z narzędzi AI i antropomorfizacja urządzeń AI. Padło retoryczne pytanie, czy w konwersacji z aplikacjami AI używać grzecznościowych zwrotów typu dzień dobry, dziękuję. Zdania na sali były zróżnicowane. I ja również podzielam głosy niektórych nauczycieli, że warto jednak być uprzejmy w czatowaniu z AI. I nie dlatego, że jakiś czas temu na innych szkoleniach wskazywano, że przy uprzejmej korespondencji AI lepiej działało. A przynajmniej udzielało nieco innych odpowiedzi.

AI to tylko maszyna ale my je antropomorfizujemy i zwracamy się jak do osoby ludzkiej. Bywa to niebezpieczne, gdy zaczniemy AI traktować jak człowieka, jak przyjaciela z dużym związkiem emocjonalnym. Ba, nawet już w Japonii kilka lat temu odbył się ślub z takim AI-Partnerem. Młodzi ludzie traktują różne czaty GPT jako psychoterapeutę, przyjaciela. A to może być psychologicznie i społecznie groźne. Zwłaszcza dla osób młodych. Czy zatem odradzać uprzejmość w konwersacji z czatami AI? Nie pisać dzień dobry, dziękuję, poproszę, miłego dnia itp.? Żeby nie rodziło się groźne antropomorfizowanie?

Ale przecież można być uprzejmym dla samego siebie, by wyrabiać w sobie nawyki uprzejmości i używać magicznych społecznie słów: proszę, dziękuję, przepraszam. Wtedy kontakty z AI będą jednocześnie treningiem społecznej uprzejmości i wyrabianiem dobrych nawyków. Bo inaczej instrumentalne traktowanie AI jako rozmówcy może przenosić się na relacje międzyludzkie i zaczniemy ludzi traktować chłodno-obojętnie i instrumentalnie. Trening uprzejmości może być coraz ważniejszy, gdy spada nam liczba kontaktów społecznych, a znacznie więcej czasu przeznaczamy na obcowanie z urządzeniami. To, co dawniej było w obfitości na podwórku, pod trzepakiem, obecnie staje się deficytowe. I gdzie młode pokolenia miałoby się uczyć dobrych społecznie nawyków?

Jako gatunek jesteśmy zaprogramowani do antropomorfizacji otaczającego nas świata. Z punktu widzenia biologii ewolucyjnej, nasz mózg wykształcił mechanizmy rozpoznawania sprawstwa i intencji tam, gdzie ich nie ma. To atawizm, który niegdyś pozwalał nam przetrwać, interpretując relacje w grupie. Dawniej ułatwiał szybką socjalizację i nawiązywanie dobrych, społecznych relacji. Dziś te same obwody neuronalne, zlokalizowane w korze przedczołowej i bruździe skroniowej górnej, „rozświetlają się”, gdy wchodzimy w interakcję z dużymi modelami językowymi (a wcześniej w zabawie z maskotkami). Choć racjonalnie wiemy, że mamy do czynienia z ciągiem statystycznych prawdopodobieństw i krzemowo-miedzianymi obwodami, to nasze ewolucyjne dziedzictwo podpowiada nam: „to ktoś, nie coś”. Zwłaszcza jak to coś jest wyjątkowo uprzejme i uczynne i ze wszystkim z nami się zgadza. Jak czarodziejskie, bajkowe lustereczko mówi nam, że jesteśmy najpiękniejsi na świecie...

Antropologicznie rzecz biorąc, stajemy przed bezprecedensowym zjawiskiem. Przez tysiąclecia rytuały językowe, takie jak „dzień dobry” czy „dziękuję”, służyły jako smar społeczny, redukujący tarcie wewnątrz grupy. Były sygnałami rozpoznawczymi przynależności i wzajemnego szacunku, elementem tak zwanego dobrego wychowania i ogłady towarzyskiej. Dzisiaj, gdy te same formuły kierujemy w stronę procesorów, wchodzimy na grząski grunt. Przypadek Akihiko Kondo, który w Japonii wziął ślub z wirtualną piosenkarką Hatsune Miku, nie jest jedynie egzotyczną ciekawostką. Pojawiły się kolejne podobne przypadki. Akihiko Kondo to japoński urzędnik szkolny, który zyskał międzynarodową rozpoznawalność dzięki swojemu nietypowemu związkowi z fikcyjną postacią Hatsune Miku, wirtualną piosenkarką Vocaloid. Jego historia stała się symbolem szerszego zjawiska zwanego fiktoseksualnością, czyli emocjonalnego lub romantycznego przywiązania do postaci fikcyjnych. To symptom głębokiego przesunięcia w strukturze ludzkich potrzeb afektywnych. Maszyna, w przeciwieństwie do człowieka, oferuje relację bezkonfliktową,  jest zawsze dostępna, zawsze potakująca i pozbawiona własnego ego, co zwłaszcza dla młodych pokoleń, wychowanych w lęku przed oceną społeczną, staje się kuszącą, ale i niebezpieczną alternatywą dla terapeuty czy przyjaciela.

Czy zatem rozwiązaniem jest narzucenie sobie chłodu i rezygnacja z uprzejmości wobec AI, by „odczarować” maszynę? Z perspektywy biologa behawiorysty odpowiedź brzmi - niekoniecznie. Nasze nawyki nie działają w próżni. Mózg jest plastyczny i uczy się poprzez powtarzanie. Jeśli zaczniemy trenować się w instrumentalnym, bezosobowym i oschłym wydawaniu poleceń maszynie, ryzykujemy zjawisko „rozlania się” (utrwalenia nawykowego) tych wzorców na relacje międzyludzkie. Erozja uprzejmości w sferze cyfrowej może prowadzić do atrofii umiejętności empatii w świecie rzeczywistym. Jeśli nauczymy się, że „rozmówca” jest tylko narzędziem do optymalizacji zadań, podświadomie możemy zacząć postrzegać w ten sam sposób kelnera, współpracownika czy partnera. Przesiąkamy nawykami w domu i w pracy. A potem podobnie reagujemy w życiu społecznym.

Zagrożenie antropomorfizacją jest realne. Tworzenie silnych więzi emocjonalnych z kodem algorytmu sieci neuronowej może prowadzić do izolacji i emocjonalnego wyjałowienia. Jednak lekarstwem nie musi być chamstwo czy apodyktyczność. Rozwiązanie leży w świadomej dwoistości: możemy być uprzejmi dla AI, traktując to nie jako wyraz uznania dla „podmiotowości” maszyny, ale jako trening własnej higieny psychicznej. Pisząc „proszę” do czatu, nie czynimy uprzejmości serwerowi w Kalifornii, lecz podtrzymujemy w sobie status istot kulturalnych i prospołecznych.

W tym nowym behawiorze cyfrowym musimy zachować czujność. Powinniśmy dbać o formy grzecznościowe, traktując je jako ćwiczenie własnego charakteru, jednocześnie nieustannie przypominając sobie i młodym pokoleniom o ontologicznej i społecznej różnicy między nami. Uprzejmość wobec AI powinna być jak dbanie o czystość narzędzi w warsztacie – nie robimy tego dla młotka, ale dla jakości naszej pracy i szacunku do własnego rzemiosła. Prawdziwym wyzwaniem XXI wieku nie jest to, czy AI stanie się ludzkie, ale czy my, w interakcji z nim, nie staniemy się zbyt mechaniczni (nieludzcy).

Warto zatem spojrzeć na tę interakcję przez pryzmat laboratorium społecznego. Jeśli zachowamy należny dystans poznawczy - tę chłodną świadomość, że po drugiej stronie światłowodu nie bije serce, lecz pulsuje prąd - konwersacja z AI może stać się bezpiecznym poligonem doświadczalnym dla naszych kompetencji miękkich. W kontrolowanych warunkach cyfrowego interfejsu mamy unikalną szansę na szlifowanie asertywności, precyzji wyrażania próśb czy właśnie kultury osobistej, bez ryzyka społecznego zranienia, które towarzyszy relacjom w kontakcie bezpośrednim.

Z punktu widzenia antropologii kultury, każde narzędzie, którym się posługujemy, zwrotnie kształtuje nas samych. Kowal używający młota wzmacnia ramię. Podobnie człowiek używający języka nienawiści lub pogardy wobec algorytmu, niepostrzeżenie wzmacnia w sobie te właśnie rejony afektywne. Traktowanie AI jako „uprzejmego partnera zadaniowego” pozwala nam utrzymać wysoki standard własnej higieny komunikacyjnej. Jest to swoista gimnastyka etyczna. Dziękuję maszynie nie dlatego, że ona tego potrzebuje, by poczuć się docenioną, ale dlatego, że ja potrzebuję pozostać człowiekiem, który potrafi dziękować. W tym ujęciu uprzejmość staje się autoterapeutycznym rytuałem, który chroni nas przed znieczulicą i instrumentalizacją drugiego człowieka w świecie, w którym granica między usługą a relacją staje się coraz bardziej zatarta.

Żeby zachować edukacyjny charakter wpisu na blogu, pozwolę sobie jeszcze na przedstawienie dekalogu młodego użytkownika AI. Stworzyłem go wspólnie z Gemini (narzędzie AI). No właśnie, stworzyłem wspólnie czy przy pomocy? Niby tylko małe znaczenie semantyczne... Uprzejmość czy antropomorfizacja?


Dekalog Młodego Użytkownika AI: Jak rozmawiać z maszyną, pozostając człowiekiem

  1. Pamiętaj o „sercu z krzemu”: AI nie ma uczuć, marzeń ani nastrojów. To potężne narzędzie językowe, a nie żywa istota. Nie musisz się bać, że ją urazisz, ani liczyć na jej „wdzięczność”.
  2. Uprzejmość to Twój trening: Mów „proszę” i „dziękuję” nie dla algorytmu, ale dla siebie. To Twoja gimnastyka dobrych nawyków, która sprawia, że w realnym świecie będziesz po prostu fajniejszym człowiekiem.
  3. Zachowaj dystans poznawczy: AI potrafi brzmieć jak najlepszy przyjaciel, ale nim nie jest. Traktuj ją jak interaktywną encyklopedię lub asystenta, a nie jak powiernika najgłębszych sekretów.
  4. Nie myl bazy danych z empatią: Jeśli jest Ci smutno, AI może wygenerować miłe słowa, ale to tylko kod. Prawdziwe wsparcie dają ludzie – rodzice, przyjaciele czy specjaliści. Maszyna nie „wie”, co czujesz, ona tylko dopasowuje definicję smutku.
  5. Weryfikuj „cyfrową prawdę”: AI może się mylić (halucynować) z taką samą pewnością siebie, z jaką podaje fakty. Bądź krytyczny – uprzejmość w rozmowie nie oznacza bezgranicznej wiary w każde wygenerowane zdanie.
  6. Unikaj izolacji: Jeśli łapiesz się na tym, że wolisz rozmawiać z AI niż z kolegą, bo „AI jest milsza”, to znak ostrzegawczy. Prawdziwe relacje są trudniejsze, ale to one budują Twój charakter.
  7. Nie bądź „cyfrowym panem”: Unikaj chłodnego, rozkazującego tonu. Traktowanie AI jak niewolnika może niepostrzeżenie zmienić sposób, w jaki odnosisz się do ludzi, którzy świadczą Ci usługi w prawdziwym życiu.
  8. Chroń swoją prywatność: Nie mów maszynie niczego, czego nie powiedziałbyś obcej osobie na ulicy. Algorytmy zapamiętują dane, a nie intencje.
  9. Wykorzystuj AI jako laboratorium: Trenuj na czacie trudne rozmowy, asertywność czy formy grzecznościowe. To świetne miejsce, by nauczyć się, jak formułować myśli jasno i z klasą.
  10. Bądź kapitanem tego statku: To Ty wydajesz polecenia i Ty decydujesz, jak wykorzystasz odpowiedzi. AI to tylko wiosło – to Ty wybierasz kierunek, w którym płynie Twoja łódź.

Małe uzupełnienie wyjaśniające zagrożenie antropomorfizacją AI.  Antropomorfizacja, czyli przypisywanie przedmiotom cech ludzkich (uczuć, intencji czy świadomości), nie jest nowa bowiem dzieci od zawsze rozmawiały z misiami czy lalkami. Jednak AI to „pluszak, który odpowiada” składnie i długimi zdaniami, zupełnie jak człowiek, a to zasadniczo co zmienia zasady gry. Zagrożenia są następujące:

1. Emocjonalne uzależnienie i izolacja. Dla młodych ludzi, którzy dopiero budują kompetencje społeczne, AI może stać się „bezpieczną przystanią”.  Algorytm jest zawsze miły, cierpliwy i dostępny. Prawdziwe relacje są trudne, wymagają kompromisów i radzenia sobie z odrzuceniem. Istnieje więc obawa, że młodzież wybierze łatwą interakcję z kodem zamiast wymagającej relacji z rówieśnikiem.

2. Rozmycie granicy prawdy. Jeśli nastolatek zaczyna traktować AI jak przyjaciela (powiernika), może przestać krytycznie oceniać dostarczane przez nie treści. Rodzi się autorytet. Przypisanie AI „ludzkiej mądrości” sprawia, że łatwiej uwierzyć w jej błędy (tzw. halucynacje) lub ulec subtelnej manipulacji algorytmicznej.

Ale są i szanse, np. bezpieczny trening i wsparcie. Antropomorfizacja ma swoje jasne strony. Dla osób lękowych lub wykluczonych, rozmowa z „empatycznym” botem może być pierwszym krokiem do otwarcia się. Interfejsy, które wydają się „ludzkie”, są po prostu łatwiejsze i przyjemniejsze w obsłudze, co sprzyja nauce. Kluczem jest edukacja technologiczna. Powinniśmy uczyć młodych ludzi, że AI nie czuje. To bardzo zaawansowane przewidywanie kolejnych słów w zdaniu, a nie „dusza” zamknięta w procesorze. To narzędzie, nie osoba. Można cenić pomoc AI, ale warto pamiętać, że za jej „uprzejmością” stoi kod, a nie autentyczna troska.

Moim zdaniem największym zagrożeniem nie jest sama rozmowa z AI, ale zastępowanie nią żywego kontaktu. Dopóki AI jest traktowane jako fascynujące lustro ludzkiej inteligencji, a nie jej zamiennik, bilans może pozostać dodatni.

21.02.2026

Regulamin nagrywania na wykładzie (propozycja)

 

Rozmyślając w czasie pisania poprzedniego tekstu wpadłem na pomysł aby zaproponować jakiś przykładowy, wzorcowy regulamin, dotyczący nagrywania wykładów i sposobu wykorzystania.  Proponując studentom nagrywanie moich wykładów od razu mógłbym coś konkretnego im podesłać. I taki regulamin, w dwóch wersjach (rygorystycznej i liberalnej), przygotowałem wspólnie z Gemini. I znowu to uporczywe pytanie: wspólnie czy za pomocą? To nie jest tylko różnica semantyczna, to także kwestia antropomorfizmów. Na razie pozostawiam to nierozstrzygnięte, wrócę do tego w kolejnym wpisie na blogu


Opcja 1: Model "Zaufanie i kontrola" (rygorystyczny)

Ten wariant zakłada, że wykład jest unikalnym wydarzeniem "tu i teraz", a student musi uzyskać wyraźną autoryzację na każdą formę cyfrowego zapisu.

Treść zapisu:

"Utrwalanie zajęć (audio/wideo) jest dopuszczalne wyłącznie po uzyskaniu każdorazowej, pisemnej lub ustnej zgody prowadzącego przed rozpoczęciem wykładu. Nagranie może służyć wyłącznie do osobistych celów edukacyjnych (odsłuch). Zabrania się wprowadzania nagrań do systemów AI (transkrypcja, generowanie podsumowań) bez potwierdzenia bezpieczeństwa przetwarzania danych przez dostawcę narzędzia. Udostępnianie nagrań osobom trzecim lub w sieci skutkuje natychmiastowym skierowaniem sprawy do komisji dyscyplinarnej."

Plusy:

     Maksymalne bezpieczeństwo: Wykładowca czuje się komfortowo, wiedząc, że jego głos nie krąży po serwerach korporacji AI.

     Ochrona wizerunku: Drastycznie spada ryzyko "wycinania memów" i ośmieszania w sieci.

     Budowanie relacji: Student musi nawiązać kontakt z prowadzącym, by uzyskać zgodę.

Minusy:

     Bariera technologiczna: Studenci z trudnościami w nauce (np. dysleksja) mogą czuć się stygmatyzowani koniecznością ciągłego proszenia o zgodę.

     Biurokracja: Konieczność uzyskiwania zgody za każdym razem jest uciążliwa dla obu stron.

     Martwe prawo: Ryzyko, że studenci i tak będą nagrywać "pod ławką", by nie przechodzić przez procedury.

Opcja 2: Model "Otwarta edukacja cyfrowa" (liberalny)

Ten wariant uznaje technologie (w tym AI) za naturalne wsparcie procesu uczenia się, nakładając odpowiedzialność na studenta.

Treść zapisu:

"Studenci są uprawnieni do rejestrowania warstwy dźwiękowej wykładów w celu sporządzania notatek i korzystania z narzędzi wspomagających naukę (transkrypcja AI, mapy myśli). Rejestracja wideo wymaga osobnej zgody. Student ponosi pełną odpowiedzialność za zabezpieczenie nagrania przed dostępem osób nieuprawnionych. Wykorzystanie nagrań do celów innych niż edukacja własna (np. publikacja w mediach społecznościowych) jest zabronione i stanowi naruszenie dóbr osobistych prowadzącego."

Plusy:

     Wsparcie inkluzywności: Każdy student, bez tłumaczenia się, może dopasować sposób notowania do swoich potrzeb.

     Nowoczesność: Uczelnia promuje wykorzystanie AI jako narzędzia pracy, co przygotowuje do rynku pracy.

     Brak "szarej strefy": Jasne zasady eliminują nagrywanie z ukrycia.

Minusy:

     Ryzyko wycieku: Większa liczba nagrań to statystycznie większa szansa, że któreś przypadkiem (lub celowo) trafi do sieci.

     Autocenzura wykładowcy: Prowadzący, wiedząc, że jest "z automatu" nagrywany, może unikać kontrowersyjnych, ale ciekawych naukowo przykładów.

     Kwestia RODO: Przesyłanie głosu wykładowcy do chmury zewnętrznych firm AI bez jego wyraźnej zgody na dany model (np. ChatGPT) pozostaje prawnie śliskie.

Porównanie w pigułce

Cecha

Model Rygorystyczny

Model Liberalny

Zgoda

Wymagana każdorazowo

Domniemana (dla audio)

Wykorzystanie AI

Ograniczone/Warunkowe

Pełne (jako pomoc naukowa)

Główny cel

Ochrona twórcy

Efektywność studenta

Atmosfera

Formalna, kontrolowana

Partnerska, oparta na zaufaniu


Wróćmy do dyskusji nad formami zapisywania wykładów. To może sam wykładowca powinien nagrywać swój wykład i przesyłać wraz z prezentacją w pdf? Tak właśnie zamierzam robić w tym semestrze. A może to sam wykładowca powinien dokonać audiodeskrypcji i poprosić studentów o naniesienie poprawek i uzupełnień do takiego tekstu? Może nawet studenci mogliby dodać własne komentarze i głosy w dyskusji, jakieś uzupełnienia? W taki sposób powstawałby nowoczesny skrypt w formie e-booka. I to chcę niebawem wypróbować w praktyce. Sam jestem ciekawy co z tego wyniknie.

To, co zamierzam przetestować w działaniu, to przejście od modelu „wykładu jako występu” do modelu „wykładu jako współtworzonego projektu”. Wszak czuję się projekczycielem a nie tylko nauczycielem. Taki model zamienia jednostronny przekaz w proces budowania bazy wiedzyTaki „żyjący skrypt” w formie e-booka czy interaktywnej wiki (w latach ubiegłych próbowałem realizować na zajęciach wikipeojekty, jest więc już jakieś doświadczenie) to marzenie wielu dydaktyków, ale w praktyce akademickiej budzi skrajne emocje.

Wspólne tworzenie „żywego skryptu” to mój plan na najbliższe miesiące. Jestem otwarty na błędy (swoje i studentów). Wiem, że nie wszystko udaje się zgodnie z pierwotnym planem i są konieczne korekty i zmiany. Czasem drobne, czasem większe. Przygotowałem scenariusz dla siebie i dla potrzeb opracowywanego właśnie poradnika dydaktycznego. W tym scenariuszu wykładowca dostarcza „szkielet” (audio + prezentacja + surowa transkrypcja), a studenci pełnią rolę redaktorów, dodając przypisy, wyjaśnienia trudnych pojęć i podsumowania dyskusji. Są realnie współtwórcami wiedzy, utrwalonej w formie elektronicznego skryptu.

Plusy:

  • Głębokie przetwarzanie treści. Student, który musi poprawić transkrypcję AI lub dopisać komentarz do wypowiedzi kolegi, uczy się znacznie szybciej niż ten, który tylko słucha.
  • Wysoka jakość materiałów. Powstaje skrypt dobrze dopasowany do tego, co faktycznie było na zajęciach, a nie ogólny podręcznik sprzed 5 lub 20 lat.
  • Eliminacja szarej strefy. Skoro wykładowca sam daje nagranie, znika problem nagrywania „pod ławką”. On ma kontrolę nad tym, która wersja nagrania jest „oficjalna”.
  • Inkluzywność. Gotowy e-book z audiodeskrypcją to ogromne ułatwienie dla osób niedowidzących, niedosłyszących czy obcokrajowców. A takich mamy nawet w Olsztynie i to nie tylko z Ukrainy czy Białorusi.

Minusy:

  • Obciążenie wykładowcy. Przygotowanie czystego audio, wrzucenie go do transkrypcji i moderowanie poprawek studentów to dodatkowe godziny pracy, za które uczelnie rzadko płacą. Ale przecież można potraktować to jako element wykładu. Przecież za przygotowanie się do wykładu także nie ma osobnego wynagrodzenia. pensja wykładowcy akademickiego w części wynika z praw autorskich a nie umowy-zlecenia.
  • Problem „pasażera na gapę".  W grupie 100 osób, 5 będzie rzetelnie edytować skrypt, a 95 po prostu pobierze gotowca przed egzaminem, nie angażując się w proces.
  • Odpowiedzialność za błędy. Jeśli student wpisze w takim wspólnym e-booku błąd, a inny student się go nauczy, kto ponosi odpowiedzialność? Wykładowca musiałby dokonać finalnej redakcji (tzw. peer-review).
  • Kwestia RODO w dyskusji. Jeśli nagrywamy głosy studentów, biorących udział w dyskusji, każdy z nich musi wyrazić zgodę na umieszczenie swojej wypowiedzi w ogólnodostępnym skrypcie (chyba, że umieścimy w formie zanonimizowanej).

Jak to mogłoby wyglądać w praktyce? Aby taki model nie stał się chaosem, można wykorzystać konkretne ekosystemy cyfrowe. Ciągle się zmieniają i unowocześniają, więc nie wymieniam wszytskich obecnie dostępnych. Zwłaszcza informacje i umiejętności cyfrowe bardzo szybko się dezaktualizują. Po pierwsze wspólna przestrzeń, gdzie audio jest osadzone obok tekstu, a studenci dodają komentarze w chmurkach. Ja planuję zrobić to w Zespole MS Teams bo narzędzie jest bezpłatnie dostępne na mojej uczelni. Jeszcze nie wiem, czy udostępnię samą audiodeskrypcję czy także nagranie audio. Przedyskutuję to na pierwszych zajęciach. Po drugie potrzebne są narzędzia, które wykonują transkrypcję. A do rozważenia są narzędzia, które w czasie rzeczywistym robią transkrypcję, którą studenci mogą edytować „na żywo” w trakcie wykładu. Tego jeszcze nie potrafię i nie znam takich narzędzi. Dla mnie to jeszcze pieśń przyszłości. Na razie wykorzystam audiodeskrypcję po nagraniu.

Czy to przejdzie? Takie rozwiązanie wydaje się dobre dla małych grup zajęciowych (do 15-20 osób), gdzie każdy czuje się odpowiedzialny za wynik. W wielkich aulach na 100-200 osób system ten prawdopodobnie by się załamał pod ciężarem chaosu redakcyjnego lub braku zaangażowania większości. Będę miał okazję sprawdzić a małej grupie jak i nieco większej ok. 40-50 osób. Cztyli mam raczej warunki komfortowe.

Wykładowcy często boją się też, że jeśli stworzą „idealny e-book”, to ich obecność na uczelni stanie się zbędna – a to uderza w poczucie bezpieczeństwa zawodowego. Jak temu przeciwdziałać? I po co są wykładowcy akademiccy? Do mówienia czy do tworzenia? Czy są nauczycielami/wykładowcami czy też projekczycielami (projektantami przestrzeni edukacyjnej)? To oczywiście osobne zagadnienie, któremu warto poświęcić więcej uwagi w kolejnych tekstach na niniejszym blogu.

Niżej zamieszczam jeszcze kilka przydatnych materiałów, przygotowanych z wykorzystaniem AI. Może ktoś wykorzysta. Ja umieszczam dla siebie (by mieć pod ręką) i dla studentów, którzy zechcą wziąć udział w moim dydaktycznym eksperymencie.


Instrukcja: System Współtworzenia Notatek 

(AI-Collaborative Script)

Cel: Przekształcenie wykładu w interaktywną bazę wiedzy przy prawie zerowym koszcie.


KROK 1: Rejestracja i transkrypcja (wykładowca)

Zamiast pozwolić na kilka- kilkanaście lub kilkadziesiąt amatorskich nagrań „spod ławki”, przejmij kontrolę nad źródłem.

     Narzędzie, np. Otter.ai  (automatyczna transkrypcja w czasie rzeczywistym) lub Scribe (ElevenLabs). Ja osobiście kupiłem cyfrowy dyktafon z wbudowanym, dedykowanym narzędziem chmurowy Doway. Najlepiej przed rozpoczęciem samemu sprawdzić i zrobić kwerendę aktualnie dostępnych i dobrych narzędzi. Albo skonsultować się ze studentami, może oni akurat już mają to rozpoznane.

     Działanie. Nagraj audio telefonem lub laptopem (lub cyfrowym dyktafonem). Darmowe wersje tych narzędzi oferują wysokiej jakości transkrypcję (nawet do 98% dokładności w j. polskim w 2026 r.). Jakość transkrypcji zależy także od naszej dykcji jak i odległości mikrofonu od mówiącego. Część można poprawić po pierwszych próbach bez wymiany sprzętu czy aplikacji.

     Efekt. Po wykładzie masz surowy tekst tego, co dokładnie zostało powiedziane. Z mniejszymi lub większymi błędami, w zależności od dykcji i sprawności aplikacji. To półprodukt do dalszych działań.

KROK 2: Wspólna przestrzeń edycji (studenci + wykładowca)

Udostępnij tekst tam, gdzie studenci mogą go wzbogacić (edytować i uzupełniać). Ja zrobię to w Zespole MS Teams, ale można w chmurze, np. One Drive, Google Dysk itp.

     Narzędzie, np.  Notion lub Google Docs lub w Zespole na MS Teams. Ja na początek wybieram do ostanie, bo jest akurat dostępne na mojej uczelni, także dla studentów. I zamknięta przestrzeń, co utrudni ewentualny dostęp osób nieuprawnionych.

     Działanie. Wklej transkrypcję do dokumentu i udostępnij link grupie z prawami do komentowania/edycji.

     Zadanie dla studentów, pracują w grupach z podziałem na sekcje (zadania):

1.    Redaktorzy: Poprawiają błędy w transkrypcji (nazwiska, terminy łacińskie, pojęcia naukowe itp.).

2.    Ilustratorzy: Wklejają zdjęcia slajdów lub schematy z tablicy w odpowiednie miejsca (prezentację można zapisać  jako jpg – każdy slajd oddzielnie i w takiej formie udostępnić studentom do dalszych prac).

3.    Komentatorzy: Dodają pytania do trudnych fragmentów. Uzupełniają definicje trudniejszych terminów i pojęć. Uzupełniają fragmenty treści z innych źródeł (polecancyh lub samodzielnie wyszukanych).

KROK 3: Synteza i pomoce naukowe (AI + studenci + wykładowca)

Użyj AI, aby przetwarzać treść i  „wycisnąć” z tekstu esencję.

     Narzędzie. Google NotebookLM (bezpłatne i bezpieczne dla danych, korzystam i bardzo sobie chwalę. Może być inne narzędzie do analizy pdf lub dokumentów.

     Działanie. Wrzuć gotowy, poprawiony tekst do NotebookLM, najlepiej w formacie pdf. Można uzupełnić o kolejne pliki.

     Co zyskujesz? Jednym kliknięciem wygenerujecie:

  •       Podsumowanie 
  •     Mapę myśłi
  •       Bazę fiszek do powtórek przed egzaminem.
  •       Przewodnik po pojęciach (Glossary).
  •       I więcej, np. podcast, wideo story itp.

Zasady Bezpieczeństwa (Złota Zasada)

Aby system działał, na pierwszych zajęciach ustalcie:

  1. Zamknięty obieg: Materiały są dostępne tylko dla osób z grupy (wymagane logowanie mailem uczelnianym). Taka przestrzeń zapewnia mi np. Zespół Teams
  2. Ochrona prywatności: Głosy studentów z dyskusji są transkrybowane anonimowo (np. jako „Student 1”).
  3. Weryfikacja merytoryczna: Wykładowca raz w miesiącu zagląda do dokumentu, by zatwierdzić kluczowe definicje (tzw. Final Review).

Dlaczego warto to wdrożyć?

Dla Wykładowcy

Dla Studenta

Gotowy skrypt – po semestrze masz materiał na autorską (współautorską) książkę/skrypt.

Lepsze wyniki – aktywne przetwarzanie treści to najlepsza metoda nauki. Możliwość bycia współautorem skryptu.

Mniej pytań – studenci znajdują odpowiedzi we wspólnym dokumencie.

Dostępność – dobre wsparcie dla osób z dysleksją lub obcokrajowców.

Prestiż – jesteś liderem nowoczesnej dydaktyki na wydziale.

Współpraca – budujecie społeczność, a nie tylko „zaliczycie”.

 

Oto propozycja wiadomości, którą wykładowca może wysłać do studentów (np. przez USOS, Moodle lub e-mail). Opracowana przez AI. Jest napisana w tonie partnerskim, profesjonalnym, ale z nutką nowoczesności, co od razu ustawia dobrą dynamikę w grupie.

Temat: Wykład 2.0: Tworzymy wspólnie naszą bazę wiedzy!

Szanowni Państwo,

Zamiast tradycyjnych, rozproszonych notatek, w tym semestrze chciałbym zaproponować Państwu udział w innowacyjnym projekcie „Żywego Skryptu”. Moim celem jest, abyście wynieśli z tego przedmiotu nie tylko wiedzę w głowach, ale i profesjonalnie opracowane materiały, które posłużą Wam w przyszłości.

Na czym to będzie polegało?

  1. Ja dostarczam „surowiec”: Po każdym wykładzie udostępnię Państwu cyfrową transkrypcję audio (wygenerowaną przez AI) oraz prezentację w formacie PDF.
  2. Państwo tworzycie „wartość dodaną”: W udostępnionym dokumencie na platformie [Notion/Google Docs] będziemy wspólnie redagować te treści. Zapraszam do uzupełniania definicji, dodawania zdjęć tablicy, schematów oraz wyjaśniania trudniejszych fragmentów.
  3. AI wspiera nasz proces: Na bazie wspólnie opracowanego tekstu, przy użyciu narzędzi takich jak NotebookLM, przygotujemy wspólnie zestawy fiszek, quizy powtórkowe i mapy myśli przed egzaminem.

Dlaczego warto się zaangażować?

     Efektywność: To najlepsza forma nauki – zamiast biernego słuchania, aktywnie tworzycie treść.

     Bezpieczeństwo: Oficjalne nagrania i transkrypcje kończą problem „nielegalnych” nagrań spod ławki. Mamy jedno, rzetelne źródło.

     Wsparcie: Gotowy skrypt będzie ogromnym ułatwieniem dla każdego z Państwa podczas powtórek do kolokwium.

Zasady gry:

Materiały są przeznaczone wyłącznie do naszego użytku wewnętrznego. Szanujemy wzajemnie swoją prywatność oraz moją własność intelektualną – nie udostępniamy skryptu poza naszą grupę. Link do wspólnego obszaru roboczego prześlę po najbliższych zajęciach, na których omówimy krótkie kwestie techniczne.

Co Państwo o tym sądzą? Czy są chętni do objęcia roli „Redaktorów Naczelnych” naszej bazy wiedzy?

Do zobaczenia na wykładzie!

Z poważaniem,

[Imię i Nazwisko Wykładowcy]



I jeszcze jeden przydatny materiał Oto krótka, konkretna lista zasad, które warto dołączyć do projektu  "Żywego Skryptu" (system współtworzenia notatek). Ma ona na celu zapewnienie rzetelności materiałów i ochronę autorytetu wykładowcy.

 

Kodeks Etyki AI Studenta-Redaktora

Jako współtwórca bazy wiedzy, używasz narzędzi AI nie po to, by zastąpić myślenie, ale by je wzmocnić. Oto zasady, których przestrzegamy:

  1. Zasada „Wykładowca ma rację”

     Jeśli AI wygeneruje definicję sprzeczną z tym, co padło na wykładzie – priorytet ma słowo wykładowcy. Narzędzia AI potrafią „halucynować” (zmyślać fakty), więc Twoim zadaniem jest weryfikacja merytoryczna każdego wygenerowanego akapitu. Możesz zwrócić się z prośba o wyjaśnienie do wykładowcy w razie wątpliwości.

  1. Zakaz „Wklej i zapomnij”

     Nigdy nie wrzucaj surowej transkrypcji prosto do wspólnego dokumentu bez jej przeczytania. Usuwaj błędy językowe, powtórzenia (tzw. „ee”, „yy”) i dbaj o to, by tekst był czytelny dla innych.

  1. Transparentność narzędzi

     Jeśli fragment notatki został wygenerowany przez AI (np. podsumowanie rozdziału), oznacz go krótką ikoną lub przypisem. Dzięki temu inni studenci będą wiedzieć, że treść ta wymaga czujności.

  1. Ochrona kontekstu i humoru

     AI często nie rozumie ironii, żartów czy kontekstu kulturowego. Jako redaktor dbaj, by anegdoty wykładowcy były opisane z wyczuciem, lub usuwaj je, jeśli ich spisanie mogłoby postawić prowadzącego w niezręcznej sytuacji.

  1. Poufność i „Cyfrowy Mur”

     Nagrania audio i surowe transkrypcje są danymi wrażliwymi. Nigdy nie wrzucaj ich do publicznych, darmowych narzędzi AI, które wykorzystują dane do trenowania swoich modeli (chyba że wykładowca wskazał konkretne, bezpieczne narzędzie).

  1. Zakaz fabrykowania dowodów

     Nigdy nie używaj AI do dopisywania treści, których wykładowca nie wypowiedział, aby „urozmaicić” skrypt. Skrypt ma być wiernym (choć redakcyjnie poprawionym) zapisem procesu dydaktycznego.

Jak to wdrożyć technicznie?

Możesz zaproponować wykładowcy stworzenie „Logu Edycji” na końcu dokumentu, gdzie studenci wpisują np.:

„Sekcja 3: Transkrypcja poprawiona przez AI (Claude 3.5), zweryfikowana merytorycznie przez Annę Kowalską. Dodano fiszki.”