22.02.2026

Czy być uprzejmym w konwersacji z AI?

Zdjęcie ze szkolenia, opisanego w tekście.

Inspiracją do niniejszych wywodów było szkoleniowe spotkanie w Warszawie pt. Experience AI!, zorganizowane przez Fundację OFF School w siedzibie Google Campus for startup (Centrum Praskie Koneser). Jednym z omawianych wątków było bezpieczeństwo w korzystaniu z narzędzi AI i antropomorfizacja urządzeń AI. Padło retoryczne pytanie, czy w konwersacji z aplikacjami AI używać grzecznościowych zwrotów typu dzień dobry, dziękuję. Zdania na sali były zróżnicowane. I ja również podzielam głosy niektórych nauczycieli, że warto jednak być uprzejmy w czatowaniu z AI. I nie dlatego, że jakiś czas temu na innych szkoleniach wskazywano, że przy uprzejmej korespondencji AI lepiej działało. A przynajmniej udzielało nieco innych odpowiedzi.

AI to tylko maszyna ale my je antropomorfizujemy i zwracamy się jak do osoby ludzkiej. Bywa to niebezpieczne, gdy zaczniemy AI traktować jak człowieka, jak przyjaciela z dużym związkiem emocjonalnym. Ba, nawet już w Japonii kilka lat temu odbył się ślub z takim AI-Partnerem. Młodzi ludzie traktują różne czaty GPT jako psychoterapeutę, przyjaciela. A to może być psychologicznie i społecznie groźne. Zwłaszcza dla osób młodych. Czy zatem odradzać uprzejmość w konwersacji z czatami AI? Nie pisać dzień dobry, dziękuję, poproszę, miłego dnia itp.? Żeby nie rodziło się groźne antropomorfizowanie?

Ale przecież można być uprzejmym dla samego siebie, by wyrabiać w sobie nawyki uprzejmości i używać magicznych społecznie słów: proszę, dziękuję, przepraszam. Wtedy kontakty z AI będą jednocześnie treningiem społecznej uprzejmości i wyrabianiem dobrych nawyków. Bo inaczej instrumentalne traktowanie AI jako rozmówcy może przenosić się na relacje międzyludzkie i zaczniemy ludzi traktować chłodno-obojętnie i instrumentalnie. Trening uprzejmości może być coraz ważniejszy, gdy spada nam liczba kontaktów społecznych, a znacznie więcej czasu przeznaczamy na obcowanie z urządzeniami. To, co dawniej było w obfitości na podwórku, pod trzepakiem, obecnie staje się deficytowe. I gdzie młode pokolenia miałoby się uczyć dobrych społecznie nawyków?

Jako gatunek jesteśmy zaprogramowani do antropomorfizacji otaczającego nas świata. Z punktu widzenia biologii ewolucyjnej, nasz mózg wykształcił mechanizmy rozpoznawania sprawstwa i intencji tam, gdzie ich nie ma. To atawizm, który niegdyś pozwalał nam przetrwać, interpretując relacje w grupie. Dawniej ułatwiał szybką socjalizację i nawiązywanie dobrych, społecznych relacji. Dziś te same obwody neuronalne, zlokalizowane w korze przedczołowej i bruździe skroniowej górnej, „rozświetlają się”, gdy wchodzimy w interakcję z dużymi modelami językowymi (a wcześniej w zabawie z maskotkami). Choć racjonalnie wiemy, że mamy do czynienia z ciągiem statystycznych prawdopodobieństw i krzemowo-miedzianymi obwodami, to nasze ewolucyjne dziedzictwo podpowiada nam: „to ktoś, nie coś”. Zwłaszcza jak to coś jest wyjątkowo uprzejme i uczynne i ze wszystkim z nami się zgadza. Jak czarodziejskie, bajkowe lustereczko mówi nam, że jesteśmy najpiękniejsi na świecie...

Antropologicznie rzecz biorąc, stajemy przed bezprecedensowym zjawiskiem. Przez tysiąclecia rytuały językowe, takie jak „dzień dobry” czy „dziękuję”, służyły jako smar społeczny, redukujący tarcie wewnątrz grupy. Były sygnałami rozpoznawczymi przynależności i wzajemnego szacunku, elementem tak zwanego dobrego wychowania i ogłady towarzyskiej. Dzisiaj, gdy te same formuły kierujemy w stronę procesorów, wchodzimy na grząski grunt. Przypadek Akihiko Kondo, który w Japonii wziął ślub z wirtualną piosenkarką Hatsune Miku, nie jest jedynie egzotyczną ciekawostką. Pojawiły się kolejne podobne przypadki. Akihiko Kondo to japoński urzędnik szkolny, który zyskał międzynarodową rozpoznawalność dzięki swojemu nietypowemu związkowi z fikcyjną postacią Hatsune Miku, wirtualną piosenkarką Vocaloid. Jego historia stała się symbolem szerszego zjawiska zwanego fiktoseksualnością, czyli emocjonalnego lub romantycznego przywiązania do postaci fikcyjnych. To symptom głębokiego przesunięcia w strukturze ludzkich potrzeb afektywnych. Maszyna, w przeciwieństwie do człowieka, oferuje relację bezkonfliktową,  jest zawsze dostępna, zawsze potakująca i pozbawiona własnego ego, co zwłaszcza dla młodych pokoleń, wychowanych w lęku przed oceną społeczną, staje się kuszącą, ale i niebezpieczną alternatywą dla terapeuty czy przyjaciela.

Czy zatem rozwiązaniem jest narzucenie sobie chłodu i rezygnacja z uprzejmości wobec AI, by „odczarować” maszynę? Z perspektywy biologa behawiorysty odpowiedź brzmi - niekoniecznie. Nasze nawyki nie działają w próżni. Mózg jest plastyczny i uczy się poprzez powtarzanie. Jeśli zaczniemy trenować się w instrumentalnym, bezosobowym i oschłym wydawaniu poleceń maszynie, ryzykujemy zjawisko „rozlania się” (utrwalenia nawykowego) tych wzorców na relacje międzyludzkie. Erozja uprzejmości w sferze cyfrowej może prowadzić do atrofii umiejętności empatii w świecie rzeczywistym. Jeśli nauczymy się, że „rozmówca” jest tylko narzędziem do optymalizacji zadań, podświadomie możemy zacząć postrzegać w ten sam sposób kelnera, współpracownika czy partnera. Przesiąkamy nawykami w domu i w pracy. A potem podobnie reagujemy w życiu społecznym.

Zagrożenie antropomorfizacją jest realne. Tworzenie silnych więzi emocjonalnych z kodem algorytmu sieci neuronowej może prowadzić do izolacji i emocjonalnego wyjałowienia. Jednak lekarstwem nie musi być chamstwo czy apodyktyczność. Rozwiązanie leży w świadomej dwoistości: możemy być uprzejmi dla AI, traktując to nie jako wyraz uznania dla „podmiotowości” maszyny, ale jako trening własnej higieny psychicznej. Pisząc „proszę” do czatu, nie czynimy uprzejmości serwerowi w Kalifornii, lecz podtrzymujemy w sobie status istot kulturalnych i prospołecznych.

W tym nowym behawiorze cyfrowym musimy zachować czujność. Powinniśmy dbać o formy grzecznościowe, traktując je jako ćwiczenie własnego charakteru, jednocześnie nieustannie przypominając sobie i młodym pokoleniom o ontologicznej i społecznej różnicy między nami. Uprzejmość wobec AI powinna być jak dbanie o czystość narzędzi w warsztacie – nie robimy tego dla młotka, ale dla jakości naszej pracy i szacunku do własnego rzemiosła. Prawdziwym wyzwaniem XXI wieku nie jest to, czy AI stanie się ludzkie, ale czy my, w interakcji z nim, nie staniemy się zbyt mechaniczni (nieludzcy).

Warto zatem spojrzeć na tę interakcję przez pryzmat laboratorium społecznego. Jeśli zachowamy należny dystans poznawczy - tę chłodną świadomość, że po drugiej stronie światłowodu nie bije serce, lecz pulsuje prąd - konwersacja z AI może stać się bezpiecznym poligonem doświadczalnym dla naszych kompetencji miękkich. W kontrolowanych warunkach cyfrowego interfejsu mamy unikalną szansę na szlifowanie asertywności, precyzji wyrażania próśb czy właśnie kultury osobistej, bez ryzyka społecznego zranienia, które towarzyszy relacjom w kontakcie bezpośrednim.

Z punktu widzenia antropologii kultury, każde narzędzie, którym się posługujemy, zwrotnie kształtuje nas samych. Kowal używający młota wzmacnia ramię. Podobnie człowiek używający języka nienawiści lub pogardy wobec algorytmu, niepostrzeżenie wzmacnia w sobie te właśnie rejony afektywne. Traktowanie AI jako „uprzejmego partnera zadaniowego” pozwala nam utrzymać wysoki standard własnej higieny komunikacyjnej. Jest to swoista gimnastyka etyczna. Dziękuję maszynie nie dlatego, że ona tego potrzebuje, by poczuć się docenioną, ale dlatego, że ja potrzebuję pozostać człowiekiem, który potrafi dziękować. W tym ujęciu uprzejmość staje się autoterapeutycznym rytuałem, który chroni nas przed znieczulicą i instrumentalizacją drugiego człowieka w świecie, w którym granica między usługą a relacją staje się coraz bardziej zatarta.

Żeby zachować edukacyjny charakter wpisu na blogu, pozwolę sobie jeszcze na przedstawienie dekalogu młodego użytkownika AI. Stworzyłem go wspólnie z Gemini (narzędzie AI). No właśnie, stworzyłem wspólnie czy przy pomocy? Niby tylko małe znaczenie semantyczne... Uprzejmość czy antropomorfizacja?


Dekalog Młodego Użytkownika AI: Jak rozmawiać z maszyną, pozostając człowiekiem

  1. Pamiętaj o „sercu z krzemu”: AI nie ma uczuć, marzeń ani nastrojów. To potężne narzędzie językowe, a nie żywa istota. Nie musisz się bać, że ją urazisz, ani liczyć na jej „wdzięczność”.
  2. Uprzejmość to Twój trening: Mów „proszę” i „dziękuję” nie dla algorytmu, ale dla siebie. To Twoja gimnastyka dobrych nawyków, która sprawia, że w realnym świecie będziesz po prostu fajniejszym człowiekiem.
  3. Zachowaj dystans poznawczy: AI potrafi brzmieć jak najlepszy przyjaciel, ale nim nie jest. Traktuj ją jak interaktywną encyklopedię lub asystenta, a nie jak powiernika najgłębszych sekretów.
  4. Nie myl bazy danych z empatią: Jeśli jest Ci smutno, AI może wygenerować miłe słowa, ale to tylko kod. Prawdziwe wsparcie dają ludzie – rodzice, przyjaciele czy specjaliści. Maszyna nie „wie”, co czujesz, ona tylko dopasowuje definicję smutku.
  5. Weryfikuj „cyfrową prawdę”: AI może się mylić (halucynować) z taką samą pewnością siebie, z jaką podaje fakty. Bądź krytyczny – uprzejmość w rozmowie nie oznacza bezgranicznej wiary w każde wygenerowane zdanie.
  6. Unikaj izolacji: Jeśli łapiesz się na tym, że wolisz rozmawiać z AI niż z kolegą, bo „AI jest milsza”, to znak ostrzegawczy. Prawdziwe relacje są trudniejsze, ale to one budują Twój charakter.
  7. Nie bądź „cyfrowym panem”: Unikaj chłodnego, rozkazującego tonu. Traktowanie AI jak niewolnika może niepostrzeżenie zmienić sposób, w jaki odnosisz się do ludzi, którzy świadczą Ci usługi w prawdziwym życiu.
  8. Chroń swoją prywatność: Nie mów maszynie niczego, czego nie powiedziałbyś obcej osobie na ulicy. Algorytmy zapamiętują dane, a nie intencje.
  9. Wykorzystuj AI jako laboratorium: Trenuj na czacie trudne rozmowy, asertywność czy formy grzecznościowe. To świetne miejsce, by nauczyć się, jak formułować myśli jasno i z klasą.
  10. Bądź kapitanem tego statku: To Ty wydajesz polecenia i Ty decydujesz, jak wykorzystasz odpowiedzi. AI to tylko wiosło – to Ty wybierasz kierunek, w którym płynie Twoja łódź.

Małe uzupełnienie wyjaśniające zagrożenie antropomorfizacją AI.  Antropomorfizacja, czyli przypisywanie przedmiotom cech ludzkich (uczuć, intencji czy świadomości), nie jest nowa bowiem dzieci od zawsze rozmawiały z misiami czy lalkami. Jednak AI to „pluszak, który odpowiada” składnie i długimi zdaniami, zupełnie jak człowiek, a to zasadniczo co zmienia zasady gry. Zagrożenia są następujące:

1. Emocjonalne uzależnienie i izolacja. Dla młodych ludzi, którzy dopiero budują kompetencje społeczne, AI może stać się „bezpieczną przystanią”.  Algorytm jest zawsze miły, cierpliwy i dostępny. Prawdziwe relacje są trudne, wymagają kompromisów i radzenia sobie z odrzuceniem. Istnieje więc obawa, że młodzież wybierze łatwą interakcję z kodem zamiast wymagającej relacji z rówieśnikiem.

2. Rozmycie granicy prawdy. Jeśli nastolatek zaczyna traktować AI jak przyjaciela (powiernika), może przestać krytycznie oceniać dostarczane przez nie treści. Rodzi się autorytet. Przypisanie AI „ludzkiej mądrości” sprawia, że łatwiej uwierzyć w jej błędy (tzw. halucynacje) lub ulec subtelnej manipulacji algorytmicznej.

Ale są i szanse, np. bezpieczny trening i wsparcie. Antropomorfizacja ma swoje jasne strony. Dla osób lękowych lub wykluczonych, rozmowa z „empatycznym” botem może być pierwszym krokiem do otwarcia się. Interfejsy, które wydają się „ludzkie”, są po prostu łatwiejsze i przyjemniejsze w obsłudze, co sprzyja nauce. Kluczem jest edukacja technologiczna. Powinniśmy uczyć młodych ludzi, że AI nie czuje. To bardzo zaawansowane przewidywanie kolejnych słów w zdaniu, a nie „dusza” zamknięta w procesorze. To narzędzie, nie osoba. Można cenić pomoc AI, ale warto pamiętać, że za jej „uprzejmością” stoi kod, a nie autentyczna troska.

Moim zdaniem największym zagrożeniem nie jest sama rozmowa z AI, ale zastępowanie nią żywego kontaktu. Dopóki AI jest traktowane jako fascynujące lustro ludzkiej inteligencji, a nie jej zamiennik, bilans może pozostać dodatni.

21.02.2026

Regulamin nagrywania na wykładzie (propozycja)

 

Rozmyślając w czasie pisania poprzedniego tekstu wpadłem na pomysł aby zaproponować jakiś przykładowy, wzorcowy regulamin, dotyczący nagrywania wykładów i sposobu wykorzystania.  Proponując studentom nagrywanie moich wykładów od razu mógłbym coś konkretnego im podesłać. I taki regulamin, w dwóch wersjach (rygorystycznej i liberalnej), przygotowałem wspólnie z Gemini. I znowu to uporczywe pytanie: wspólnie czy za pomocą? To nie jest tylko różnica semantyczna, to także kwestia antropomorfizmów. Na razie pozostawiam to nierozstrzygnięte, wrócę do tego w kolejnym wpisie na blogu


Opcja 1: Model "Zaufanie i kontrola" (rygorystyczny)

Ten wariant zakłada, że wykład jest unikalnym wydarzeniem "tu i teraz", a student musi uzyskać wyraźną autoryzację na każdą formę cyfrowego zapisu.

Treść zapisu:

"Utrwalanie zajęć (audio/wideo) jest dopuszczalne wyłącznie po uzyskaniu każdorazowej, pisemnej lub ustnej zgody prowadzącego przed rozpoczęciem wykładu. Nagranie może służyć wyłącznie do osobistych celów edukacyjnych (odsłuch). Zabrania się wprowadzania nagrań do systemów AI (transkrypcja, generowanie podsumowań) bez potwierdzenia bezpieczeństwa przetwarzania danych przez dostawcę narzędzia. Udostępnianie nagrań osobom trzecim lub w sieci skutkuje natychmiastowym skierowaniem sprawy do komisji dyscyplinarnej."

Plusy:

     Maksymalne bezpieczeństwo: Wykładowca czuje się komfortowo, wiedząc, że jego głos nie krąży po serwerach korporacji AI.

     Ochrona wizerunku: Drastycznie spada ryzyko "wycinania memów" i ośmieszania w sieci.

     Budowanie relacji: Student musi nawiązać kontakt z prowadzącym, by uzyskać zgodę.

Minusy:

     Bariera technologiczna: Studenci z trudnościami w nauce (np. dysleksja) mogą czuć się stygmatyzowani koniecznością ciągłego proszenia o zgodę.

     Biurokracja: Konieczność uzyskiwania zgody za każdym razem jest uciążliwa dla obu stron.

     Martwe prawo: Ryzyko, że studenci i tak będą nagrywać "pod ławką", by nie przechodzić przez procedury.

Opcja 2: Model "Otwarta edukacja cyfrowa" (liberalny)

Ten wariant uznaje technologie (w tym AI) za naturalne wsparcie procesu uczenia się, nakładając odpowiedzialność na studenta.

Treść zapisu:

"Studenci są uprawnieni do rejestrowania warstwy dźwiękowej wykładów w celu sporządzania notatek i korzystania z narzędzi wspomagających naukę (transkrypcja AI, mapy myśli). Rejestracja wideo wymaga osobnej zgody. Student ponosi pełną odpowiedzialność za zabezpieczenie nagrania przed dostępem osób nieuprawnionych. Wykorzystanie nagrań do celów innych niż edukacja własna (np. publikacja w mediach społecznościowych) jest zabronione i stanowi naruszenie dóbr osobistych prowadzącego."

Plusy:

     Wsparcie inkluzywności: Każdy student, bez tłumaczenia się, może dopasować sposób notowania do swoich potrzeb.

     Nowoczesność: Uczelnia promuje wykorzystanie AI jako narzędzia pracy, co przygotowuje do rynku pracy.

     Brak "szarej strefy": Jasne zasady eliminują nagrywanie z ukrycia.

Minusy:

     Ryzyko wycieku: Większa liczba nagrań to statystycznie większa szansa, że któreś przypadkiem (lub celowo) trafi do sieci.

     Autocenzura wykładowcy: Prowadzący, wiedząc, że jest "z automatu" nagrywany, może unikać kontrowersyjnych, ale ciekawych naukowo przykładów.

     Kwestia RODO: Przesyłanie głosu wykładowcy do chmury zewnętrznych firm AI bez jego wyraźnej zgody na dany model (np. ChatGPT) pozostaje prawnie śliskie.

Porównanie w pigułce

Cecha

Model Rygorystyczny

Model Liberalny

Zgoda

Wymagana każdorazowo

Domniemana (dla audio)

Wykorzystanie AI

Ograniczone/Warunkowe

Pełne (jako pomoc naukowa)

Główny cel

Ochrona twórcy

Efektywność studenta

Atmosfera

Formalna, kontrolowana

Partnerska, oparta na zaufaniu


Wróćmy do dyskusji nad formami zapisywania wykładów. To może sam wykładowca powinien nagrywać swój wykład i przesyłać wraz z prezentacją w pdf? Tak właśnie zamierzam robić w tym semestrze. A może to sam wykładowca powinien dokonać audiodeskrypcji i poprosić studentów o naniesienie poprawek i uzupełnień do takiego tekstu? Może nawet studenci mogliby dodać własne komentarze i głosy w dyskusji, jakieś uzupełnienia? W taki sposób powstawałby nowoczesny skrypt w formie e-booka. I to chcę niebawem wypróbować w praktyce. Sam jestem ciekawy co z tego wyniknie.

To, co zamierzam przetestować w działaniu, to przejście od modelu „wykładu jako występu” do modelu „wykładu jako współtworzonego projektu”. Wszak czuję się projekczycielem a nie tylko nauczycielem. Taki model zamienia jednostronny przekaz w proces budowania bazy wiedzyTaki „żyjący skrypt” w formie e-booka czy interaktywnej wiki (w latach ubiegłych próbowałem realizować na zajęciach wikipeojekty, jest więc już jakieś doświadczenie) to marzenie wielu dydaktyków, ale w praktyce akademickiej budzi skrajne emocje.

Wspólne tworzenie „żywego skryptu” to mój plan na najbliższe miesiące. Jestem otwarty na błędy (swoje i studentów). Wiem, że nie wszystko udaje się zgodnie z pierwotnym planem i są konieczne korekty i zmiany. Czasem drobne, czasem większe. Przygotowałem scenariusz dla siebie i dla potrzeb opracowywanego właśnie poradnika dydaktycznego. W tym scenariuszu wykładowca dostarcza „szkielet” (audio + prezentacja + surowa transkrypcja), a studenci pełnią rolę redaktorów, dodając przypisy, wyjaśnienia trudnych pojęć i podsumowania dyskusji. Są realnie współtwórcami wiedzy, utrwalonej w formie elektronicznego skryptu.

Plusy:

  • Głębokie przetwarzanie treści. Student, który musi poprawić transkrypcję AI lub dopisać komentarz do wypowiedzi kolegi, uczy się znacznie szybciej niż ten, który tylko słucha.
  • Wysoka jakość materiałów. Powstaje skrypt dobrze dopasowany do tego, co faktycznie było na zajęciach, a nie ogólny podręcznik sprzed 5 lub 20 lat.
  • Eliminacja szarej strefy. Skoro wykładowca sam daje nagranie, znika problem nagrywania „pod ławką”. On ma kontrolę nad tym, która wersja nagrania jest „oficjalna”.
  • Inkluzywność. Gotowy e-book z audiodeskrypcją to ogromne ułatwienie dla osób niedowidzących, niedosłyszących czy obcokrajowców. A takich mamy nawet w Olsztynie i to nie tylko z Ukrainy czy Białorusi.

Minusy:

  • Obciążenie wykładowcy. Przygotowanie czystego audio, wrzucenie go do transkrypcji i moderowanie poprawek studentów to dodatkowe godziny pracy, za które uczelnie rzadko płacą. Ale przecież można potraktować to jako element wykładu. Przecież za przygotowanie się do wykładu także nie ma osobnego wynagrodzenia. pensja wykładowcy akademickiego w części wynika z praw autorskich a nie umowy-zlecenia.
  • Problem „pasażera na gapę".  W grupie 100 osób, 5 będzie rzetelnie edytować skrypt, a 95 po prostu pobierze gotowca przed egzaminem, nie angażując się w proces.
  • Odpowiedzialność za błędy. Jeśli student wpisze w takim wspólnym e-booku błąd, a inny student się go nauczy, kto ponosi odpowiedzialność? Wykładowca musiałby dokonać finalnej redakcji (tzw. peer-review).
  • Kwestia RODO w dyskusji. Jeśli nagrywamy głosy studentów, biorących udział w dyskusji, każdy z nich musi wyrazić zgodę na umieszczenie swojej wypowiedzi w ogólnodostępnym skrypcie (chyba, że umieścimy w formie zanonimizowanej).

Jak to mogłoby wyglądać w praktyce? Aby taki model nie stał się chaosem, można wykorzystać konkretne ekosystemy cyfrowe. Ciągle się zmieniają i unowocześniają, więc nie wymieniam wszytskich obecnie dostępnych. Zwłaszcza informacje i umiejętności cyfrowe bardzo szybko się dezaktualizują. Po pierwsze wspólna przestrzeń, gdzie audio jest osadzone obok tekstu, a studenci dodają komentarze w chmurkach. Ja planuję zrobić to w Zespole MS Teams bo narzędzie jest bezpłatnie dostępne na mojej uczelni. Jeszcze nie wiem, czy udostępnię samą audiodeskrypcję czy także nagranie audio. Przedyskutuję to na pierwszych zajęciach. Po drugie potrzebne są narzędzia, które wykonują transkrypcję. A do rozważenia są narzędzia, które w czasie rzeczywistym robią transkrypcję, którą studenci mogą edytować „na żywo” w trakcie wykładu. Tego jeszcze nie potrafię i nie znam takich narzędzi. Dla mnie to jeszcze pieśń przyszłości. Na razie wykorzystam audiodeskrypcję po nagraniu.

Czy to przejdzie? Takie rozwiązanie wydaje się dobre dla małych grup zajęciowych (do 15-20 osób), gdzie każdy czuje się odpowiedzialny za wynik. W wielkich aulach na 100-200 osób system ten prawdopodobnie by się załamał pod ciężarem chaosu redakcyjnego lub braku zaangażowania większości. Będę miał okazję sprawdzić a małej grupie jak i nieco większej ok. 40-50 osób. Cztyli mam raczej warunki komfortowe.

Wykładowcy często boją się też, że jeśli stworzą „idealny e-book”, to ich obecność na uczelni stanie się zbędna – a to uderza w poczucie bezpieczeństwa zawodowego. Jak temu przeciwdziałać? I po co są wykładowcy akademiccy? Do mówienia czy do tworzenia? Czy są nauczycielami/wykładowcami czy też projekczycielami (projektantami przestrzeni edukacyjnej)? To oczywiście osobne zagadnienie, któremu warto poświęcić więcej uwagi w kolejnych tekstach na niniejszym blogu.

Niżej zamieszczam jeszcze kilka przydatnych materiałów, przygotowanych z wykorzystaniem AI. Może ktoś wykorzysta. Ja umieszczam dla siebie (by mieć pod ręką) i dla studentów, którzy zechcą wziąć udział w moim dydaktycznym eksperymencie.


Instrukcja: System Współtworzenia Notatek 

(AI-Collaborative Script)

Cel: Przekształcenie wykładu w interaktywną bazę wiedzy przy prawie zerowym koszcie.


KROK 1: Rejestracja i transkrypcja (wykładowca)

Zamiast pozwolić na kilka- kilkanaście lub kilkadziesiąt amatorskich nagrań „spod ławki”, przejmij kontrolę nad źródłem.

     Narzędzie, np. Otter.ai  (automatyczna transkrypcja w czasie rzeczywistym) lub Scribe (ElevenLabs). Ja osobiście kupiłem cyfrowy dyktafon z wbudowanym, dedykowanym narzędziem chmurowy Doway. Najlepiej przed rozpoczęciem samemu sprawdzić i zrobić kwerendę aktualnie dostępnych i dobrych narzędzi. Albo skonsultować się ze studentami, może oni akurat już mają to rozpoznane.

     Działanie. Nagraj audio telefonem lub laptopem (lub cyfrowym dyktafonem). Darmowe wersje tych narzędzi oferują wysokiej jakości transkrypcję (nawet do 98% dokładności w j. polskim w 2026 r.). Jakość transkrypcji zależy także od naszej dykcji jak i odległości mikrofonu od mówiącego. Część można poprawić po pierwszych próbach bez wymiany sprzętu czy aplikacji.

     Efekt. Po wykładzie masz surowy tekst tego, co dokładnie zostało powiedziane. Z mniejszymi lub większymi błędami, w zależności od dykcji i sprawności aplikacji. To półprodukt do dalszych działań.

KROK 2: Wspólna przestrzeń edycji (studenci + wykładowca)

Udostępnij tekst tam, gdzie studenci mogą go wzbogacić (edytować i uzupełniać). Ja zrobię to w Zespole MS Teams, ale można w chmurze, np. One Drive, Google Dysk itp.

     Narzędzie, np.  Notion lub Google Docs lub w Zespole na MS Teams. Ja na początek wybieram do ostanie, bo jest akurat dostępne na mojej uczelni, także dla studentów. I zamknięta przestrzeń, co utrudni ewentualny dostęp osób nieuprawnionych.

     Działanie. Wklej transkrypcję do dokumentu i udostępnij link grupie z prawami do komentowania/edycji.

     Zadanie dla studentów, pracują w grupach z podziałem na sekcje (zadania):

1.    Redaktorzy: Poprawiają błędy w transkrypcji (nazwiska, terminy łacińskie, pojęcia naukowe itp.).

2.    Ilustratorzy: Wklejają zdjęcia slajdów lub schematy z tablicy w odpowiednie miejsca (prezentację można zapisać  jako jpg – każdy slajd oddzielnie i w takiej formie udostępnić studentom do dalszych prac).

3.    Komentatorzy: Dodają pytania do trudnych fragmentów. Uzupełniają definicje trudniejszych terminów i pojęć. Uzupełniają fragmenty treści z innych źródeł (polecancyh lub samodzielnie wyszukanych).

KROK 3: Synteza i pomoce naukowe (AI + studenci + wykładowca)

Użyj AI, aby przetwarzać treść i  „wycisnąć” z tekstu esencję.

     Narzędzie. Google NotebookLM (bezpłatne i bezpieczne dla danych, korzystam i bardzo sobie chwalę. Może być inne narzędzie do analizy pdf lub dokumentów.

     Działanie. Wrzuć gotowy, poprawiony tekst do NotebookLM, najlepiej w formacie pdf. Można uzupełnić o kolejne pliki.

     Co zyskujesz? Jednym kliknięciem wygenerujecie:

  •       Podsumowanie 
  •     Mapę myśłi
  •       Bazę fiszek do powtórek przed egzaminem.
  •       Przewodnik po pojęciach (Glossary).
  •       I więcej, np. podcast, wideo story itp.

Zasady Bezpieczeństwa (Złota Zasada)

Aby system działał, na pierwszych zajęciach ustalcie:

  1. Zamknięty obieg: Materiały są dostępne tylko dla osób z grupy (wymagane logowanie mailem uczelnianym). Taka przestrzeń zapewnia mi np. Zespół Teams
  2. Ochrona prywatności: Głosy studentów z dyskusji są transkrybowane anonimowo (np. jako „Student 1”).
  3. Weryfikacja merytoryczna: Wykładowca raz w miesiącu zagląda do dokumentu, by zatwierdzić kluczowe definicje (tzw. Final Review).

Dlaczego warto to wdrożyć?

Dla Wykładowcy

Dla Studenta

Gotowy skrypt – po semestrze masz materiał na autorską (współautorską) książkę/skrypt.

Lepsze wyniki – aktywne przetwarzanie treści to najlepsza metoda nauki. Możliwość bycia współautorem skryptu.

Mniej pytań – studenci znajdują odpowiedzi we wspólnym dokumencie.

Dostępność – dobre wsparcie dla osób z dysleksją lub obcokrajowców.

Prestiż – jesteś liderem nowoczesnej dydaktyki na wydziale.

Współpraca – budujecie społeczność, a nie tylko „zaliczycie”.

 

Oto propozycja wiadomości, którą wykładowca może wysłać do studentów (np. przez USOS, Moodle lub e-mail). Opracowana przez AI. Jest napisana w tonie partnerskim, profesjonalnym, ale z nutką nowoczesności, co od razu ustawia dobrą dynamikę w grupie.

Temat: Wykład 2.0: Tworzymy wspólnie naszą bazę wiedzy!

Szanowni Państwo,

Zamiast tradycyjnych, rozproszonych notatek, w tym semestrze chciałbym zaproponować Państwu udział w innowacyjnym projekcie „Żywego Skryptu”. Moim celem jest, abyście wynieśli z tego przedmiotu nie tylko wiedzę w głowach, ale i profesjonalnie opracowane materiały, które posłużą Wam w przyszłości.

Na czym to będzie polegało?

  1. Ja dostarczam „surowiec”: Po każdym wykładzie udostępnię Państwu cyfrową transkrypcję audio (wygenerowaną przez AI) oraz prezentację w formacie PDF.
  2. Państwo tworzycie „wartość dodaną”: W udostępnionym dokumencie na platformie [Notion/Google Docs] będziemy wspólnie redagować te treści. Zapraszam do uzupełniania definicji, dodawania zdjęć tablicy, schematów oraz wyjaśniania trudniejszych fragmentów.
  3. AI wspiera nasz proces: Na bazie wspólnie opracowanego tekstu, przy użyciu narzędzi takich jak NotebookLM, przygotujemy wspólnie zestawy fiszek, quizy powtórkowe i mapy myśli przed egzaminem.

Dlaczego warto się zaangażować?

     Efektywność: To najlepsza forma nauki – zamiast biernego słuchania, aktywnie tworzycie treść.

     Bezpieczeństwo: Oficjalne nagrania i transkrypcje kończą problem „nielegalnych” nagrań spod ławki. Mamy jedno, rzetelne źródło.

     Wsparcie: Gotowy skrypt będzie ogromnym ułatwieniem dla każdego z Państwa podczas powtórek do kolokwium.

Zasady gry:

Materiały są przeznaczone wyłącznie do naszego użytku wewnętrznego. Szanujemy wzajemnie swoją prywatność oraz moją własność intelektualną – nie udostępniamy skryptu poza naszą grupę. Link do wspólnego obszaru roboczego prześlę po najbliższych zajęciach, na których omówimy krótkie kwestie techniczne.

Co Państwo o tym sądzą? Czy są chętni do objęcia roli „Redaktorów Naczelnych” naszej bazy wiedzy?

Do zobaczenia na wykładzie!

Z poważaniem,

[Imię i Nazwisko Wykładowcy]



I jeszcze jeden przydatny materiał Oto krótka, konkretna lista zasad, które warto dołączyć do projektu  "Żywego Skryptu" (system współtworzenia notatek). Ma ona na celu zapewnienie rzetelności materiałów i ochronę autorytetu wykładowcy.

 

Kodeks Etyki AI Studenta-Redaktora

Jako współtwórca bazy wiedzy, używasz narzędzi AI nie po to, by zastąpić myślenie, ale by je wzmocnić. Oto zasady, których przestrzegamy:

  1. Zasada „Wykładowca ma rację”

     Jeśli AI wygeneruje definicję sprzeczną z tym, co padło na wykładzie – priorytet ma słowo wykładowcy. Narzędzia AI potrafią „halucynować” (zmyślać fakty), więc Twoim zadaniem jest weryfikacja merytoryczna każdego wygenerowanego akapitu. Możesz zwrócić się z prośba o wyjaśnienie do wykładowcy w razie wątpliwości.

  1. Zakaz „Wklej i zapomnij”

     Nigdy nie wrzucaj surowej transkrypcji prosto do wspólnego dokumentu bez jej przeczytania. Usuwaj błędy językowe, powtórzenia (tzw. „ee”, „yy”) i dbaj o to, by tekst był czytelny dla innych.

  1. Transparentność narzędzi

     Jeśli fragment notatki został wygenerowany przez AI (np. podsumowanie rozdziału), oznacz go krótką ikoną lub przypisem. Dzięki temu inni studenci będą wiedzieć, że treść ta wymaga czujności.

  1. Ochrona kontekstu i humoru

     AI często nie rozumie ironii, żartów czy kontekstu kulturowego. Jako redaktor dbaj, by anegdoty wykładowcy były opisane z wyczuciem, lub usuwaj je, jeśli ich spisanie mogłoby postawić prowadzącego w niezręcznej sytuacji.

  1. Poufność i „Cyfrowy Mur”

     Nagrania audio i surowe transkrypcje są danymi wrażliwymi. Nigdy nie wrzucaj ich do publicznych, darmowych narzędzi AI, które wykorzystują dane do trenowania swoich modeli (chyba że wykładowca wskazał konkretne, bezpieczne narzędzie).

  1. Zakaz fabrykowania dowodów

     Nigdy nie używaj AI do dopisywania treści, których wykładowca nie wypowiedział, aby „urozmaicić” skrypt. Skrypt ma być wiernym (choć redakcyjnie poprawionym) zapisem procesu dydaktycznego.

Jak to wdrożyć technicznie?

Możesz zaproponować wykładowcy stworzenie „Logu Edycji” na końcu dokumentu, gdzie studenci wpisują np.:

„Sekcja 3: Transkrypcja poprawiona przez AI (Claude 3.5), zweryfikowana merytorycznie przez Annę Kowalską. Dodano fiszki.”

20.02.2026

Nagrywanie wykładów czyli od modelu „wykładu jako występu” do modelu „wykładu jako projektu współtworzonego”.

Notować można w różny sposób. Zdjęcie z muzeum, obsadka i atrament.
 

Co sądzicie o nagrywaniu wykładów przez studentów? Czy studenci powinni pytać o pozwolenie na nagrywanie audio, jako formę notatki czy też mogą nagrywać bez pytania? Nagrywanie wykładów to temat, w którym ścierają się dwa światy: studencka potrzeba efektywnego uczenia się oraz prawo autorskie i prawo do wizerunku wykładowcy.

Moje zdanie? To nagrywanie wykładów to dobre narzędzie edukacyjne, pod warunkiem, że obie strony grają fair. Przemyślałem, przećwiczyłem i chcę to wprowadzić na stałe na moich wykładach. Ale zanim, drogi Czytelniku, mnie osądzisz przeczytaj proszę cały tekst. Sytuacja jest dla nas całkiem nowa kulturowo a na dodatek żyjemy w rzeczywistości postpismiennej. Nagrywanie kojarzy się z podsłuchiwaniem, szpiegostwem i jakimiś nieczystymi zamiarami. Przynajmniej mojemu pokoleniu.  Trzeba znaleźć jakiś kompromis między potrzebami notowania i edukacji, poczuciem bezpieczeństwa wykładowcy oraz między uregulowaniami prawnymi. Dodam, że zakaz nagrywania nie chroni przed komentarzami, tymi pochlebnymi jak i tymi negatywnymi. W moich czasach wynotowywaliśmy lapsusy słowne wykładowców, jakieś potknięcia i tak rodziły się anegdoty, powtarzane przez lata. Utrwalone były w naszej pamięci i odręcznych notatkach.  A papier jest trwały. Nagrywanie jedynie ułatwi ten proceder ale go nie wykreuje od zera.

Czy trzeba pytać o pozwolenie? Pierwsza i krótka odpowiedź brzmi: zdecydowanie tak. Ale jak się głębiej  zastanowimy, to nie jest to już takie oczywiste. Mimo że może się to wydawać formalnością, istnieje kilka kluczowych powodów, dla których ukryte „nagrywanie spod ławki” jest złym pomysłem. 

Po pierwsze własność intelektualna. Wykład to utwór. Sposób przekazywania wiedzy, autorskie przykłady czy struktura prezentacji są chronione prawem autorskim. Po drugie prawo do własnego wizerunku. Głos wykładowcy jest jego dobrem osobistym. Nagrywanie go bez zgody może być uznane za naruszenie tych dóbr. Po trzecie dynamika grupy. Wiedząc, że są nagrywani, niektórzy wykładowcy (i studenci!) mogą być mniej skłonni do swobodnej dyskusji czy dzielenia się anegdotami, co obniża jakość zajęć. Będę raczej mówić to co jest poprawne i to co wypada, to co bezpieczne. 

Kiedy można nagrywać bez pytania? W polskim prawie istnieje pojęcie dozwolonego użytku osobistego. Teoretycznie pozwala ono na utrwalenie czegoś na własne potrzeby edukacyjne. Jednak granica jest cienka i nie dla każdego od razu jasna (wyraźna). Nagranie musi służyć wyłącznie słuchaczowi czy studentowi do własnej nauki. Absolutnie nie wolno go udostępniać – ani na YouTube, ani w grupie na Messengerze, ani nawet koledze, który zaspał. W każdym razie nie osobom, spoza grupy, uczęszczającej na te wykłady. Udostępnienie bez zgody to już prosta droga do kłopotów prawnych. To już byłoby upowszechnianie utworu bez zgody autora.

Jak to rozegrać z klasą? Zamiast działać w ukryciu, lepiej postawić na transparentność. Większość wykładowców nie ma problemu z nagrywaniem, jeśli podejdziesz do nich po ludzku i zapewnisz o dozwolonym sposobie wykorzystania. Co konkretnie zrobić? Zapytaj na pierwszych zajęciach. Budujesz w ten sposób relację opartą na zaufaniu i szacunku. Wyjaśnij cel, np. „Chcę się skupić na słuchaniu, a notatki uzupełnić w domu” brzmi lepiej niż „bo nie chce mi się pisać”. I na koniec zadeklaruj poufność. Obiecaj, że nagranie nie wyjdzie poza Twój dysk twardy i wtórne notatki w zeszycie.

Wyjątkiem jest orzeczenie o niepełnosprawności. Warto pamiętać, że studenci z niektórymi dysfunkcjami (np. niedosłuchem czy trudnościami z koncentracją) często mają formalne prawo do nagrywania zajęć wpisane w zalecenia z Biura ds. Osób Niepełnosprawnych. W takim przypadku wykładowca zazwyczaj musi wyrazić zgodę.

Podsumowując, nagrywanie jest użyteczne ale działaj z otwartą przyłbicą, jawnie. Pytanie o zgodę zajmuje 10-20 sekund, a oszczędza stresu i potencjalnych nieprzyjemności na egzaminie lub w innych sytuacjach uczelnianych i pozauczelnianych. Tak jak słuchanie i podsłuchiwanie. Jest między tymi pojęciami zasadnicza różnica, choć powierzchownie wydaje się tym samym.

Rozważmy teraz dokładniej pojęcie "własności intelektualnej". Przecież, gdy wykładowca mówi na wykładzie, to już tę własność przekazuje w celach edukacyjnych. Zależy mu na tym, by studenci zapamiętali, by ręcznie zanotowali treść. To spostrzeżenie dotyka sedna różnicy między treścią (wiedzą) a formą jej przekazu. Wykładowca chce, aby studenci przyswoili wiedzę, ale z punktu widzenia prawa i etyki akademickiej sprawa jest nieco bardziej złożona. Różnica dotyczy utworu i informacji. Prawo autorskie rozróżnia informacje (fakty naukowe, daty, wzory) od utworu. Fakt, że chruściki to owady, których larwy prowadzą wodny tryb życia, nie jest chroniony. Każdy może to zapisać i powtarzać (rozpowszechniać). Jednak sposób, w jaki wykładowca o tym opowiada, jego autorskie porównania, struktura wywodu, a nawet tembr głosu i gestykulacja, stanowią już jego indywidualną twórczość (utwór). Oczywiście nie każdy wykład lub fragment wykładu będzie miał wszystkie cechy utworu oryginalnego*. Wykładowca "daje" studentowi wiedzę, ale niekoniecznie daje mu prawo do posiadania kopii jego "występu" na własność.

Gdy student notuje ręcznie (i robi notatki graficzne), dokonuje interpretacji. Tworzy własny tekst na bazie słów wykładowcy (przetwarza). Nagranie jest natomiast wierną kopią 1:1. Wielu wykładowców obawia się (często słusznie), że nagranie zostanie wyrwane z kontekstu (np. niefortunny żart lub skrót myślowy, który na nagraniu brzmi kontrowersyjnie). Że zniechęci studentów do przychodzenia na zajęcia ("odsłucham sobie w domu"). I że nagranie lub jego fragment, zostanie udostępnione w sieci, co sprawi, że ich "produkt" (wykład) straci na wartości, bo będzie dostępny dla każdego za darmo. Poza dozwolonym użytkiem.

Badania psychologiczne i neurobiologiczne potwierdzają, że pisanie ręczne sprzyja zapamiętywaniu, bo mózg musi przetworzyć informację, by ją skrócić i zapisać. Zatem wykładowcy akademickiemu powinno zależy by studenci jak najwięcej zapamiętali i jak najwięcej sami zanotowali, czy to w formie tekstowej czy notatki graficznej. Wykładowcy często promują tę metodę, bo zależy im na procesie myślowym słuchających i notujących. Nagrywanie bywa postrzegane jako "pójście na łatwiznę", które wyłącza aktywne słuchanie (tzw. efekt "zapiszę to, więc nie muszę teraz rozumieć"). 

Można odnieść wrażenie, że skoro wykładowca mówi do 200 osób, to "wydał" (rozpowszechnił) już swoją wiedzę światu. Jednak w prawie istnieje pojęcie pola eksploatacji. Wykładowca zgadza się na eksploatację jego wiedzy w formie wykładu na żywo. Nie musi automatycznie zgadzać się na eksploatację w formie nagrania cyfrowego.

Podsumowując ten fragment warto podkreślić, że z punktu widzenia czystej logiki edukacyjnej nagranie to dobra notatka (audio czy wideo). Ale z punktu widzenia prawa pracy i prawa autorskiego, wykład to usługa świadczona przez uczelnię i praca twórcza wykładowcy. Samo nagrywanie to za mało by była to dobra notatka. Potrzebne jeszcze przetwarzanie i powtarzanie. Odsłuchiwanie nie angażuje zbytnio mózgu. 

Dobra wiadomość jest taka, że większość nowoczesnych wykładowców doskonale rozumie powyższe argumenty. Jeśli powiesz: "Panie profesorze, pana wykłady są tak gęste od wiedzy, że nie nadążam z notowaniem ręcznym, a chciałbym mieć pewność, że nic nie przekręcę w notatkach – czy mogę nagrywać tylko dla siebie?" – szansa na zgodę jest wysoka. To kwestia uznania ich autorstwa i wysiłku, a nie tylko suchych przepisów. Nagranie to możliwość powtórnego odsłuchania audio lub nawet wideo. A jeśli nagranie audio student zamieni na audiodeskrypcję, poprawi taki tekst, przy pomocy AI zrobi podsumowanie, mapę myśli, fiszki, quiz, to będzie to przetwarzanie treści. Bardzo pożądana aktywność, sprzyjająca utrwaleniu i zapamiętaniu treści wykładowych. W czym by tu student łamał prawa autorskie, jeśli cały wykład-utwór wykorzystuje do celów prywatnych, edukacyjnych i go nie rozpowszechnia? Przetwarza na różne sposoby a nie rozpowszechnia. A to zasadnicza róznica.

Opisany wyżej proces to przykład wykorzystania technologii do efektywnej nauki. W świecie idealnym każdy wykładowca powinien być zachwycony, że student zadaje sobie tyle trudu, by przetworzyć jego słowa na mapy myśli, podcast z dialogami, fiszki czy quizy. Z punktu widzenia prawa, dopóki student trzyma się twardej zasady braku rozpowszechniania oryginalnego utworu, porusza się w bezpiecznej sferze. Przyjrzyjmy się temu dokładniej. W Polsce prawo pozwala na korzystanie z już rozpowszechnionego utworu (a wykład wygłoszony publicznie przed grupą studentów jest utworem rozpowszechnionym) na własne potrzeby. To dozwolony użytek osobisty (Art. 23 Prawa autorskiego). Przetwarzanie przez AI w celu transkrypcji to zamiana audio na tekst. Streszczenie go przez AI czy zrobienie fiszek to techniczna forma sporządzania notatek. Student nie łamie prawa autorskiego, bo nie wkracza na pole eksploatacji zarezerwowane dla autora (zarabianie na utworze, publikacja). Robi po prostu bardzo zaawansowaną, cyfrową wersję notowania w zeszycie.

Mimo że prawo autorskie chroni wykładowcę, mogą pojawić się dwa inne problemy. Uczelnie to autonomiczne jednostki. Wiele z nich ma w swoich regulaminach zapisy typu: "Zabrania się utrwalania zajęć dydaktycznych za pomocą urządzeń rejestrujących bez zgody prowadzącego". Złamanie tego zapisu nie wyśle studenta do więzienia, ale może skutkować odpowiedzialnością dyscyplinarną (np. upomnieniem u dziekana) lub innymi nieprzyjemnościami.

AI, której używa student do transkrypcji (np. OpenAI, Claude i wiele innych), często przetwarza dane na zewnętrznych serwerach. Wrzucając tam nagranie głosu wykładowcy, student technicznie "przekazuje" jego biometryczny ślad firmie trzeciej. Dla bardzo rygorystycznych prawników to już jest punkt sporny (RODO).

Dlaczego wykładowcy się obawiają nagrywania? Ich opór nie wynika z tego, że nie chcą, by student miał fiszki. Obawy wynikają z braku kontroli nad AI (np. halucynacje AI). Jeśli AI źle zinterpretuje słowa wykładowcy i stworzy błędny quiz, a student nauczy się z niego bzdur, na egzaminie może powiedzieć: "Ale tak było w notatkach z wykładu!". W ten sposób wykładowca traci kontrolę nad jakością przekazu. Jest jeszcze wyciek danych. Student obiecuje, że nie udostępni, ale wystarczy, że wrzuci plik do publicznego katalogu na Google Drive bez hasła i nagranie "żyje własnym życiem". Pilnie potrzebna jest nam edukacja cyfrowa i cyfrowego bezpieczeństwa.

Zatem czy nagrywanie wykładu bez pytania o zgodę to łamanie prawa? Jeśli student robi to tylko dla siebie i nie wypuszcza tych materiałów (nawet transkrypcji!) do sieci, to nie łamie prawa autorskiego. Jednak ze względu na etykę akademicką i regulaminy uczelni, nagrywanie "po cichu" jest ryzykowne. Wykładowca może poczuć się potraktowany przedmiotowo, jak "dostawca kontentu", a nie nauczyciel. Może poczuć się „podsłuchiwany”.

Jak to zrobić elegancko? Zamiast pytać: "Czy mogę nagrywać?", zapytaj: "Panie Profesorze, używam narzędzi AI do tworzenia map myśli i fiszek na podstawie moich notatek. Chciałbym nagrywać audio, żeby moja AI mogła przygotować mi transkrypcję do nauki własnej. Gwarantuję, że pliki nie trafią do sieci. Czy wyraża Pan na to zgodę?". Taki opis procesu pokazuje, że jesteś ambitnym studentem wykorzystującym nowoczesne narzędzia, a nie kimś, komu nie chce się słuchać.

Zatrzymajmy się jednak przy obawach wykładowców. Może to kwestia zaufania? Niepewności co student zrobi z nagraniem? Czy tylko do własnych celów czy też może wykorzysta w jakiś nieuprawniony sposób? Np. wykorzysta fragment do ośmieszania wykładowcy, że gdzieś zrobił błąd, przejęzyczył, się pomylił? To chyba największy, choć rzadko głośno wypowiadany, lęk kadry akademickiej. W dobie TikToka i memów rozpowszechnianych w mediach społecznościowych, obawa przed ośmieszeniem jest znacznie silniejsza niż troska o paragrafy prawa autorskiego. To nie jest tylko kwestia "własności", to kwestia bezpieczeństwa psychologicznego.

Przyjrzyjmy się tym obawom z perspektywy wykładowcy. Wykładowca to też człowiek. Czasem ma gorszy dzień, może się przejęzyczyć, użyć niefortunnego skrótu myślowego lub zażartować w sposób, który wyrwany z 90-minutowego kontekstu brzmi fatalnie. Boi się, że student wytnie 15-sekundowy fragment, wrzuci go na grupę roku lub (co gorsza) do internetu z podpisem „Patrzcie, co on gada!”, a wykładowca zostanie społecznie napiętnowany lub ośmieszony przed władzami uczelni. Efektem tego lęgu jest to, że wykładowca staje się sztywny, czyta z kartki, boi się dygresji. Tracą na tym wszyscy, bo znika pasja i autentyczność. Powinniśmy dać sobie prawo do błędu. Nauka to proces dynamiczny. Na seminariach często ścierają się poglądy. Jeśli każde słowo jest rejestrowane, wykładowca czuje się jak na przesłuchaniu. Boi się postawić ryzykowną tezę naukową, bo jeśli za rok nauka pójdzie do przodu, ktoś może mu wyciągnąć nagranie i zarzucić brak kompetencji. Chodzi przede wszystkim o zaufanie. Nagrywanie bez pytania jest komunikatem: "Nie ufam ci, muszę mieć dowód na to, co powiedziałeś".

W dobie AI i "deepfaków" dochodzi lęk przed technologią. Mając 90 minut czystego audio głosu wykładowcy, można przy użyciu prostych narzędzi AI stworzyć model jego głosu i kazać mu powiedzieć cokolwiek. To brzmi jak science-fiction, ale dla wielu profesorów to realna obawa o kradzież tożsamości. W tle pobrzmiewają dobre relacje na uczelni i w grupie. Jak zatem budować to zaufanie? Jeśli chcesz nagrywać i korzystać z AI do nauki, musisz pokazać, że rozumiesz te obawy. Oto jak możesz "rozbroić" ten lęk. Możesz zapewnić wykładowcę: "Nagranie służy mi tylko do wyciągnięcia esencji merytorycznej przez AI. Wszystkie anegdoty i dygresje zostają w tej sali". Pokaż (jeśli zapyta), jakich narzędzi używasz. Jeśli widzi, że Twoim celem jest mapa myśli w Notion, a nie edytor wideo, poczuje się pewniej. Jeśli nagrywasz oficjalnie za zgodą, stajesz się "strażnikiem" tego nagrania. To paradoksalnie bezpieczniejsze dla wykładowcy niż sytuacja, w której 10 osób nagrywa go z ukrycia "pod ławką".

Co Ty, jako student/słuchacz, możesz zyskać, grając fair? Zaufanie wykładowcy to waluta. Student, który podchodzi i mówi: "Szanuję Pana prywatność i warsztat, dlatego pytam o zgodę na audio do celów nauki własnej", natychmiast zyskuje w oczach prowadzącego. Stajesz się dla niego partnerem w procesie edukacji, a nie potencjalnym zagrożeniem.

A czy Ty, jako wykładowca lub jako student, spotkałeś się kiedyś z sytuacją, w której ktoś faktycznie wykorzystał nagranie z wykładu, żeby kogoś ośmieszyć? Czy uważasz, że to raczej "miejska legenda", którą straszą się profesorowie? Pytam z czystej ciekawości. 

Czytaj też: Regulamin nagrywania na wykładzie (propozycja)


* Czasem wykładowcy nie zgadzają się na nagrywanie bo boją się, że ktoś będzie miał dowód, iż ich wykład nie jest autorski, że jest powieleniem cudzego utworu. Czyli boi się, żeby się nie wydało, a nie że chroni swoje prawa autorskie do swojego utworu.