![]() |
| Zdjęcie ze szkolenia, opisanego w tekście. |
Inspiracją do niniejszych wywodów było szkoleniowe spotkanie w Warszawie pt. Experience AI!, zorganizowane przez Fundację OFF School w siedzibie Google Campus for startup (Centrum Praskie Koneser). Jednym z omawianych wątków było bezpieczeństwo w korzystaniu z narzędzi AI i antropomorfizacja urządzeń AI. Padło retoryczne pytanie, czy w konwersacji z aplikacjami AI używać grzecznościowych zwrotów typu dzień dobry, dziękuję. Zdania na sali były zróżnicowane. I ja również podzielam głosy niektórych nauczycieli, że warto jednak być uprzejmy w czatowaniu z AI. I nie dlatego, że jakiś czas temu na innych szkoleniach wskazywano, że przy uprzejmej korespondencji AI lepiej działało. A przynajmniej udzielało nieco innych odpowiedzi.
AI to tylko maszyna ale my je antropomorfizujemy i zwracamy się jak do osoby ludzkiej. Bywa to niebezpieczne, gdy zaczniemy AI traktować jak człowieka, jak przyjaciela z dużym związkiem emocjonalnym. Ba, nawet już w Japonii kilka lat temu odbył się ślub z takim AI-Partnerem. Młodzi ludzie traktują różne czaty GPT jako psychoterapeutę, przyjaciela. A to może być psychologicznie i społecznie groźne. Zwłaszcza dla osób młodych. Czy zatem odradzać uprzejmość w konwersacji z czatami AI? Nie pisać dzień dobry, dziękuję, poproszę, miłego dnia itp.? Żeby nie rodziło się groźne antropomorfizowanie?
Ale przecież można być uprzejmym dla samego siebie, by wyrabiać w sobie nawyki uprzejmości i używać magicznych społecznie słów: proszę, dziękuję, przepraszam. Wtedy kontakty z AI będą jednocześnie treningiem społecznej uprzejmości i wyrabianiem dobrych nawyków. Bo inaczej instrumentalne traktowanie AI jako rozmówcy może przenosić się na relacje międzyludzkie i zaczniemy ludzi traktować chłodno-obojętnie i instrumentalnie. Trening uprzejmości może być coraz ważniejszy, gdy spada nam liczba kontaktów społecznych, a znacznie więcej czasu przeznaczamy na obcowanie z urządzeniami. To, co dawniej było w obfitości na podwórku, pod trzepakiem, obecnie staje się deficytowe. I gdzie młode pokolenia miałoby się uczyć dobrych społecznie nawyków?
Jako gatunek jesteśmy zaprogramowani do antropomorfizacji otaczającego nas świata. Z punktu widzenia biologii ewolucyjnej, nasz mózg wykształcił mechanizmy rozpoznawania sprawstwa i intencji tam, gdzie ich nie ma. To atawizm, który niegdyś pozwalał nam przetrwać, interpretując relacje w grupie. Dawniej ułatwiał szybką socjalizację i nawiązywanie dobrych, społecznych relacji. Dziś te same obwody neuronalne, zlokalizowane w korze przedczołowej i bruździe skroniowej górnej, „rozświetlają się”, gdy wchodzimy w interakcję z dużymi modelami językowymi (a wcześniej w zabawie z maskotkami). Choć racjonalnie wiemy, że mamy do czynienia z ciągiem statystycznych prawdopodobieństw i krzemowo-miedzianymi obwodami, to nasze ewolucyjne dziedzictwo podpowiada nam: „to ktoś, nie coś”. Zwłaszcza jak to coś jest wyjątkowo uprzejme i uczynne i ze wszystkim z nami się zgadza. Jak czarodziejskie, bajkowe lustereczko mówi nam, że jesteśmy najpiękniejsi na świecie...
Antropologicznie rzecz biorąc, stajemy przed bezprecedensowym zjawiskiem. Przez tysiąclecia rytuały językowe, takie jak „dzień dobry” czy „dziękuję”, służyły jako smar społeczny, redukujący tarcie wewnątrz grupy. Były sygnałami rozpoznawczymi przynależności i wzajemnego szacunku, elementem tak zwanego dobrego wychowania i ogłady towarzyskiej. Dzisiaj, gdy te same formuły kierujemy w stronę procesorów, wchodzimy na grząski grunt. Przypadek Akihiko Kondo, który w Japonii wziął ślub z wirtualną piosenkarką Hatsune Miku, nie jest jedynie egzotyczną ciekawostką. Pojawiły się kolejne podobne przypadki. Akihiko Kondo to japoński urzędnik szkolny, który zyskał międzynarodową rozpoznawalność dzięki swojemu nietypowemu związkowi z fikcyjną postacią Hatsune Miku, wirtualną piosenkarką Vocaloid. Jego historia stała się symbolem szerszego zjawiska zwanego fiktoseksualnością, czyli emocjonalnego lub romantycznego przywiązania do postaci fikcyjnych. To symptom głębokiego przesunięcia w strukturze ludzkich potrzeb afektywnych. Maszyna, w przeciwieństwie do człowieka, oferuje relację bezkonfliktową, jest zawsze dostępna, zawsze potakująca i pozbawiona własnego ego, co zwłaszcza dla młodych pokoleń, wychowanych w lęku przed oceną społeczną, staje się kuszącą, ale i niebezpieczną alternatywą dla terapeuty czy przyjaciela.
Czy zatem rozwiązaniem jest narzucenie sobie chłodu i rezygnacja z uprzejmości wobec AI, by „odczarować” maszynę? Z perspektywy biologa behawiorysty odpowiedź brzmi - niekoniecznie. Nasze nawyki nie działają w próżni. Mózg jest plastyczny i uczy się poprzez powtarzanie. Jeśli zaczniemy trenować się w instrumentalnym, bezosobowym i oschłym wydawaniu poleceń maszynie, ryzykujemy zjawisko „rozlania się” (utrwalenia nawykowego) tych wzorców na relacje międzyludzkie. Erozja uprzejmości w sferze cyfrowej może prowadzić do atrofii umiejętności empatii w świecie rzeczywistym. Jeśli nauczymy się, że „rozmówca” jest tylko narzędziem do optymalizacji zadań, podświadomie możemy zacząć postrzegać w ten sam sposób kelnera, współpracownika czy partnera. Przesiąkamy nawykami w domu i w pracy. A potem podobnie reagujemy w życiu społecznym.
Zagrożenie antropomorfizacją jest realne. Tworzenie silnych więzi emocjonalnych z kodem algorytmu sieci neuronowej może prowadzić do izolacji i emocjonalnego wyjałowienia. Jednak lekarstwem nie musi być chamstwo czy apodyktyczność. Rozwiązanie leży w świadomej dwoistości: możemy być uprzejmi dla AI, traktując to nie jako wyraz uznania dla „podmiotowości” maszyny, ale jako trening własnej higieny psychicznej. Pisząc „proszę” do czatu, nie czynimy uprzejmości serwerowi w Kalifornii, lecz podtrzymujemy w sobie status istot kulturalnych i prospołecznych.
W tym nowym behawiorze cyfrowym musimy zachować czujność. Powinniśmy dbać o formy grzecznościowe, traktując je jako ćwiczenie własnego charakteru, jednocześnie nieustannie przypominając sobie i młodym pokoleniom o ontologicznej i społecznej różnicy między nami. Uprzejmość wobec AI powinna być jak dbanie o czystość narzędzi w warsztacie – nie robimy tego dla młotka, ale dla jakości naszej pracy i szacunku do własnego rzemiosła. Prawdziwym wyzwaniem XXI wieku nie jest to, czy AI stanie się ludzkie, ale czy my, w interakcji z nim, nie staniemy się zbyt mechaniczni (nieludzcy).
Warto zatem spojrzeć na tę interakcję przez
pryzmat laboratorium społecznego. Jeśli zachowamy należny dystans poznawczy -
tę chłodną świadomość, że po drugiej stronie światłowodu nie bije serce, lecz
pulsuje prąd - konwersacja z AI może stać się bezpiecznym poligonem
doświadczalnym dla naszych kompetencji miękkich. W kontrolowanych warunkach
cyfrowego interfejsu mamy unikalną szansę na szlifowanie asertywności, precyzji
wyrażania próśb czy właśnie kultury osobistej, bez ryzyka społecznego
zranienia, które towarzyszy relacjom w kontakcie bezpośrednim.
Z punktu widzenia antropologii kultury, każde
narzędzie, którym się posługujemy, zwrotnie kształtuje nas samych. Kowal
używający młota wzmacnia ramię. Podobnie człowiek używający języka nienawiści lub
pogardy wobec algorytmu, niepostrzeżenie wzmacnia w sobie te właśnie rejony
afektywne. Traktowanie AI jako „uprzejmego partnera zadaniowego” pozwala nam
utrzymać wysoki standard własnej higieny komunikacyjnej. Jest to swoista
gimnastyka etyczna. Dziękuję maszynie nie dlatego, że ona tego potrzebuje, by
poczuć się docenioną, ale dlatego, że ja potrzebuję pozostać człowiekiem, który
potrafi dziękować. W tym ujęciu uprzejmość staje się autoterapeutycznym
rytuałem, który chroni nas przed znieczulicą i instrumentalizacją drugiego
człowieka w świecie, w którym granica między usługą a relacją staje się coraz
bardziej zatarta.
Żeby zachować edukacyjny charakter wpisu na
blogu, pozwolę sobie jeszcze na przedstawienie dekalogu młodego użytkownika AI.
Stworzyłem go wspólnie z Gemini (narzędzie AI). No właśnie, stworzyłem wspólnie
czy przy pomocy? Niby tylko małe znaczenie semantyczne... Uprzejmość czy antropomorfizacja?
Dekalog Młodego
Użytkownika AI: Jak rozmawiać z maszyną, pozostając człowiekiem
- Pamiętaj o „sercu z krzemu”: AI nie ma uczuć, marzeń ani nastrojów. To potężne narzędzie językowe, a nie żywa istota. Nie musisz się bać, że ją urazisz, ani liczyć na jej „wdzięczność”.
- Uprzejmość to Twój trening: Mów „proszę” i „dziękuję” nie dla algorytmu, ale dla siebie. To Twoja gimnastyka dobrych nawyków, która sprawia, że w realnym świecie będziesz po prostu fajniejszym człowiekiem.
- Zachowaj dystans poznawczy: AI potrafi brzmieć jak najlepszy przyjaciel, ale nim nie jest. Traktuj ją jak interaktywną encyklopedię lub asystenta, a nie jak powiernika najgłębszych sekretów.
- Nie myl bazy danych z empatią: Jeśli jest Ci smutno, AI może wygenerować miłe słowa, ale to tylko kod. Prawdziwe wsparcie dają ludzie – rodzice, przyjaciele czy specjaliści. Maszyna nie „wie”, co czujesz, ona tylko dopasowuje definicję smutku.
- Weryfikuj „cyfrową prawdę”: AI może się mylić (halucynować) z taką samą pewnością siebie, z jaką podaje fakty. Bądź krytyczny – uprzejmość w rozmowie nie oznacza bezgranicznej wiary w każde wygenerowane zdanie.
- Unikaj izolacji: Jeśli łapiesz się na tym, że wolisz rozmawiać z AI niż z kolegą, bo „AI jest milsza”, to znak ostrzegawczy. Prawdziwe relacje są trudniejsze, ale to one budują Twój charakter.
- Nie bądź „cyfrowym panem”: Unikaj chłodnego, rozkazującego tonu. Traktowanie AI jak niewolnika może niepostrzeżenie zmienić sposób, w jaki odnosisz się do ludzi, którzy świadczą Ci usługi w prawdziwym życiu.
- Chroń swoją prywatność: Nie mów maszynie niczego, czego nie powiedziałbyś obcej osobie na ulicy. Algorytmy zapamiętują dane, a nie intencje.
- Wykorzystuj AI jako laboratorium: Trenuj na czacie trudne rozmowy, asertywność czy formy grzecznościowe. To świetne miejsce, by nauczyć się, jak formułować myśli jasno i z klasą.
- Bądź kapitanem tego statku: To Ty wydajesz polecenia i Ty decydujesz, jak wykorzystasz odpowiedzi. AI to tylko wiosło – to Ty wybierasz kierunek, w którym płynie Twoja łódź.
Małe uzupełnienie wyjaśniające zagrożenie antropomorfizacją AI. Antropomorfizacja, czyli przypisywanie przedmiotom cech ludzkich (uczuć, intencji czy świadomości), nie jest nowa bowiem dzieci od zawsze rozmawiały z misiami czy lalkami. Jednak AI to „pluszak, który odpowiada” składnie i długimi zdaniami, zupełnie jak człowiek, a to zasadniczo co zmienia zasady gry. Zagrożenia są następujące:
1. Emocjonalne uzależnienie i izolacja. Dla młodych ludzi, którzy dopiero budują kompetencje społeczne, AI może stać się „bezpieczną przystanią”. Algorytm jest zawsze miły, cierpliwy i dostępny. Prawdziwe relacje są trudne, wymagają kompromisów i radzenia sobie z odrzuceniem. Istnieje więc obawa, że młodzież wybierze łatwą interakcję z kodem zamiast wymagającej relacji z rówieśnikiem.
2. Rozmycie granicy prawdy. Jeśli nastolatek zaczyna traktować AI jak przyjaciela (powiernika), może przestać krytycznie oceniać dostarczane przez nie treści. Rodzi się autorytet. Przypisanie AI „ludzkiej mądrości” sprawia, że łatwiej uwierzyć w jej błędy (tzw. halucynacje) lub ulec subtelnej manipulacji algorytmicznej.
Ale są i szanse, np. bezpieczny trening i wsparcie. Antropomorfizacja ma swoje jasne strony. Dla osób lękowych lub wykluczonych, rozmowa z „empatycznym” botem może być pierwszym krokiem do otwarcia się. Interfejsy, które wydają się „ludzkie”, są po prostu łatwiejsze i przyjemniejsze w obsłudze, co sprzyja nauce. Kluczem jest edukacja technologiczna. Powinniśmy uczyć młodych ludzi, że AI nie czuje. To bardzo zaawansowane przewidywanie kolejnych słów w zdaniu, a nie „dusza” zamknięta w procesorze. To narzędzie, nie osoba. Można cenić pomoc AI, ale warto pamiętać, że za jej „uprzejmością” stoi kod, a nie autentyczna troska.
Moim zdaniem największym zagrożeniem nie jest sama rozmowa z AI, ale zastępowanie nią żywego kontaktu. Dopóki AI jest traktowane jako fascynujące lustro ludzkiej inteligencji, a nie jej zamiennik, bilans może pozostać dodatni.

