4.01.2023

Chat GPT niebezpiecznie wiarygodnie konfabuluje

Przykład z kamishibai, teatrem ilustracji, dawnym japońskim wynalazkiem, który obecnie zyskuje na edukacyjnej popularności. Temat nawiązuje do zamieszczonego teksu. Rzecz jest o mówieniu.
 

Kiedy pojawia się nowa osoba w towarzystwie to wzbudza zainteresowanie i każdy chce z nią porozmawiać, zapoznać się. Takie zainteresowanie społeczne wzbudził ChatGPT, nowy podmiot sztucznej inteligencji, stworzony do konwersacji. Chyba (niepewność dotyczy konwersacji a nie zainteresowania ChatGPT). Niewątpliwie gwiazda socjologiczna ostatnich dni, ciesząca się ogromnym zainteresowaniem.  I ja także dołączyłem do tego grona przepytywaczy, szukających słabych punktów lub odkrywających mocne strony nowego bytu towarzyskiego. Towarzysko przepytać ku zachwytowi lub uciesze. Efektem było spore zdziwienie i zaniepokojenie. 

Najpierw spytałem o Jana i Cecylię w kontekście lektur szkolnych i miłości. ChatGPT (zwany dalej także Czatbotem)  z dużą pewnością w wypowiedzi i przekonującym, elokwentnym językiem udzielał odpowiedzi. Językowo zdania poprawne i niebanalne, przyjemnie się czytało. Jak okołoświąteczną literaturę. Jana i Cecylię zamiast w "Nad Niemnem" umieścił w "Lalce" i dodał wymyślone nazwiska. Ktoś, kto nie czytał i nie zna obu książek mógł uwierzyć w wygenerowana historię i omówienie lektury. My mieliśmy zabawę przy świątecznym stole (bo oczywiście odczytałem na głos konwersację z Czatbotem). Zgodnie odnieśliśmy wrażenie, że ChatGPT odpowiadał jak nieprzygotowany uczeń, który bezczelnie zmyśla, bazując na językowej elokwencji i kompetycjach komunikacyjnych. Brzmiało wiarygodnie i ciekawie. W szkolnych anegdotach o podobnych i rzeczywistych wyczynach ludzi z krwi i kości, czasem opowiadaliśmy w dawnych czasach. Sposób na wymiganie się z negatywnej oceny i udawanie, że się przeczytało zadaną lekturę. Ta "rozmowa" z Czatbotem była dla nas towarzyską zabawą, niczym opowiadanie wesołych historii. Ale gdyby uczeń chciał w ten sposób odrobić lekcje lub poszukać szybkiej odpowiedzi? Mógłby łatwo się zwieść. Dlatego uważam, że jest to niebezpiecznie  wiarygodne zmyślanie.  Zupełnie nowy poziom fake newsów. Przydatne do niezobowiązującej konwersacji i zabawy towarzyskiej lecz szkodliwe w budowaniu wiedzy i szukaniu odpowiedzi na nurtujące kogoś pytania.

Ale może zasób materiału wsadowego dla Czatbota był skromny w języku polskim? Być może nie miał z czego czerpać i wymyślał. Nie przyznał się do braku wiedzy tylko zmyślał. Popłynął jak to się czasem mówi. Postanowiłem sprawdzić jak poradzi sobie z pytaniami, dotyczącymi biologii. Jak rasowy egzaminator spytałem o to, co sam wiem. Najpierw zapytałem o oddychanie u dżdżownicy. W zakresie wiedzy biologicznej - w zasadzie uniwersalnej i niezależnej od języka odpowiedzi ChatGPT były błędne ale wyglądały na wiarygodne. Z oddychaniem dżdżownicy w niektórych fragmentach i mnie wprowadził w zakłopotanie, bo nie mogłem stwierdzić, czy pisze dobrze czy też całkowicie błędnie. Aż sam musiałem sprawdzać, bo odpowiedzi wydawały się błędne, lecz podane tak wiarygodnie, że było przekonywujące. Te same pytania zadawane w języku angielskim otrzymywały lepsze merytorycznie odpowiedzi. Może ChatGPT miał więcej tekstów w języku angielskim niż polskim, na których się uczył? A może to także błąd w tłumaczeniu? 

Zamieszczam przykład z omułkiem. Odpowiedź była kuriozalna. Jak można zaliczyć małża morskiego, mięczaka do ssaków a konkretnie do fok? Może to efekt złego tłumaczenia? Źle zrozumiał moje pytanie? Może są jakieś podobne słowa dla omułka i morskich ssaków?  Fragment, dotyczący zamykania otworu nosowego w czasie nurkowania wydał się poprawny i wiarygodny. Trudno, żeby było inaczej. To skoro pisze w tym fragmencie poprawnie, to może i dalej będzie dobrze? Długo nurkujące ptaki czy ssaki muszą rozwiązać problem z oddychaniem i potencjalnym brakiem tlenu. Ale żeby gromadzić w specjalnych gruczołach tlenowych? Nie słyszałem o czymś takim. Ale jeśli nie słyszałem to może ja mam braki w wiedzy o fokach? Nie da się znać na wszystkim w szczegółach. Z ciekawości więc sprawdziłem. Zacząłem od Wikipedii. I znalazłem różne wyjaśnienia, dotyczące problemów z oddychaniem przy głębokim nurkowaniu. U fok tlen gromadzony jest w krwi i mięśniach.  Zatem Czatbot opisał właściwy problem lecz zawarł zmyślone informacje. Googlałem gruczoły tlenowe by znaleźć ewentualne źródło błędu. Zero rezultatu. Przynajmniej w polskojęzycznych źródłach tego nie było. Najwyraźniej Czatbot konfabulował

Wnioski. Jeśli uczeń zapyta w nadziei na pomoc, to przynajmniej w zakresie wiedzy biologicznej otrzyma fałszywe informacje, ubrane w wiarygodnie wyglądającą wypowiedź. I ta wiarygodność językowa i argumentacyjna jest groźna. Tak jak groźny jest sprytny i doskonały oszust. Łatwo może wyprowadzić w pole. Jak patologiczny kłamca, który oszukuje i zmyśla nawet bez potrzeby. Bo przecież Czatbot nic nie zyskuje, nic mi nie sprzedał, do niczego nie namówił. Może tylko zainteresowanie konwersacyjne i moją uwagę. Zatrzymał przy ekranie.

Do czego przydatna może być taka sztuczna inteligencja? Do rozmowy towarzyskiej? Do zabawiania klientów? W zakresie literatury fikcji na pewno bardzo kreatywny, "wygadany", szybki i przydatny. Różnego typu czasy AI funkcjonują na stronach wielu przedsiębiorstw. Ich zadaniem jest udzielenia odpowiedzi na proste i powtarzające się pytania. Wyręcza w czynnościach powtarzalnych i nużących. Człowiekowi trudno psychicznie byłoby wytrzymać przy udzielaniu ciągle takich samych odpowiedzi. Czy testowany publicznie ChatGPT będzie przydatny do udzielania informacji handlowych, firmowych? W moim odczuciu w takich zadaniach  jest mało przydatny. Bo konfabuluje i może klienta wyprowadzić w pole. Bardzo przydatny dla farmy troli - bo tam z założenia nie chodzi o prawdę tylko na wyrabianie opinii i skłaniania do konkretnych działań, do oszukiwania i wyprowadzania w pole. 

Do czego się przyda? Mi się przydał do poprawy zdania. Chciałem, żeby napisał innymi słowami sformułowaną myśl. Ta sama merytorycznie treść tylko nieco inaczej ujęta. To zrobił chat GPT bardzo dobrze. Zaoszczędził mi pracy i wysiłku.

Refleksją z pogawędki z AI jest to, że niezwykle ważne w edukacji są kompetencje cyfrowe i komunikacyjne. Bez nich człowiek będzie niczym organizm z niedziałającym systemem odpornościowym - wnikną wszelkie zarazki i pasożyty. Tak jak i dawniej, tak i w cyfrowym świecie z coraz częstszą obecnością AI, wymagana jest umiejętność weryfikowania uzyskiwanych informacji w innych źródłach. Ja sprawdzałem np. w Wikipedii. Wikipedia nie jest pozbawiona wad. Ale jest budowana przez ludzi, pozostających ze sobą w dialogu, spierających się i powołujących się na rzeczywiste źródła. CzatGPT wymyśla źródła, podaje nieistniejące hasła w Wikipedii, nieistniejące artykuły i publikacje. To sprawdziłem gdy pytałem o chrząszcze ambrozyjne i korniki. Ale to już zasługuje na osobny tekst (niebawem się ukaże).

Wróćmy do kompetencji cyfrowych. W dawnym, analogowym świecie uczyliśmy się języka ciała  by z mimiki twarzy, intonacji głosu czy gestykulacji wykryć kłamstwa i manipulacje. Teraz kulturowo spotykamy się ze starymi problemami ale w zupełnie innym opakowaniu. Musimy odróżnić prawdziwy obraz czy nawet film od tego wygenerowanego i zmanipulowanego. Bo ChatGPT to tylko narzędzie, za którym stoi człowiek. Kompetencje cyfrowe są tak ważne jak sprawny układ odpornościowy. 

Co jest potrzebne w zakresie wiedzy przyrodniczej? Absolwent szkoły musi mieć własny szkielet wiedzy, paradygmat, który jest drogowskazem w odszukiwaniu brakujących szczegółów. Trzeba znać podstawowe prawa przyrody. Ale to nie wystarczy. Trzeba umieć szukać w różnych źródła i umieć odróżnić źródła wiarygodne od tych mniej wiarygodnych czy wręcz z założenia fałszywych. Kiedyś fałszowano pieniądze, złoto i cenne towary. Teraz można fałszować wiedzę i informacje. Zresztą kłamstwa i manipulacje towarzyszą człowiekowi od samego zarania Homo sapiens. W kontekście społeczny jest jak z pojawieniem się nowego patogenu - minie trochę czasu aż nabierzemy odporności grupowej. W tak zwanym międzyczasie będą straty, tak jak przy każdej epidemii.

Za sprawą algorytmów sztucznej inteligencji znaleźliśmy się w nowym środowisku. To tak, jakby do naszej grupy towarzyskiej dołączyły zupełnie nowe i nieznane osoby. Musimy je poznać, ocenić ich wiarygodność, poznać dobre i złe strony. I nauczyć się z nimi żyć jakie by nie były, dobre lub złe.. Wobec upowszechniających się czatbotów sama edukacja na wszystkich poziomach musi się zmienić. Bo to nie tylko nowe sposoby na ściąganie przez uczniów i chodzenia na skróty, drogami, których nie zaplanował nauczyciel. To także nowe osoby (nieludzkie) w naszym otoczeniu. W naszym społecznym środowisku. Co nas nie zniszczy to nas wzmocni. Dawne pasożyty mogą stać się pożytecznymi symbiontami.

Tak na gorąco myślę, że trzeba uczyć faktów, podstaw, ogólnego systemu wiedzy. Swoistego szkieletu. I umiejętności weryfikowania w różnych źródłach oraz prowadzenia dialogu. Co w biologii jest taką podstawą? Można byłoby powiedzieć - jaka powinna być ta podstawa programowa? To jest pytanie, nad którym się teraz głowię. Jak w ogromie wiedzy, której przez swą ilość nie da się w całości opanować, wybrać to, co najistotniejsze i najważniejsze? Kiedyś, jeśli nie miałeś w głowie, to nie miałeś w ogóle, Bo książek było mało a biblioteki daleko i niekompletne. Stąd zrozumiały nacisk na wiedzę pamięciową, nawet w odniesieniu do literatury faktu i poezji, którą można było zabłysnąć towarzysko. Teraz mamy pamięć przenośną i zewnętrzną w stosunku do naszego mózgu. Moim zdaniem dużego znaczenia nabierają kompetencje społeczne: umiejętność prowadzenia dialogu, argumentowania, sprawdzania źródeł, współpracy. One powinny być oczkiem uwagi we współczesnej szkole. 

I na zakończenie jeszcze jeden przykład konwersacji z Czatbotem. Żyrytwa to drapieżny pluskwiak wodny (owad). Komary każdy zna i nie trzeba objaśniać. Na pewno ChatgPT dobrze radzi sobie z błędami literowymi. I jest bardzo twórczy w wymyślaniu. Zagrażać może twórcom literatury fikcji. Pisarze literatury faktu mogą na razie czuć się niezagrożeni. Chyba, że pojawią się oszuści, którzy wykorzystają ChatGPT i podobne algorytmy do tworzenia fałszywej literatury faktu. Taka pasożytnicza mimikra kulturowa.  Nie będą pierwszymi, tyle tylko, że teraz będą mieli łatwe narzędzia do szybkiego generowania treści. Bez zbytniego wysiłku. Mniejszego niż tworzenie literatury faktu czy nawet literatury fikcji. Bo narzędzie jest bardzo sprawne językowo i narracyjnie.


Żyrytwa to owad a żyrafa to ssak.
Trzy różne jednostki systematyczne
w jednym zdaniu: owad, ptak i ssak.
Nieco dalej niekonsekwencja,
bo wcześniej uznana za ptaka a potem za ssaka.   

Brak komentarzy:

Prześlij komentarz