19.10.2025

Co widzisz na ilustracji? Czy AI jest lepsze od człowieka w interpretowaniu?

Jesienne liście na trawniku.


Sprawdzamy i testujemy. Czasem wyśmiewamy się z głupich odpowiedzi AI. To śmiech spokoju i domniemanej przewagi - my jesteśmy spokojni, bo to AI daje takie głupie odpowiedzi. Kiedy w ubiegłą sobotę dałem zdjęcie z FB do analizy trzem narzędziom AI, to na początku przeraziłem się. Przeraziłem się sprawnością, szybkością i wnikliwością analizy. Wszystko wydawało się idealne i kompletne. Potem z ulgą znalazłem pewne błędy i ślepe uliczni analizy AI. Z ulgą, bo gdybym nie znalazł tych rys, to pozostałbym w swym przerażeniu. Zawody kreatywne i bazujące na wypowiedziach słownych są zagrożone. Zagrożone są przede wszystkim zawody bazujące na kreatywności algorytmicznej (odtwórczej). Mamy coraz silniejszą konkurencję. Niemniej najważniejsza pozostaje umiejętność zadawania kluczowych pytań. Ja znałem kontekst tego zdjęcia z tekstu na FB. Ponadto szybko zwróciłem uwagę na pewne szczegóły i odszyfrowałem istotne kwestie, widoczne na zdjęciu, w oparciu o moje własne doświadczenie i posiadaną już wiedzę. Rozumiałem sens i dlatego łatwiej było mi zadać właściwe pytania narzędziom AI. Ale czy ktoś, kto nic nie wie, potrafi zadać właściwe i sensowne pytania? Czy potrafi dostrzec najistotniejsze elementy z tego obrazu? I pominąć nieistotne tło?

Przydatność narzędzi AI zależy od kontekstu i umiejętności oraz wiedzy pytającego AI (stosującego narzędzia). Wiedza ta jest potrzebna by zadać właściwe pytanie i dostrzec to, czego brakuje w odpowiedzieć AI. A wtedy można zadać kolejne, ukierunkowujące pytania i polecenia. AI jest pracowitym, szybkim i usłużnym asystentem. Jednak to człowiek jest kierownikiem, od jego wiedzy najwięcej zależy. Tak jak od kierowcy zależy jazda samochodem. A przecież silnik to mechanizm pracujący samodzielnie. Niemniej samochód jedzie tam, gdzie zdecyduje kierowca. I z taką szybkością jak chce kierowca. Owszem, teraz wiele zmienia AI i samochody autonomiczne… To już jednak inna historia.

Czy jak młodzi ludzie od małego będą korzystali z AI, z łatwego i szybkiego zdobywania odpowiedzi (pozornie pięknych, bo poprawnych językowo i przedstawionych wiarygodnie odpowiedzi), to czy rozwiną swoje umiejętności czy też ograniczą swój rozwój? Na dodatek AI bardzo chwiali użytkownika, niemalże jak rodzic uznaje za geniusza – a to usypia krytycyzm. Co zbyt łatwo przychodzi, to nie wymusza rozwoju. Tak samo jak zbyt duży otwór w smoczku od butelki do mleka. Niemowlę szybko zje (wypije mleko z butelki), ale nie ćwiczy mięśni policzków i potem ma trudności z mówieniem. Często pojawiają się wady wymowy. Brak ćwiczeń języka i policzków w czasie niemowlęcego ssania przynosi złe konsekwencje w dzieciństwie, gdy uczymy się mówić. Czasem trzeba iść do logopedy i długo ćwiczyć.

Tak jak samochody (i inne maszyny) powodują ludzką otyłość, bo rezygnujemy z niezbędnego dla nas ruchu, tak być może AI osłabia siłę naszego umysłu i staniemy się w jakimś sensie niepełnosprawni, upośledzeni już nie ruchowo co myślowo i intelektualnie.

Im bardziej sprawne są modele językowe, tym większy rośnie we mnie niepokój. Czy potrafię sensownie wykorzystywać to narzędzie? A inni ludzie? I czy tylko do dobrych społecznie zamiarów? Czy nasze własne myślenie na biopaliwo (pokarm) nie zostanie w dużej części zastąpione przez narzędzia AI, pożerające energię elektryczną i wodę do chłodzenia? Wszystko to kwestia skali. Korzystam z samochodów i pociągów, ale staram się dużo chodzić pieszo. Czy tak samo będzie z narzędziami AI? Czy potrafimy dostrzec bezpieczną i zdrową granicę i nie ulegniemy nadmiernemu spożyciu?

Co jest ważne w analizie obrazu (zdjęcia)? Uważność i spostrzegawczość, dostrzeganie procesów i analiza obrazu, sprawność językowa. AI dostrzegł wiele różnych aspektów. Czy studenci wykorzystają kontekst i skupią się od razu na rzeczy istotnej z punktu widzenia ochrony środowiska, czy też jak AI skomentują wszystkie możliwe i bardzo różnorodne kwestie? Bo sam wykład z ochrony środowiska jest już kontekstem, ukierunkowującym myślenie. To powinno ułatwić.

Kluczową umiejętnością staje się umiejętność stawiania pytań a nie udzielanie odpowiedzi. W odpowiadaniu AI jest szybsza. Być może nawet lepsza. Daje wszechstronniejsze i kompletniejsze odpowiedzi. Ale najważniejsze jest dostrzeżenia sedna. Po co tracić czas na omawianie wszystkich możliwych aspektów?

Czy AI jest konkurencją dla procesów twórczych i językowych (pisarskich i nie tylko)? Z pewnością jest, tak samo jak maszyna do pisania (z kalką umożliwiającą pisanie jednoczenise kilku kopii) przyspieszyła proces pisania i publikowania drukiem wielu treści.

Po przesłaniu zdjęcia do trzech różnych modeli (Gemini, Copilot, Bielik) szybko dostałem odpowiedzi. Więcej czasu zabiera mi czytanie odpowiedzi niż zadawania pytań. Nadmiar krępuje i przeszkadza. Bo co i jak teraz wybrać? Owszem pojawiły się pomysły na wykorzystanie dydaktyczne, by porównać odpowiedzi studentów z AI, by zachęcić ich, aby sami zadali pytanie swojemu ulubionemu AI, dając do interpretacji zdjęcie. By napisali raport z użycia AI. By wpisali swoje prompty i odpowiedzi AI i przedstawili kolejne kroki. Na koniec sformułowali swój własny wniosek i swoją refleksję. A ci, którzy nie mają AI w telefonie lub nie zabrali tabletu czy laptopa na zajęcia? Może im zaproponować by napisali ręcznie lub narysowali, by opisali swoje odczucia w pracy z AI lub gdy nie mieli możliwości korzystania z AI? Nikt nie jest na gorszej pozycji, nawet jak nie ma ze sobą urządzenia ekranowego z dostępem do internetu. I jeszcze porównywanie, analiza uzyskanych tekstów. Jakie wnioski wyciągną?

A jakie ja wyciągnę wnioski z tego małego eksperymentu w zakresie korzystania z AI lub zmiany sposobu prowadzenia wykładów. Czy przez zadawanie pytań i swoisty dialog z AI można się uczyć równie dobrze jak przez bierne słuchanie wykładu? A może będzie to efektywniejsza nauka bo z własną aktywnością? Na nic rozważania, trzeba sprawdzić.

Z całą pewnością znacznie trudniej zmotywować studentów do aktywności. To pierwszy mój wniosek. Są oszczędni w wysiłku i najwyraźniej potrzebują widzieć sens każdego działania. AI działa szybko i dowolny prompt wyzwala jej aktywność. Ze studentami jest dużo trudniej. Oni dużo bardziej oszczędnie gospodarują swoją energią zużywana przez komórki nerwowe. Od wykładowcy wymaga to większego wysiłku w motywowaniu i wskazywaniu sensu.

W dialogu z AI szybko otrzymałem dużo słów, w części powtarzających się. Ale czy otrzymałem dużo treści? Jakie wątki nie zostały dostrzeżone przez AI? Jakie kolejne pytania należałoby zadać i jak ukierunkować modele językowe? Czy na finalny tekst czy też na pomysły do zadań na zajęciach? W czasie dyskusji z AI do głowy przyszły mi całkiem nowe pomysły dydaktyczne. I wcale nie były wprost podpowiedzią AI. Tak jak w dialogowaniu wg Ludwika Flecka, sama dyskusyjna sytuacja powoduje skojarzenia i rodzą się pomysły i treści, które nie powstały by w głowie z żadnego z dyskutantów bez tej dyskusji. Czy na moje pomysły wpadłbym bez rozmowy z modelem językowym? Teoretycznie to możliwe, ale była sytuacja sprzyjająca, sam coś doświadczałem i pomyślałem, że można to wykorzystać dydaktycznie do wspólnej, zespołowej pracy. Czy się uda? Sprawdziłem na drugi dzień na wykładzie, apotem jeszcze z inną grupą za kilka dni.

Zdjęcie z Facebooka poddane analizie przez AI

Na początek drogi Czytelniku i droga Czytelniczko spróbuj sam(a) zapytać dowolnemu narzędzi AI pytanie o to, co przedstawia wyżej zamieszczone zdjęcie. Zachęcam także do zadawania kolejnych pytań. A potem możesz sprawdzić rezultat mojej rozmowy z AI. Zajrzyj tu. Szersza omówienie rezultatów interpretacji dokonanej przez AI pojawi sie niebawem.

Brak komentarzy:

Prześlij komentarz