19.02.2026

Ewolucja ludzkiej współpracy w czasach AI

Grafika wygenerowana przez ChatGPT do tekstu eseju.


Ewolucja współpracy jest jednym z najbardziej znaczących procesów w historii naszego gatunku. Człowiek nie wygrał z innymi gatunkami siłą fizyczną ani szybkością, lecz zdolnością do tworzenia stabilnych, koordynowanych i współpracujących grup. Mechanizmy takie jak altruizm odwzajemniony, reputacja, sankcje społeczne czy wspólne normy kulturowe pozwoliły budować wspólnoty większe niż bezpośrednia rodzina. W tym kontekście hipoteza Robina Dunbara opisuje nie tylko limit relacji, lecz granicę efektywnej współpracy opartej na zaufaniu i znajomości kontekstu.

W małych grupach łowiecko-zbierackich współpraca była „wysokiej rozdzielczości”: twarzą w twarz, z pełnym dostępem do sygnałów niewerbalnych, z natychmiastową informacją zwrotną. To właśnie do takich warunków społecznych wyewoluował nasz biologiczny mózg. Mechanizmy kontroli społecznej takiej jak plotka, reputacja, obserwacja - były skuteczne, bo każdy znał każdego. Nasz społeczny mózg "ogarniał całość". Wraz z rozwojem rolnictwa i późniejszych form organizacji społecznej, pojawiła się potrzeba skalowania współpracy poza krąg bezpośrednich więzi. Nasza horda poszerzała się na plemię a potem jeszcze bardziej, np. naród. A biologiczne podłoże, czyli nasz mózg, pozostawało takie samo. Odpowiedzią stały się instytucje, prawo, religia, biurokracja - narzędzia, które pozwalały koordynować działania w populacjach znacznie przekraczających liczbę Dunbara (o tej liczbie więcej w poprzednim tekście).

Sztuczna inteligencja wpisuje się w ten długi proces skalowania współpracy, ale wprowadza jakościową zmianę. Po raz pierwszy w historii do systemu kooperacyjnego włączony zostaje aktor nieludzki (jeśli pominiemy towarzyszące nam zwierzęta, np. takie jak psy), zdolny do przetwarzania ogromnych ilości informacji i wspierania decyzji w czasie rzeczywistym. AI może analizować reputację, przewidywać zachowania, optymalizować podział zasobów, wykrywać konflikty zanim staną się jawne. Z perspektywy teorii gier oznacza to zwiększenie przejrzystości interakcji i potencjalne ograniczenie oportunizmu. Potencjalny skok ewolucyjny jest duży, tak jak w przypadku symbiogenezy (integracji gatunków w większy układ na drodze symbiozy).

Jednocześnie pojawia się napięcie między skalą a głębokością relacji. Ewolucyjnie wykształcone mechanizmy współpracy opierają się na emocjach: empatii, poczuciu sprawiedliwości, wstydzie, dumie. AI może wspierać koordynację, lecz nie doświadcza tych stanów. Gdy decyzje kooperacyjne są coraz częściej mediowane przez algorytmy, relacje między ludźmi mogą ulec formalizacji. Współpraca staje się efektywna, lecz potencjalnie bardziej transakcyjna. Odbieramy informacje wielokanałowo, nie tylko przez treść języka ale także przez język ciała i kontekst sytuacyjny, intonację głosu itp. A tego wszystkiego brakuje w kontaktach za pośrednictwem urządzeń ekranowych.

Istotne jest również to, że AI zmienia środowisko reputacyjne. W małych grupach reputacja była tworzona przez bezpośrednie obserwacje i narracje. Treść uzupełniana był kontekstem i językiem ciała. Dziś jest agregowana przez systemy ocen, algorytmy rekomendacyjne i analitykę danych. Trochę jak zewnętrzna, pozamózgowa intuicja (nieświadome przetwarzanie danych). To może zwiększać przejrzystość, ale też prowadzić do nadmiernej standaryzacji i redukcji człowieka do mierzalnych wskaźników. Mechanizm, który ewolucyjnie służył stabilizowaniu współpracy, zostaje przeniesiony do infrastruktury cyfrowej.

Kolejnym aspektem jest przebodźcowanie. Ewolucja przygotowała nas do funkcjonowania w relatywnie stabilnym środowisku społecznym, gdzie liczba interakcji była ograniczona. Wraz ze wzrostem liczby kontaktów w nowoczesnych, przegęszczonych społecznościach spotykamy wzrokiem jednego dnia więcej osób niż nasi przodkowie w ciągu całego życia. Czy to na ulicy, w metrze, czy to na ekranach. Współczesne środowisko cyfrowe generuje nieustanny strumień sygnałów. To może osłabiać zdolność do selektywnego inwestowania w relacje, a tym samym podkopywać fundamenty zaufania. Współpraca wymaga nie tylko informacji, ale także czasu na jej przetworzenie i osadzenie w kontekście emocjonalnym. Nie da się zagadać do każdego przechodnia, mijanego na ulicy. Ani tym bardziej do każdej postaci z ekranu. To jest ponad nasze biologiczne możliwości przetwarzania. Przynajmniej na razie.

Można więc mówić o trzech kierunkach ewolucji współpracy w kontekście AI. Po pierwsze, rozszerzenie skali - algorytmy umożliwiają koordynację działań w ogromnych sieciach. W tak dużych grupach jeszcze nigdy w swej historii Homo sapiens nie funkcjonował. Ani nasze mózgi. Po drugie, przesunięcie ciężaru z relacji osobistych na relacje systemowe. Zaufanie do osób częściowo zastępowane jest zaufaniem do infrastruktury (może dlatego internetowy hejt jest tak dla nas niszczący?). A tu już trudniej nam odróżniać prawdę od fałszu, wiarygodność od oszustwa. Po trzecie, jest jeszcze ryzyko erozji głębokiej kooperacji, jeśli uwaga i zaangażowanie zostaną rozproszone przez nadmiar bodźców. Nasz duży, społeczny mózg wyewoluował do obsługi większej liczby kontaktów (jeśli porównamy do szympansów, goryli i najpewniej także Neandertalczyków). Przez setki tysięcy lat ten nasz paleolityczny mózg był wystarczający. Ale jeszcze przed epoką AI i ekranowych mediów, zaczęliśmy żyć w znacznie większych społecznościach. To tak jakby to zakupowej torby zacząć wkładać większe niż zazwyczaj zakupy. Po prostu się nie mieści. W tym kontekście technologia jest i szansą i zagrożeniem. Szansą, bo pozwala "ogarnąć" znacznie większą liczbę interakcji społecznych. I zagrożeniem - bo nie wiemy co z tego wyniknie.

Kluczowe pytanie nie brzmi więc, czy AI zwiększy efektywność współpracy, bo to już się dzieje, ale czy pozwoli nam zachować jej ewolucyjny rdzeń: wzajemność, odpowiedzialność i poczucie wspólnoty. Jeśli technologia stanie się jedynie narzędziem wspierającym ludzkie relacje, może wzmocnić współpracę ponad biologiczne ograniczenia skali. Jeśli jednak zastąpi relacyjne fundamenty czystą optymalizacją, to wtedy grozi nam współpraca wydajna, ale płytka i powierzchowna.

W tym sensie AI jest kolejnym etapem ewolucji środowiska społecznego człowieka. Nie zmienia ona naszej biologii, lecz zmienia kontekst, w którym ta biologia działa. Od sposobu, w jaki zaprojektujemy relację między człowiekiem a algorytmem zależy, czy współpraca stanie się bardziej inkluzywna i stabilna, czy bardziej fragmentaryczna i podatna na przeciążenie poznawcze.

Pamięć zewnętrzna, zlokalizowana poza naszym mózgiem, nie pojawiła się dopiero teraz, w epoce smartfonów z AI. Już wcześniej krążyła w konektywnie połączonych relacjami mózgach w postaci intersubiektywności. Czyli w mitach, legendach, historii, pamięci zbiorowej ułożonej w narracjach. Potem ta intersubiektywność byłą zapisywana na papierze. Jeszcze później na taśmach i dyskach. A teraz właśnie w chmurze. I co ciekawe, jest ona samoistnie przetwarzana w sieciach neuronowych LLMów i różnego rodzaju systemów AI. Gdybyśmy się tylko zatrzymali w biologicznych ograniczeniach, to moglibyśmy spodziewać się ewolucji coraz większych mózgów. Taka koncepcja pojawiła sie w połowie wieku XX w postaci Homo sapientissimus. Ale biologiczne ewolucja trwałaby dużo dłużej. Dzięki interakcji z urządzeniami i pamięcią zewnętrzną, czyli swoistej symbiozie naszych organizmów z technologią, ten postęp ewolucyjny może zachodzić znacznie szybciej. Już nie tylko holobiont lecz holotechnobiont. Z punktu widzenia filozoficznego i biologicznego to niesłychanie frapujące zagadnienie. Coś niezwykłego w ziemskiej filogenezie dzieje się na naszych oczach.

W ciekawych czasach żyjemy. Doświadczamy tego, co nawet filozofom się nie śniło. To znaczy śniło, np. noosfera Teilharda de Chardin. A przecież nie był on jedynym wybiegającym myślami daleko w przyszłość. Ale te filozoficzne mrzonki wydawały się nam zbyt odległe, by się na dłużej nad nimi pochylić.

Brak komentarzy:

Prześlij komentarz