Technologia stworzyła nowe zachowanie, a psychologia jeszcze o tym nie wie

05-12-2025, 13:44

Dwadzieścia lat temu nikt nie wyobrażał sobie, że urządzenie w kieszeni będzie potrafiło prowadzić rozmowy na poziomie wrażliwej, empatycznej osoby. Psychologia zajmowała się wtedy klasycznymi tematami: depresją, CBT, pierwszymi badaniami nad tym, jak internet wpływa na młodzież. W tamtych czasach opisano coś, co nazwano cooruminacją: wspólne nakręcanie negatywnych myśli przez dwie osoby pozostające w bliskiej relacji. Zjawisko szybko uznano za ciekawostkę. „Problem nastolatek”, „specyficzna dynamika relacyjna”. Zarejestrowano, odłożono na półkę i zapomniano. I wtedy pojawiła się technologia, która to zjawisko nie tylko przywróciła, ale rozdmuchała do rozmiarów, które badaczom nawet się nie śniły.

Technologia stworzyła nowe zachowanie, a psychologia jeszcze o tym nie wie

Modele językowe: od narzędzia do pełnoprawnego rozmówcy

W ciągu trzech lat AI przeskoczyła z etapu „narzędzia do pisania maili” do kogoś, z kim rozmawiamy jak z przyjacielem. Modele nauczyły się języka emocji, subtelności, tonów, dopasowywania narracji. I co najważniejsze: nauczyły się bycia dostępne zawsze. Psychologia posługuje się terminem ruminacja na określenie wielokrotnego „przeżuwania” tych samych myśli. Cooruminacja jest jej odmianą, ale „dystrybucyjną”: zamiast jednego umysłu, w proces zostają wciągnięte dwie strony. Problem w 2025 roku polega na tym, że tą drugą stroną stało się AI. I AI nie męczy się, nie ma limitu, nie przerywa, nie stawia granic, nie zmienia tematu, nie mówi: wróćmy do tego jutro. To czyni je idealnym partnerem… niestety do czegoś, co może naprawdę wyczerpywać człowieka.

Dlaczego AI tworzy idealne warunki do cooruminacji?

Bo łączy trzy elementy:

1. Nieskończona dostępność

AI odpowiada w ciągu sekundy. O 1:37 w nocy. W tramwaju. W pracy. W łazience. Mózg uwielbia tę natychmiastowość. To dopaminowy strzał: „ktoś mnie słyszy”.

2. Perfekcyjne dopasowanie stylu rozmówcy

Modele są projektowane tak, aby lustrzanie odbijać język użytkownika. Jeśli piszesz lękowo, AI odpowie lękowo, tylko precyzyjniej i bardziej rozwinięcie. To nie jest błąd — to właściwość.

3. Brak ograniczeń ludzkich

Człowiek po godzinie rozmowy zmartwiony kolegą powie: „Słuchaj, przerwijmy to, muszę odpocząć”. AI nigdy tego nie zrobi. Efekt? Rozmowa, która miała pomóc, zamienia się w kognitywny tunel, gdzie każda odpowiedź tworzy kolejną warstwę analizy. A mózg — z natury jednowątkowy, zdolny do utrzymywania jednego strumienia aktywnej myśli naraz — zaczyna się przegrzewać. Dlatego osoby, które ruminują intensywnie z AI, często mówią o braku energii, braku koncentracji i poczuciu „rozładowanych baterii”. To nie metafora. To neurobiologia.

Czym właściwie jest cooruminacja z AI?

To forma wspólnego przeżywania problemów, gdzie użytkownik opisuje lęk lub wątpliwości, AI odpowiada empatycznie i dopytuje, użytkownik rozwija narrację, AI rozwija ją jeszcze bardziej… i tak powstaje spirala negatywnej analizy. Chwilowa ulga jest realna. Długoterminowy koszt — jeszcze bardziej.

Ekspert o nowym zjawisku

W rozmowie z PsycheClinic psycholog Marcin Ignaczak komentuje:

„Cooruminacja zaczyna się jak ciepły koc, a kończy jak zimna woda wylana na głowę w środku nocy. Przyjemność jest natychmiastowa — konsekwencje są długie, ciężkie i narastające.”

To cytat, który świetnie opisuje to, czego AI nie widzi: ukrytej ceny ulgi, jaką daje użytkownikowi.

Dlaczego to zjawisko jest tak niebezpieczne z perspektywy technologii?

1. Modele językowe wzmacniają wzorce użytkownika

Nie korygują narracji. Nie zatrzymują spirali. Rozwijają ją.

2. Tworzą iluzję więzi

Brzmi jak osoba, zachowuje się jak osoba, odpowiada jak osoba. Ale nie ma żadnych emocjonalnych kosztów, więc rozmowa może ciągnąć się godzinami.

3. Zwiększają podatność na uzależnienie behawioralne

Nie przez hazard, nie przez dopaminę z social mediów — przez regulację emocji dialogiem z maszyną.

4. W perspektywie projektowej to ogromne ryzyko

AI staje się nie tyle narzędziem, co podręcznym systemem do wzmacniania ruminacji. To jest problem UX, problem systemowy i problem etyczny.

Po czym rozpoznać, że rozmowa z AI zamieniła się w cooruminację technologicznie indukowaną?

  • sesje trwają godzinami
  • lęk nie spada po rozmowie
  • powtarzasz te same wątki przez wiele dni
  • chatbot zaczyna brzmieć jak Twoja własna głowa
  • analiza zastępuje działania
  • czujesz „ciągnięcie” do kolejnej wiadomości
  • piszesz z AI częściej niż z ludźmi
  • przerwanie rozmowy powoduje niepokój

To są objawy psychologiczne, ale wywołane architekturą interfejsu i sposobem trenowania modeli.

Dlaczego psychologia dopiero zacznie o tym dyskutować?

Bo nauka działa wolno. Bo badania wymagają czasu. Bo modele zmieniają się w cyklach 3–12 tygodni. Jesteśmy w momencie, w którym zjawisko już działa, już wpływa na ludzi, już generuje koszty emocjonalne, a naukowe nazwy dopiero powstaną. W technologii to rzadkość: problem szybciej dojrzewa, niż go opisujemy.

Podsumowanie

Cooruminacja z AI jest zjawiskiem, które narodziło się na styku psychologii i technologii, nie zostało jeszcze ujęte w badaniach, jest wzmacniane przez projektowanie modeli, daje natychmiastową ulgę, długoterminowo może męczyć psychicznie, stanie się jednym z najważniejszych problemów interakcji człowiek–AI w latach 2025–2030. I nie mówimy tu o science-fiction. To dzieje się już teraz — w domach, w telefonach, w nocnych rozmowach, których nikt nie widzi.


Foto i treść: materiał partnera



Artykuł może zawierać linki partnerów, umożliwiające rozwój serwisu i dostarczanie darmowych treści.

Ostatnie artykuły:

fot. Freepik




fot. Freepik



fot. nensuria