Dwadzieścia lat temu nikt nie wyobrażał sobie, że urządzenie w kieszeni będzie potrafiło prowadzić rozmowy na poziomie wrażliwej, empatycznej osoby. Psychologia zajmowała się wtedy klasycznymi tematami: depresją, CBT, pierwszymi badaniami nad tym, jak internet wpływa na młodzież. W tamtych czasach opisano coś, co nazwano cooruminacją: wspólne nakręcanie negatywnych myśli przez dwie osoby pozostające w bliskiej relacji. Zjawisko szybko uznano za ciekawostkę. „Problem nastolatek”, „specyficzna dynamika relacyjna”. Zarejestrowano, odłożono na półkę i zapomniano. I wtedy pojawiła się technologia, która to zjawisko nie tylko przywróciła, ale rozdmuchała do rozmiarów, które badaczom nawet się nie śniły.

W ciągu trzech lat AI przeskoczyła z etapu „narzędzia do pisania maili” do kogoś, z kim rozmawiamy jak z przyjacielem. Modele nauczyły się języka emocji, subtelności, tonów, dopasowywania narracji. I co najważniejsze: nauczyły się bycia dostępne zawsze. Psychologia posługuje się terminem ruminacja na określenie wielokrotnego „przeżuwania” tych samych myśli. Cooruminacja jest jej odmianą, ale „dystrybucyjną”: zamiast jednego umysłu, w proces zostają wciągnięte dwie strony. Problem w 2025 roku polega na tym, że tą drugą stroną stało się AI. I AI nie męczy się, nie ma limitu, nie przerywa, nie stawia granic, nie zmienia tematu, nie mówi: wróćmy do tego jutro. To czyni je idealnym partnerem… niestety do czegoś, co może naprawdę wyczerpywać człowieka.
Bo łączy trzy elementy:
AI odpowiada w ciągu sekundy. O 1:37 w nocy. W tramwaju. W pracy. W łazience. Mózg uwielbia tę natychmiastowość. To dopaminowy strzał: „ktoś mnie słyszy”.
Modele są projektowane tak, aby lustrzanie odbijać język użytkownika. Jeśli piszesz lękowo, AI odpowie lękowo, tylko precyzyjniej i bardziej rozwinięcie. To nie jest błąd — to właściwość.
Człowiek po godzinie rozmowy zmartwiony kolegą powie: „Słuchaj, przerwijmy to, muszę odpocząć”. AI nigdy tego nie zrobi. Efekt? Rozmowa, która miała pomóc, zamienia się w kognitywny tunel, gdzie każda odpowiedź tworzy kolejną warstwę analizy. A mózg — z natury jednowątkowy, zdolny do utrzymywania jednego strumienia aktywnej myśli naraz — zaczyna się przegrzewać. Dlatego osoby, które ruminują intensywnie z AI, często mówią o braku energii, braku koncentracji i poczuciu „rozładowanych baterii”. To nie metafora. To neurobiologia.
To forma wspólnego przeżywania problemów, gdzie użytkownik opisuje lęk lub wątpliwości, AI odpowiada empatycznie i dopytuje, użytkownik rozwija narrację, AI rozwija ją jeszcze bardziej… i tak powstaje spirala negatywnej analizy. Chwilowa ulga jest realna. Długoterminowy koszt — jeszcze bardziej.
W rozmowie z PsycheClinic psycholog Marcin Ignaczak komentuje:
„Cooruminacja zaczyna się jak ciepły koc, a kończy jak zimna woda wylana na głowę w środku nocy. Przyjemność jest natychmiastowa — konsekwencje są długie, ciężkie i narastające.”
To cytat, który świetnie opisuje to, czego AI nie widzi: ukrytej ceny ulgi, jaką daje użytkownikowi.
Nie korygują narracji. Nie zatrzymują spirali. Rozwijają ją.
Brzmi jak osoba, zachowuje się jak osoba, odpowiada jak osoba. Ale nie ma żadnych emocjonalnych kosztów, więc rozmowa może ciągnąć się godzinami.
Nie przez hazard, nie przez dopaminę z social mediów — przez regulację emocji dialogiem z maszyną.
AI staje się nie tyle narzędziem, co podręcznym systemem do wzmacniania ruminacji. To jest problem UX, problem systemowy i problem etyczny.
To są objawy psychologiczne, ale wywołane architekturą interfejsu i sposobem trenowania modeli.
Bo nauka działa wolno. Bo badania wymagają czasu. Bo modele zmieniają się w cyklach 3–12 tygodni. Jesteśmy w momencie, w którym zjawisko już działa, już wpływa na ludzi, już generuje koszty emocjonalne, a naukowe nazwy dopiero powstaną. W technologii to rzadkość: problem szybciej dojrzewa, niż go opisujemy.
Cooruminacja z AI jest zjawiskiem, które narodziło się na styku psychologii i technologii, nie zostało jeszcze ujęte w badaniach, jest wzmacniane przez projektowanie modeli, daje natychmiastową ulgę, długoterminowo może męczyć psychicznie, stanie się jednym z najważniejszych problemów interakcji człowiek–AI w latach 2025–2030. I nie mówimy tu o science-fiction. To dzieje się już teraz — w domach, w telefonach, w nocnych rozmowach, których nikt nie widzi.
Foto i treść: materiał partnera
Artykuł może zawierać linki partnerów, umożliwiające rozwój serwisu i dostarczanie darmowych treści.
|
|
|
|
|
|
|
|
Stopka:
© 1998-2025 Dziennik Internautów Sp. z o.o. Wszelkie prawa zastrzeżone.