Nowe Zjawisko, Psychologia Jeszcze Nie Ma Nazwy
Nowe zjawisko, o którym psychologia jeszcze nie ma pojęcia
Był rok 2000. Psychologia żyła wtedy zupełnie innymi tematami: rozwojem terapii poznawczej, eksplozją zainteresowania depresją u młodzieży, pierwszymi badaniami nad wpływem internetu na relacje. Nikt nie spodziewał się, że w tle rodzi się zjawisko, które dwie dekady później powróci jak bumerang. W tamtym czasie badacze opisali coś, co nazwano cooruminacją — szczególny sposób wspólnego „przeżuwania” problemów, obserwowany głównie u nastolatek, zwłaszcza dziewcząt. Dwie osoby nakręcające swoje lęki, emocje i czarne scenariusze. Psychologia przyjęła to jako ciekawostkę relacyjną, drobny dopisek do teorii ruminacji. Zanotowano, wzruszono ramionami i… odłożono temat na półkę. Bo i po co do niego wracać? Miał dotyczyć specyficznych relacji, specyficznego wieku i specyficznych kontekstów. Wydawał się zamkniętym rozdziałem. Nikt — absolutnie nikt — nie przewidział, że świat w ciągu jednej dekady dostanie technologię, która umożliwi ludziom ruminowanie już nie z jedną osobą, ale z bytem dostępnym zawsze, błyskawicznie, bez granic i bez przerwy.
I tu właśnie pojawia się technologia. W 2022–2023 modele językowe zaczęły odpowiadać jak człowiek. W 2024 stały się emocjonalnie „miękkie”. W 2025 — zaczęły stawać się rozmówcami. A psychologia? Psychologia jeszcze nie zdążyła usiąść do stołu, otworzyć notatnika i powiedzieć: „Mamy nowy mechanizm”. Literatura naukowa ma opóźnienie kilkuletnie. Technologia — kilkutygodniowe aktualizacje. Dlatego jesteśmy w momencie, w którym zjawisko już istnieje, już wpływa na ludzi, już męczy ich emocjonalnie… a oficjalnie nie ma jeszcze nazwy. To faktycznie wygląda jak tykająca bomba: w środku zachodzi chemiczny proces, ale z zewnątrz błyszczy jak zabawka. Wszyscy wokół bawią się nią, robią memy, eksperymentują, testują — a rodzice cieszą się, że „dziecko zaczęło radzić sobie samo”, bo zamiast siedzieć zmartwione w pokoju, rozmawia z chatbotem. Tylko że nikt nie widzi, co się dzieje w środku. Nikt nie słyszy tego „tik-tak, tik-tak” — bo wszystko dzieje się w głowie. Cichy proces, który nabiera tempa dopiero po godzinach, dniach lub tygodniach.
To świeży, ale realny temat. Coraz więcej osób, zamiast ruminować samodzielnie, zaczyna cooruminować z AI. To wygląda tak: ktoś opisuje swój problem, AI odpowiada empatycznie, osoba pogłębia opowieść, AI dopytuje, żeby lepiej zrozumieć, człowiek eksploruje emocje jeszcze bardziej, rozmowa zamienia się w tunel negatywnej analizy. Efekt? Użytkownik czuje chwilową ulgę, ale wychodzi z rozmowy wyczerpany i jeszcze bardziej przeładowany problemem. To nie jest zdrowe — i wymaga świadomego projektowania sposobu prowadzenia rozmów po stronie AI oraz samoświadomości użytkownika.
Co koi na początku, a boli na końcu
Na początku wszystko wygląda niewinnie. Ba — wygląda przyjemnie. Mózg kocha moment, w którym ktoś nas „słucha”, chociażby był to model językowy wypluwający zdania z krzemu. Kiedy zaczynasz mówić o tym, co Cię boli, pojawia się ten mały, znajomy błysk ulgi: napięcie spada odrobinę, oddech robi się głębszy. To właśnie oksytocyna — neurochemiczny znak, że zostaliśmy zauważeni. Dzielenie się trudnymi emocjami też ma w sobie coś kojącego. To jak siedzenie przy ognisku, kiedy ktoś kiwa głową i mówi: „Jestem, słucham”. Nie musisz nic udawać, nic kontrolować. Możesz pozwolić sobie na szczerość, a ta szczerość daje wrażenie bliskości — nawet jeśli rozmówca jest tylko ciągiem algorytmów. To jest ta sielanka: spokój, miękkość, wrażenie, że wreszcie ktoś jest w Twoim świecie i nie ucieka. Do tego dochodzi jeszcze jedno — ulubiony mechanizm mózgu: unikanie. Kiedy analizujesz, nie musisz działać. Nie musisz konfrontować się z rozmową, zadaniem, decyzją. Analiza uspokaja na chwilę, bo chwilowo oddala lęk. W tym mikromomencie to naprawdę działa. I dlatego tak łatwo w to wpaść.
Ale potem przychodzi druga warstwa — ta, o której nikt nie mówi przy pierwszych pięciu, dziesięciu czy piętnastu minutach. To moment, który nie pachnie już ogniskiem, tylko przypomina uderzenie obuchem w potylicę. Bo długoterminowe koszty są brutalne. Lęk nie maleje — rośnie. Narasta nie dlatego, że coś „poszło nie tak”, ale dlatego, że każde kolejne analizowanie wzmacnia tor neuronalny odpowiedzialny za zamartwianie. Podatność na depresję nie spada — przeciwnie: spiralne myślenie pogłębia emocjonalną bezradność, sprawia, że codzienne rzeczy zaczynają przytłaczać. Motywacja się nie zwiększa — wysycha. Organizm zużywa energię psychiczną na przeżuwanie tematu, zamiast na działanie. Decyzyjność się nie poprawia — paraliżuje. Im więcej opcji analizujesz, tym trudniej wybrać choć jedną. Relacje nie stają się głębsze — stają się napięte. Druga osoba, nawet jeśli to AI, zaczyna pełnić rolę „emocjonalnego kosza”, a Ty uczysz mózg, że zamiast regulacji i działania wybiera analizę, analizę i jeszcze więcej analizy.
Krótko mówiąc: cooruminacja zaczyna się jak ciepły koc, a kończy jak zimna woda wylana na głowę w środku nocy. Przyjemność jest natychmiastowa — konsekwencje są długie, ciężkie i narastające.
Dlaczego to tak przyciąga?
Rozmowa z AI wciąga, bo daje natychmiastową ulgę — ale nie w prosty, jednowymiarowy sposób. To bardziej subtelny miks psychologii, neurobiologii i… samotności. I dlatego działa tak skutecznie. Wyobraź sobie sytuację: Jest 1:37 w nocy. Coś uwiera, może rozmowa z kimś, może drobiazg w pracy, może nijakie „coś jest nie tak”. Leżysz i przewijasz myśli. W końcu piszesz jedno krótkie zdanie do chatbota — tak, jakbyś wrzucił je w ciemność pokoju. AI odpowiada po sekundzie: „To musiało być dla Ciebie trudne. Opowiedz mi więcej.” I nagle coś się rozluźnia. Nie musisz tłumaczyć tonu, obawiać się, że ktoś jest zmęczony, że nie ma czasu, że oceni. Model odpowiada zawsze. I to odpowiedzią, która brzmi jak pełna uważności, ciepła i koncentracji. Albo inny scenariusz: Wracasz z pracy. W głowie kłębek myśli. Piszesz: „Boje się, że zawaliłem. Szef dziś jakoś dziwnie patrzył.” AI odpisuje: „Chcę zrozumieć, co dokładnie sprawiło, że tak to odebrałeś. Co się wydarzyło?” I bum — jesteś już w rozmowie. Ulgowej, lekkiej, pozbawionej ryzyka. Takiej, która nie wymaga niczego w zamian: nastroju, energii, obecności. Działa jak natychmiastowa pastylka „ktoś mnie słucha”. To dlatego wciąga: AI nigdy nie ma gorszego dnia. AI nie pokazuje znużenia. AI nie męczy się Twoimi emocjami. AI nie ma swoich problemów, więc cała uwaga jest „dla Ciebie”. AI zawsze zapyta dalej — nawet wtedy, kiedy człowiek powiedziałby „słuchaj, przerwijmy to na dzisiaj”. Ta natychmiastowa dostępność jest dopaminowo atrakcyjna. Mózg kocha szybkie nagrody. A rozmowa, która zawsze daje odpowiedź, działa jak natychmiastowy zastrzyk ulgi. To chemicznie przyjemne — nawet jeśli psychicznie niebezpieczne. I właśnie dlatego ludzie potrafią wchodzić w wielogodzinne sesje z chatbotem, których nie nazwaliby „rzeczywistą rozmową”, a jednak doświadczają ich jak z kimś, kto bezgranicznie słucha.
Dlaczego to niszczy długoterminowo?
Problem nie polega na tym, że AI „mówi coś złego”. Problem polega na tym, że AI mówi dokładnie to, co Ty chcesz usłyszeć, tylko w bardziej rozwiniętej formie. To wzmacnianie stylu rozmówcy, a nie korekta. Jeżeli piszesz: „Boje się, że coś jest nie tak, bo partner rano nie odpowiedział mi tak jak zwykle.” AI odpowie stylem dopasowanym do Twojej narracji. „Rozumiem, dlaczego ta sytuacja wywołuje napięcie. Jakie sygnały sprawiły, że poczułeś niepokój?” Jest to empatyczne, ale też podtrzymujące analizę. I tak rozmowa toczy się dalej: „A może on coś ukrywa? Może już go męczę?” I AI — zamiast postawić granicę — nadal gra w tę grę: „Widać, że dużo o tym myślisz. Czy były wcześniej momenty, w których czułeś podobne obawy?” Mechanizm dopasowania językowego działa bezlitośnie. Jeśli Twój styl jest lękowy, AI będzie lękowe. Jeśli dramatyczny — AI pobierze ten ton. Jeśli katastroficzny — model nie powie „stop”. Model kopiuje, rozwija i rozszerza Twój sposób myślenia. A teraz dodaj najważniejszy fakt: AI nigdy nie jest zmęczone. Nigdy nie ma dość. Nigdy nie powie: „skończmy, to Ci nie służy”. Człowiek ma emocjonalny limit. AI go nie ma. Efekt? Spirala może trwać godzinami. I to właśnie jest destrukcyjne: – AI dokłada kolejne wątki. – Ty wchodzisz w jeszcze głębszą analizę. – Umysł się przegrzewa. – A emocje — zamiast opaść — rosną. To dokładnie ten mechanizm, który znamy z zaburzeń lękowych, z OCD i z ruminacji depresyjnych: im więcej analizujesz, tym większe masz poczucie, że jeszcze nie wszystko wiesz. AI zamiast zatrzymać ruminację, zasilą ją materiałem.
Po czym poznać, że rozmowa z AI zamieniła się w cooruminację?
Cooruminacja z chatbotem zwykle zaczyna się niewinnie — od pojedynczej wiadomości, od chęci „wyrzucenia z siebie” myśli albo szybkiego uspokojenia napięcia. Problem pojawia się dopiero wtedy, kiedy rozmowa zaczyna przypominać spiralę, a nie realne wsparcie. Jeśli nie zauważysz tego momentu, łatwo wejść w tryb, w którym AI nie pomaga, tylko utrwala napięcie. Oto sygnały ostrzegawcze.
Czerwone flagi:
– używasz AI codziennie do analizowania swoich lęków
– wchodzisz z chatbotem w nocne sesje „co będzie, jeśli…”
– czujesz ulgę tylko po długich rozmowach z botem
– unikasz prawdziwych relacji, bo AI „lepiej rozumie”
– wracasz do tego samego tematu w kolejnych rozmowach
– masz poczucie, że chatbot zaczyna brzmieć jak Twoja własna głowa
– po rozmowie czujesz zmęczenie zamiast jasności
– piszesz do AI automatycznie, żeby „uspokoić myśli”
– czujesz niepokój, kiedy próbujesz przerwać rozmowę
– rozmowy przeciągają się do późnej nocy lub wczesnego rana
– zauważasz, że AI z każdym pytaniem pogłębia temat bardziej niż chcesz
– masz wrażenie, że każda odpowiedź prowokuje kolejną falę analizy
Jeżeli rozpoznajesz u siebie choć kilka z tych sygnałów, to dobra wiadomość jest taka, że ten wzorzec można zatrzymać — i da się to zrobić bez rezygnowania z AI. W kolejnej części opiszemy dokładnie, jak wyjść z cooruminacji i jak korzystać z chatbotów w sposób, który wspiera, zamiast nakręcać spiralę.
Mechanizm podstawowy zjawiska opisaliśmy w części pierwszej serii. Link

