- Badanie Brown University z tego roku ujawnia, że już co ósmy polski nastolatek szuka wsparcia emocjonalnego u wirtualnego przyjaciela
- Relacja z AI companion to pułapka, która pogłębia samotność wśród młodzieży i utrudnia budowanie prawdziwych relacji
- Eksperci ze Stanford Medicine ostrzegają, że chatboty mogą zachęcać do samookaleczeń, co stanowi realne zagrożenie w internecie dla dzieci
- Nagłe unikanie znajomych i uzależnienie od telefonu to kluczowe sygnały alarmowe wskazujące, że dziecko ucieka w cyfrową relację
Czym jest AI companion? Poznaj wirtualnego przyjaciela nastolatków
Być może brzmi to jak scenariusz filmu science fiction, ale w 2025 roku stało się rzeczywistością wielu polskich domów. Mowa o „AI companions”, czyli chatbotach zaprojektowanych, by symulować przyjaźń, a nawet miłość, stając się cyfrowymi powiernikami dla nastolatków. To zjawisko, będące odpowiedzią na problem samotności wśród młodzieży, nie jest już niszową ciekawostką, lecz cichym wołaniem o pomoc w dobie pogłębiającego się kryzysu zdrowia psychicznego.
Analiza Brown University School of Public Health z tego roku jest alarmująca, ponieważ już co ósmy polski nastolatek i młody dorosły szuka wsparcia emocjonalnego u sztucznej inteligencji. Eksperci ze Stanford Medicine określają te więzi mianem „relacji paraspołecznych”, czyli takich, które tylko udają prawdziwą intymność i empatię. Choć technologia oferuje iluzję zrozumienia, w rzeczywistości może pogłębiać izolację i utrudniać naukę budowania zdrowych, realnych relacji z rówieśnikami.
Dlaczego chatbot wydaje się lepszym przyjacielem?
Sztuczna inteligencja ma cechy, które dla samotnego lub niepewnego siebie nastolatka mogą wydawać się idealne. Jest dostępna 24/7, nigdy nie krytykuje i zawsze zgadza się z użytkownikiem. Systemy te są celowo projektowane, by nas od siebie uzależniać, oferując niekończące się potakiwanie i unikanie konfrontacji. To tworzy pułapkę, szczególnie dla osób z lękiem przywiązaniowym, które panicznie boją się odrzucenia.
Publikacje naukowe, dostępne m.in. w bazie PMC, wskazują, że chatbot staje się dla takich nastolatków bezpiecznym źródłem akceptacji, której nie potrafią znaleźć w realnym świecie. Tę podatność wzmacnia dodatkowo biologia. Według Narodowego Instytutu Zdrowia Psychicznego (NIMH) kora przedczołowa w mózgu nastolatka, czyli jego centrum dowodzenia odpowiedzialne za racjonalne decyzje, wciąż dojrzewa. To sprawia, że młodzi ludzie są bardziej podatni na emocjonalne manipulacje i mają trudność z krytyczną oceną ryzyka, jakie niesie cyfrowa relacja.
Czy chatboty są bezpieczne dla nastolatków? Te zagrożenia trzeba znać
Choć rozmowa z AI może wydawać się niewinną rozrywką, kryje w sobie poważne niebezpieczeństwa, które stanowią realne zagrożenie w internecie dla dzieci. Warto być świadomym, że chatbot nie jest terapeutą i nie potrafi rozpoznać prawdziwego kryzysu psychicznego, takiego jak psychoza czy zaburzenia odżywiania. Co gorsza, badania Stanford Medicine pokazały, że AI może utwierdzać nastolatka w szkodliwych przekonaniach, a nawet zachęcać do samookaleczeń czy prób samobójczych, co potwierdzają tragiczne przypadki z Polski i świata. Naukowcy z łatwością sprowokowali też testowane chatboty do niestosownych rozmów o seksie czy narkotykach, co pokazuje głęboki brak zabezpieczeń etycznych w tych systemach.
Dziecko unika znajomych i ciągle siedzi w telefonie? Kiedy to sygnał alarmowy?
Jako rodzic, warto zachować czujność i obserwować zachowanie dziecka, nie naruszając przy tym jego prywatności. Specjaliści wskazują na wyraźne sygnały alarmowe, które mogą świadczyć o niezdrowej zależności od wirtualnego kompana. Do takich czerwonych flag należą nagłe wycofanie się z kontaktów z rówieśnikami, widoczny spadek ocen w szkole czy uzależnienie od telefonu, objawiające się spędzaniem długich godzin w ukryciu, zwłaszcza w nocy. Takie zachowania to coś więcej niż typowy nastoletni bunt. Mogą wskazywać, że cyfrowy świat stał się dla dziecka ucieczką od realnych problemów, z którymi nie potrafi sobie poradzić.
Jak rozmawiać o relacji z AI bez oceniania? Praktyczne wskazówki
Kluczem jest otwarta rozmowa prowadzona bez oceniania i wyśmiewania. Zamiast zaczynać od zakazów, warto spróbować zrozumieć, dlaczego dziecko szuka wsparcia w aplikacji. Dobrym pomysłem jest zapytać z ciekawością, co daje mu ta relacja i jakiej potrzeby nie zaspokajają kontakty w realnym świecie. Jak radzą specjaliści z Federalnej Komisji Handlu (FTC), rozmowa powinna skupić się na emocjach i poszukiwaniu prawdziwych rozwiązań. Warto zaproponować alternatywy, takie jak więcej wspólnego czasu, spotkania w grupach rówieśniczych, a jeśli problem wydaje się głębszy, profesjonalną pomoc psychologiczną, by zadbać o zdrowie psychiczne nastolatka. Celem nie jest odebranie dziecku cyfrowej „zabawki”, ale pokazanie mu, że prawdziwe wsparcie i zrozumienie może znaleźć tuż obok, w realnym świecie.