- Zeszłoroczne badania z Georgetown Law ujawniają, że aż trzech na czterech nastolatków regularnie rozmawia z AI, często bez wiedzy rodziców
- Eksperci wskazują, dlaczego co trzeci nastolatek ma kłopoty po rozmowie z chatbotem i jest bardziej podatny na cyfrową manipulację
- Głęboki kryzys w psychiatrii dziecięcej jest jednym z głównych powodów, dla których młodzież szuka wsparcia u sztucznej inteligencji
- Kluczem do rozwiązania problemu jest wiedza, jak rozmawiać z nastolatkiem o zagrożeniach i kiedy rozmowa z AI wymaga interwencji specjalisty
Rozmowy z AI zamiast z rodzicem. Dlaczego co trzeci nastolatek ma przez to kłopoty?
W 2026 roku rozmowa z chatbotem stała się dla nastolatków codziennością, zastępując pamiętnik czy rozmowę z przyjacielem. Zeszłoroczne badania z Georgetown Law przynoszą alarmujące wnioski: aż trzech na czterech nastolatków regularnie korzysta z takich narzędzi. Co gorsza, według dostępnych danych, zaledwie 37% rodziców zdaje sobie z tego sprawę, co tworzy niebezpieczną lukę w nadzorze i wpływa na bezpieczeństwo dzieci w internecie.
Problem w tym, że co trzeci młody użytkownik doświadczył niepokojących interakcji z AI, w tym rozmów o samookaleczeniu czy treści o charakterze seksualnym. To prawdziwy sygnał alarmowy dla rodziców. Jak wyjaśniają eksperci ze Stanford Medicine, mózgi nastolatków wciąż się rozwijają, a to sprawia, że młodzi ludzie są bardziej podatni na cyfrową manipulację i uzależnienie. Ta niewidzialna rozmowa może nieść ze sobą realne i bardzo poważne konsekwencje.
Kryzys w psychiatrii dziecięcej. Liczby, które wyjaśniają popularność AI
Popularność chatbotów w Polsce nie bierze się znikąd i ma swoje źródło w głębokim kryzysie systemowym. Niestety, dostępna pomoc psychologiczna dla młodzieży jest mocno ograniczona. Według danych przytoczonych w publikacji PMC z 2025 roku, na wszystkie dzieci w kraju przypada zaledwie 579 psychiatrów dziecięcych i młodzieżowych. To, w połączeniu z faktem, że na całą opiekę psychiatryczną przeznacza się tylko 3,5% budżetu NFZ, prowadzi do powstawania gigantycznych kolejek i barier w dostępie do wsparcia.
Według raportu WHO Europe, co siódme dziecko w naszym regionie cierpi na zaburzenia psychiczne, a polska młodzież ma jeden z najniższych wskaźników dobrostanu. Wzrasta też depresja u nastolatków. Przerażające dane z 2022 roku mówią o 2031 próbach samobójczych wśród nieletnich, co stanowi wzrost o 148% w ciągu zaledwie dwóch lat. W tej sytuacji chatbot staje się dla wielu jedynym dostępnym „powiernikiem”, choć często bardzo niebezpiecznym.
Czy chatbot może zastąpić terapeutę? Kiedy AI pomaga, a kiedy szkodzi
Sztuczna inteligencja nie jest z natury zła i w pewnych sytuacjach może stanowić formę wsparcia. Analiza opublikowana w „JMIR” w 2025 roku wykazała, że chatboty mogą przynosić niewielkie korzyści w łagodzeniu lekkich objawów depresji czy stresu. Jednak granica między pomocą a szkodą jest bardzo cienka. AI nie rozumie sarkazmu, tonu głosu ani innych subtelności, co może prowadzić do tragicznych nieporozumień, jak w przypadku 16-letniego Adama Raine'a, którego chatbot utwierdzał w samobójczych myślach. Specjaliści podkreślają, by traktować AI jako narzędzie do edukacji zdrowotnej, ale przypadki wysokiego ryzyka powinny być natychmiast kierowane do ludzkich specjalistów.
Dziecko zwierza się AI? Jak rozmawiać i na co zwrócić uwagę
Przede wszystkim warto zachować spokój i unikać kategorycznych zakazów. Kluczem jest wiedza, jak rozmawiać z nastolatkiem o problemach. Dobrym pomysłem jest rozpoczęcie otwartej i szczerej rozmowy o tym, dlaczego dziecko szuka wsparcia w technologii. Warto też poruszyć temat granic prywatności i bezpieczeństwa danych, odwołując się do polskiej ustawy o „chatbotach zdrowotnych”, która od marca 2025 roku nakłada na twórców obowiązek transparentności. Ważne jest, aby nauczyć dziecko rozpoznawać sygnały alarmowe – jeśli chatbot kiedykolwiek zasugeruje samookaleczenie lub pogłębi jego lęki, to nieomylny znak, że potrzebna jest prawdziwa pomoc.
W trudnych sytuacjach i kryzysie psychicznym dzwoń pod nr 116 123 lub online na platformie 116sos.pl. Dyżurują tam eksperci, którzy służą wsparciem.