- ChatGPT działa jak zaawansowane autouzupełnianie i nie zawsze podaje prawdziwe informacje
- AI może „halucynować”, czyli tworzyć fałszywe fakty z dużą pewnością
- Kopiowanie gotowych odpowiedzi z czatu to forma oszukiwania
- Dziecko może korzystać z AI do burzy mózgów, pytań testowych i sprawdzania błędów
- Kluczowe jest ustalenie zasad i uczenie weryfikowania informacji w innych źródłach
Jak działa sztuczna inteligencja? Wyjaśniamy mechanizm ChatGPT
Nasze dzieci coraz częściej korzystają z programów takich jak ChatGPT do odrabiania lekcji i szukania informacji w sieci. Czasem może się nam wydawać, że te narzędzia myślą jak prawdziwy człowiek i znają odpowiedzi na absolutnie każde pytanie. W rzeczywistości są to po prostu duże modele językowe, które zostały nakarmione potężną dawką tekstów z całego internetu.
Jak możemy przeczytać w materiałach Stanford Graduate School of Education, sztuczna inteligencja działa w bardzo przewidywalny sposób. Można to z łatwością porównać do funkcji autouzupełniania słów w twoim telefonie, tylko na znacznie większą skalę. Program po prostu zgaduje, jakie słowo powinno pojawić się w zdaniu jako następne, opierając się na danych zebranych z różnych stron internetowych.
ChatGPT do lekcji a oszukiwanie. Gdzie leży granica pomocy?
Kiedy dziecko siada do lekcji, łatwo przekroczyć granicę między mądrym wsparciem a zwykłym pójściem na łatwiznę. Warto usiąść z maluchem lub starszakiem i jasno ustalić zasady korzystania z domowego komputera:
- Dozwolone jest szukanie pomysłów i burza mózgów przed napisaniem trudnego wypracowania
- Dobrym wsparciem będzie generowanie próbnych pytań przed ważną klasówką z przyrody lub historii
- Wolno używać czatu do sprawdzania błędów gramatycznych w już napisanym samodzielnie tekście
- Całkowicie zakazane jest zlecanie napisania całego referatu lub rozwiązywania zadań z matematyki krok po kroku
Informacje zebrane przez uczelnię University of North America jasno podpowiadają, że kopiowanie gotowych odpowiedzi z internetu i oddawanie ich jako własnej pracy to błąd. Dziecko powinno traktować sztuczną inteligencję jak domowego korepetytora, a nie kogoś, kto odwali za nie całą trudną robotę.
Dlaczego ChatGPT zmyśla fakty? Problem tak zwanych halucynacji
Często ufamy, że to, co wyskakuje nam na ekranie po wpisaniu zapytania, jest szczerą i sprawdzoną prawdą. Niestety sztuczna inteligencja nie jest nieomylna i potrafi wymyślać informacje, które w ogóle nie mają pokrycia w rzeczywistości. Takie zjawisko nazywamy halucynacjami, czyli sytuacją, w której program podaje zmyślone fakty z ogromną pewnością siebie.
Organizacja Common Sense Media zwraca uwagę na to, że te narzędzia uczą się z różnych miejsc w sieci, w tym z internetowych forów i niesprawdzonych portali. Przez to mogą łatwo powielać uprzedzenia, szkodliwe stereotypy i po prostu pisać głupoty. Dobrym pomysłem może być zachęcanie dziecka, aby zawsze podwójnie sprawdzało odpowiedzi zebrane z czatu w szkolnych podręcznikach lub innych pewnych źródłach.
Jak bezpiecznie korzystać z AI w domu? Porady dla rodziców
Zanim pozwolisz dziecku swobodnie działać w sieci, przegadaj z nim najważniejsze kwestie prywatności w internecie. Zgodnie z poradami od Thompson School District warto przypominać najmłodszym, aby nigdy nie podawali w takich programach swoich prawdziwych danych, adresów czy prywatnych szczegółów z życia. Dobrze jest też wspólnie ćwiczyć zadawanie pytań, ponieważ lekka zmiana użytych słów potrafi dać zupełnie inną odpowiedź programu. Warto ustalić jasne zasady domowe i zawsze uczyć dzieci, że powinny szczerze przyznawać się nauczycielom, jeśli komputer w jakikolwiek sposób pomagał im w odrabianiu lekcji.