Historia niezwykłej diagnozy podanej przez ChatGPT odbiła się w mediach szerokim echem. Pisaliśmy o niej również w serwisie mjakmama24.pl. Kilkuletni chłopiec od 3 lat cierpiał na silne bóle, uniemożliwiające mu normalne funkcjonowanie, przestał rosnąć i miał problemy z symetrią ciała. Lekarze byli bezradni, w przeciwieństwie do sztucznej inteligencji. Po wpisaniu przez matkę wyników badań, oceniła ona dolegliwości chłopca prawidłowo, proponując jako diagnozę neurologiczny zespół unieruchomionego rdzenia kręgowego.
Spis treści
Doktor ChatGPT
To oczywiście sukces sztucznej inteligencji i ogromne szczęście dla cierpiącego od lat dziecka, jednak lekarze nie byli zachwyceni samą sytuacją. Jak podkreśla dr Harvey Karp, popularny amerykański pediatra i twórca słynnej metody "5S", wielu rodziców czuje pokusę sięgania po pomoc sztucznej inteligencji w celu uzyskania odpowiedzi na dręczące ich problemy. „Kiedy twoje dziecko cierpi, chcesz użyć każdego narzędzia, aby znaleźć odpowiedzi” – mówi ekspert w rozmowie z serwisem Mother.ly i ostrzega: „Problemy zaczynają się pojawiać, gdy ludzie zaczynają korzystać z narzędzi takich jak ChatGPT, zamiast szukać pomocy u wykwalifikowanego lekarza”.
Potwierdza to historia pewnego lekarza medycyny ratunkowej, który postanowił przetestować sztuczna inteligencję. Poprosił ChatGPT o postawienie możliwych diagnoz u młodej kobiety cierpiącej na ból w dolnej części brzucha. Otrzymał wiele wiarygodnych diagnoz, m.in. zapalenie wyrostka robaczkowego czy torbiel jajnika, nie było jedna wśród nich ciąży pozamacicznej. "ChatGPT nie zdałby u mnie końcowych egzaminów z medycyny" - podsumował lekarz. Jednak na obronę sztucznej inteligencji trzeba dodać, że po jakimś czasie na to samo pytanie, chat odpowiedział już bardziej dokładnie. "Prawdopodobnie ktoś powiedział mu o błędzie, a on wyciągnął wnioski z nowych danych - dodaje autor artykułu, który ukazał się ma stronie theconversation.com i podkreśla, że zdolność uczenia się sztucznej inteligencji to coś co ją wyróżnia.
Czytaj również: Rodzice ją szybko pokochają! Tak sztuczna inteligencja odpowiadała na trudne pytania dzieci
Odbierasz i słyszysz swoje dziecko: ktoś mnie porwał! Uwaga - to mogą być oszuści
Ryzyko większe od korzyści
Dlaczego diagnozowanie dziecka przez chat GPT może być niebezpieczne? Wydaje się to oczywiste. Od lat lekarze przestrzegają przed szukaniem pomocy medycznej w internecie - ze sztuczną inteligencja jest tak samo. Aby to zrozumieć, warto wspomnieć, jak ona działa. ChatGPT przypomina wyszukiwarkę, ale dysponuje większymi niż ona zasobami. Dodatkowo, potrafi tworzyć informacje na podstawie przewidywania kolejnych słów na podstawie znanych mu tekstów, do których ma dostęp. Ta metoda sprawdza się w wielu przypadkach i tak było z opisywana diagnozą chłopca cierpiącego na niezidentyfikowane bóle.
Ale lekarze podkreślają, że sztucznej inteligencji brakuje czynnika ludzkiego. Prawidłowa diagnoza potrzebuje nieraz dokładnego wywiadu, który podpowie lekarzowi coś, co wskaże kierunek diagnozy, albo po prostu zdrowego rozsądku, który oceni, co jest słuszne, a co nie. Sztuczna inteligencja czerpie bowiem odpowiedzi z istniejących tekstów czy innych dokumentów dostępnych w internecie, ale przecież nie wszystkie z nich są prawdziwe. Obok zdecydowanie wartościowych źródeł medycznych, są inne, kompletnie bezużyteczne lub wręcz fałszywe. ChatGPT potrafi je wyszukać i połączyć w całość, ale nie potrafi ocenić ich prawdziwości. "Nie masz możliwości sprawdzenia, czy diagnoza wypluwana przez ChatGPT jest oparta na dowodach naukowych czy nie” - dodaje dr Harvey Karp.
Brak źródeł? To nie problem
Inną niepokojącą rzeczą jest zjawisko halucynacji, o którym wspomina cytowany przez Today.com dr Andrew Beam, adiunkt epidemiologii na Harvardzie. To tendencja sztucznej inteligencji do wymyślania źródeł. Jak wyjaśnia ekspert, chat GPT może powołać się na nieistniejący tekst czy artykuł, który jego zdaniem mógłby powstać. "ChatGPT czasami fabrykuje informacje, gdy nie może znaleźć odpowiedzi. Załóżmy, że prosisz o badania dotyczące grypy. Narzędzie może w odpowiedzi podać kilka tytułów, które brzmią realnie, a wymienieni w nim autorzy mogli nawet pisać o grypie już wcześniej, ale artykuły mogą w rzeczywistości nie istnieć" - wyjaśnia zjawisko halucynacji dr Beam.
źródła: theconversation.com, today.com, mother.ly