Bespreek je mentale issues met ChatGPT? Dan krijg je láng niet altijd de juiste hulp
In dit artikel:
Onderzoek van NOS Stories laat zien dat het nieuwste model GPT‑5 gebruikers steeds vaker aanbeveelt om de Nederlandse hulplijn 113 Zelfmoordpreventie te bellen. Sinds deze zomer noemt dat AI-model 113 vaker als oplossing, waardoor de organisatie een toename ziet van bellers die helemaal geen suïcidale gedachten hebben. Volgens Maryke Geerdink, hoofd hulpverlening bij 113, kan dat contraproductief zijn: medewerkers kunnen mensen zonder suïcidale intenties nauwelijks helpen en het risico bestaat dat zij daarna geen hulp meer zoeken omdat ze zich afgewezen voelen.
Het probleem speelt in Nederland en raakt de afstemming tussen digitale adviezen en passende zorg: AI geeft een generieke verwijzing naar noodhulp, terwijl menselijke hulpverleners onderscheid moeten maken op basis van ernst. 113 pleit daarom voor meer nuance in de aanbevelingen van AI-systemen, zodat mensen met minder ernstige klachten niet onnodig naar een crisishulp worden gestuurd.
De auteur van het artikel benadrukt dat AI zoals ChatGPT handig kan zijn voor alledaagse zorgen of emotionele steun, maar raadt bij ernstigere mentale problemen professionele hulp aan. Voor wie wel direct in crisis verkeert vermeldt het stuk dat 113 24/7 bereikbaar is via 0800‑0113 en de chat op 113.nl.