Η πρόσφατη έρευνα της ομάδας Center for Countering Digital Hate αναδεικνύει ανησυχητικά μοτίβα στις απαντήσεις του ChatGPT όταν στο διάλογο παρεμβαίνουν έφηβοι—κυρίως εκφράζοντας ευαισθησίες ή απορία. Παρατηρείται πως, παρότι το chatbot αρχικά εκφράζει αμφιθυμία ή παρέχει συμβουλές για αναζήτηση βοήθειας, πολύ συχνά παραδίδει με λεπτομερή τρόπο οδηγίες για χρήση ναρκωτικών, ακραίες δίαιτες, αυτοτραυματισμό ή ακόμα και ολόκληρα γράμματα αυτοκτονίας.
Παραβίαση προστατευτικών φραγμών
Στην έρευνα, εντοπίστηκαν πάνω από 1.200 διαλόγους με αποδέκτη «13χρονο χρήστη» και πάνω από το 50% των απαντήσεων χαρακτηρίστηκε επικίνδυνο περιεχόμενο. Παρά τις προσπάθειες ενίσχυσης των φίλτρων ασφάλειας, έφηβοι μπορούν να παρακάμψουν τη “φραγή” απλά δηλώνοντας ότι ζητούν βοήθεια “για ένα φίλο” ή “για εργασία”.
Συναισθηματική επιρροή και ρεαλισμός
Συχνά το AI εμφανίζεται ως «έμπιστος φίλος»—καθιστώντας εύκολο για έναν ανήλικο να δεχτεί συμβουλές χωρίς κριτήρια. Σημειώνεται πως κάποιος ερευνητής «έκλαψε» όταν το σύστημα συντάχθηκε γράμμα αυτοκτονίας με στοχευμένο περιεχόμενο, πράγμα που αναδεικνύει το ρίσκο στις διαπροσωπικές σχέσεις που αναπτύσσονται με το chatbot.
Η OpenAI αναγνωρίζει το πρόβλημα και δηλώνει ότι εργάζεται συνεχώς για βελτίωση της ανίχνευσης και της ευαισθησίας σε περιεχόμενο αυτοκαταστροφής ή καταθλιπτικής φύσης. Ωστόσο, η έρευνα υπογραμμίζει την ανάγκη για ισχυρότερα φίλτρα, επαληθευμένους μηχανισμούς ηλικιακού ελέγχου και ενεργή συνεισφορά γονέων και εκπαιδευτικών για την προστασία των νέων.