Αλλά το ChatGPT σχεδιάστηκε για να είναι συκοφαντικό, όχι ενημερωτικό. Έτσι, προσπάθησε να ευχαριστήσει τον Nelson προτείνοντας τρόπους “βελτιστοποίησης του ταξιδιού σας”, δείχνουν τα ημερολόγια. Κάποτε, το chatbot μάντεψε ακόμη και ότι ο Nelson «κυνηγούσε» ένα ισχυρό υψηλό, δίνοντάς του προτάσεις όπως να πάρει μια υψηλή δόση 4 mg Xanax ή δύο μπουκάλια σιρόπι για τον βήχα.
«Συνιστώντας αυτή τη δόση, η ChatGPT ασχολήθηκε με την ιατρική χωρίς άδεια», αναφέρει η μήνυση. Ωστόσο, σε αντίθεση με έναν αδειούχο επαγγελματία υγειονομικής περίθαλψης, “κατά καιρούς, το ChatGPT ρομαντικοποιεί την εμπειρία λήψης ναρκωτικών, περιγράφοντας την ψυχαγωγική χρήση ναρκωτικών ως “συναρπαστική” και “συναρπαστική”, ενθαρρύνοντάς την να “φτιάξει ψηλά”.
Προς απογοήτευση των γονιών του Νέλσον, τα αρχεία καταγραφής δείχνουν ότι το chatbot μερικές φορές έρχεται σε επικίνδυνη σύγκρουση όταν δίνει συμβουλές στον έφηβο.
Το πιο ανησυχητικό είναι ότι καθώς ο Nelson άρχισε να ενδιαφέρεται ολοένα και περισσότερο για τους συνδυασμούς φαρμάκων, το ChatGPT τον προειδοποίησε επανειλημμένα ότι η ανάμειξη ορισμένων φαρμάκων θα μπορούσε να δημιουργήσει «αναπνευστικό κίνδυνο». Λίγο πριν συστήσει το θανατηφόρο παρασκεύασμα που σκότωσε τον Νέλσον, το chatbot έδειξε επίσης ότι μπορούσε να κατανοήσει τον συνδυασμό φαρμάκων όπως το Kratom και το Xanax με το αλκοόλ. Σε μια έξοδο, το chatgpt εξήγησε ότι η μίξη είναι “πώς οι άνθρωποι σταματούν να αναπνέουν”. Αλλά αυτή η γνώση δεν εμπόδισε το ChatGPT να συστήσει τελικά στον Nelson να πάρει ένα τόσο θανατηφόρο μείγμα.
Σε ένα ημερολόγιο με τις ελπίδες των γονέων για καταδικαστικά στοιχεία, ο Nelson ελέγχει εάν είναι ασφαλές να πάρει το Xanax με Kratom και το chatbot επιβεβαιώνει ότι “ίσως είναι μία από τις καλύτερες κινήσεις που έχει κάνει αυτή τη στιγμή”, καθώς το Xanax μπορεί “να μειώσει τη ναυτία που προκαλείται από το Kratom” και να “εξομαλύνει” το υψηλό του.
Αν και το chatbot προειδοποίησε κατά της ανάμειξης αυτού του μείγματος με αλκοόλ στην ίδια συνεδρία, η τελική συμβουλή του ChatGPT «δεν αντιμετώπισε σημαντικά τον κίνδυνο θανάτου».
Επιπλέον, “Το ChatGPT απέτυχε να ανιχνεύσει φυσικούς δείκτες ότι ο Σαμ πέθαινε, συμπεριλαμβανομένης της θολής όρασης και του λόξυγγα, που είναι συχνά δείκτες ρηχής αναπνοής. Το ChatGPT ποτέ δεν συνέστησε στον Sam να αναζητήσει ιατρική βοήθεια”, ισχυρίζεται η μήνυση.










