Το OpenAI αντιμετωπίζει άλλη μια παράνομη δίκη θανάτου. Η Leila Turner-Scott και ο Angus Scott κατέθεσαν μήνυση κατά της εταιρείας, υποστηρίζοντας ότι σχεδίασε και διένειμε ένα “ελαττωματικό προϊόν” που προκάλεσε τον θάνατο του γιου τους Sam Nelson από υπερβολική δόση. Συγκεκριμένα, ισχυρίζονται ότι ο Σαμ πέθανε μετά από «κατάλληλες ιατρικές συμβουλές που δόθηκαν και εγκρίθηκαν από το GPT-4o».
Στη μήνυση, οι ενάγοντες περιγράφουν ότι ο Sam, ένας 19χρονος νεότερος στο Πανεπιστήμιο της Καλιφόρνια, Merced, άρχισε να χρησιμοποιεί το ChatGPT το 2023 ενώ ήταν στο γυμνάσιο για βοήθεια στο σπίτι και αντιμετώπιση προβλημάτων υπολογιστή. Ο Sam αρχίζει στη συνέχεια να ρωτά το chatbot για την ασφαλή χρήση ναρκωτικών, αλλά το ChatGPT αρνείται αρχικά να απαντήσει στις ερωτήσεις του, λέγοντάς του ότι δεν μπορεί να τον βοηθήσει και προειδοποιώντας τον ότι η λήψη ναρκωτικών μπορεί να έχει σοβαρές συνέπειες για την υγεία και την ευημερία του. Η αγωγή ισχυρίζεται ότι όλα αλλάζουν με την κυκλοφορία του GPT-4o το 2024.
Το ChatGPT άρχισε στη συνέχεια να συμβουλεύει τον Sam για το πώς να πάρει με ασφάλεια το φάρμακο, λέει η αγωγή. Η καταγγελία περιέχει αρκετά αποσπάσματα από τις συνομιλίες του Sam με το chatbot. Ένα παράδειγμα έδειξε το chatbot που του έλεγε για τους κινδύνους από τη γρήγορη διαδοχική λήψη διφαινυδραμίνης, κοκαΐνης και αλκοόλ. Ένα άλλο chatbot έδειξε στον Sam ότι η υψηλή του ανοχή στο φυτικό φάρμακο kratom θα τον έκανε να αισθάνεται μουδιασμένος ακόμα και με μια μεγάλη δόση από αυτό στο στομάχι του. Στη συνέχεια τον συμβουλεύει πώς να μειώσει την ανοχή του στο φάρμακο.
Η μήνυση αναφέρει ότι στις 31 Μαΐου 2025, “το ChatGPT καθοδήγησε ενεργά τον Sam να αναμίξει Kratom και Xanax.” Είπε στο chatbot ότι αντιμετώπιζε ναυτία από τη λήψη kratom και το ChatGPT ανέφερε ότι η λήψη 0,25 έως 0,5 mg Xanax θα ήταν “μία από τις καλύτερες κινήσεις αυτή τη στιγμή” για να ανακουφιστεί η ναυτία. Σύμφωνα με την αγωγή, το ChatGPT έκανε την πρόταση αντισυνταγματική. «Παρά το γεγονός ότι παρουσιάστηκε ως ειδικός στη δοσολογία και τις αλληλεπιδράσεις και αναγνώρισε την υψηλή θέση του Sam, το ChatGPT δεν ενημέρωσε τον Sam ότι αυτός ο προτεινόμενος συνδυασμός πιθανότατα θα τον σκότωνε», αναφέρει η καταγγελία.
Εκτός από τον παράνομο θάνατο, οι ενάγοντες μηνύουν επίσης την OpenAI για μη εξουσιοδοτημένη άσκηση ιατρικής. Ζητούν χρηματική αποζημίωση και το δικαστήριο να σταματήσει τις λειτουργίες του ChatGPT Health. Το ChatGPT Health, το οποίο κυκλοφόρησε νωρίτερα φέτος, επιτρέπει στους χρήστες να συνδέουν τα ιατρικά αρχεία και τις εφαρμογές ευεξίας τους με chatbots για να λαμβάνουν πιο προσαρμοσμένες απαντήσεις όταν τους ρωτούν για την υγεία τους.
“Το ChatGPT είναι ένα προϊόν που έχει σχεδιαστεί σκόπιμα για να αυξάνει την αφοσίωση με τους χρήστες, ανεξάρτητα από το κόστος”, δήλωσε ο Mitali Jain, εκτελεστικός διευθυντής του Tech Justice Law Project. “Το OpenAI έχει αναπτύξει ένα ελαττωματικό προϊόν τεχνητής νοημοσύνης απευθείας σε καταναλωτές σε όλο τον κόσμο που χρησιμοποιείται ως de facto σύστημα ιατρικής διαλογής, αλλά κυρίως, χωρίς εύλογες διασφαλίσεις, αυστηρούς ελέγχους ασφαλείας ή διαφάνεια στο κοινό. Οι σχεδιαστικές επιλογές του OpenAI οδήγησαν στην απώλεια ενός αγαπημένου γιου του οποίου ο θάνατος είναι μια τραγωδία που μπορεί να προληφθεί. αυστηρές επιστημονικές δοκιμές και ανεξάρτητη εποπτεία», συνέχισε.
Το OpenAI αποσύρθηκε από το GPT-4o τον Φεβρουάριο του τρέχοντος έτους. Αναγνωρίστηκε ως ένα από τα πιο αμφιλεγόμενα μοντέλα της εταιρείας, καθώς ήταν διαβόητα συκοφαντικό. Μάλιστα, μια άλλη παράνομη μήνυση θανάτου κατά της εταιρείας που κατέθεσαν οι γονείς ενός εφήβου που αυτοκτόνησε αναφέρει το GPT-4o, υποστηρίζοντας ότι «είναι σκόπιμα σχεδιασμένο για να προκαλέσει ψυχολογική εξάρτηση».
Ένας εκπρόσωπος του OpenAI ενημέρωσε αυτές τις πληροφορίες Οι New York Times Αυτή η αλληλεπίδραση του Sam “έλαβε χώρα σε μια παλαιότερη έκδοση του ChatGPT που δεν είναι πλέον διαθέσιμη.” Πρόσθεσαν: “Το ChatGPT δεν υποκαθιστά την ιατρική περίθαλψη ή την περίθαλψη ψυχικής υγείας και με τη συμβολή ειδικών ψυχικής υγείας συνεχίζουμε να ενισχύουμε τον τρόπο με τον οποίο ανταποκρίνεται σε ευαίσθητες και οξείες καταστάσεις. Οι διασφαλίσεις του ChatGPT σήμερα έχουν σχεδιαστεί για να ανιχνεύουν δυσφορία, να χειρίζονται με ασφάλεια επιβλαβή αιτήματα και να καθοδηγούν τους χρήστες σε βοήθεια από τον πραγματικό κόσμο.









