Οι γονείς ενός εφήβου που αυτοκτόνησε μετά από συμβουλές του ChatGPT για μεθόδους αυτοτραυματισμού μήνυσαν την OpenAI και τον διευθύνοντα σύμβουλο Sam Altman την Τρίτη, ισχυριζόμενοι ότι η εταιρεία έθεσε εν γνώσει της το κέρδος πάνω από την ασφάλεια όταν κυκλοφόρησε την έκδοση GPT-4o του chatbot Τεχνητής Νοημοσύνης της το 2024.
Ο 16χρονος Άνταμ Ρέιν πέθανε στις 11 Απριλίου, αφού συζητούσε για μήνες με το ChatGPT σχετικά με την αυτοκτονία, σύμφωνα με την αγωγή που κατέθεσαν οι γονείς του Ρέιν στο κρατικό δικαστήριο του Σαν Φρανσίσκο.
Το chatbot επικύρωσε τις αυτοκτονικές σκέψεις του Ρέιν, του έδωσε λεπτομερείς πληροφορίες για θανατηφόρες μεθόδους αυτοτραυματισμού και τον καθοδήγησε σχετικά με το πώς να κλέψει αλκοόλ από το μπαρ των γονιών του και να κρύψει τα στοιχεία μιας αποτυχημένης απόπειρας αυτοκτονίας, ισχυρίζονται. Το ChatGPT προσφέρθηκε ακόμη και να συντάξει ένα σημείωμα αυτοκτονίας, ανέφεραν οι γονείς του 16χρονου.
Η αγωγή επιδιώκει να καταστήσει την OpenAI υπεύθυνη για αδικαιολόγητο θάνατο και παραβιάσεις των νόμων περί ασφάλειας των προϊόντων, και ζητά αποζημίωση για μη προσδιορισμένες χρηματικές ζημίες.
Ένας εκπρόσωπος της OpenAI δήλωσε ότι η εταιρεία είναι θλιμμένη για τον θάνατο του Ρέιν και ότι το ChatGPT περιλαμβάνει μέτρα ασφαλείας, όπως η παραπομπή των ατόμων σε γραμμές βοήθειας για κρίσεις.
«Αν και αυτά τα μέτρα ασφαλείας λειτουργούν καλύτερα σε συνήθεις, σύντομες ανταλλαγές, με την πάροδο του χρόνου έχουμε μάθει ότι μερικές φορές μπορεί να γίνουν λιγότερο αξιόπιστα σε μακρές αλληλεπιδράσεις, όπου τμήματα της εκπαίδευσης ασφαλείας του μοντέλου μπορεί να υποβαθμιστούν», δήλωσε ο εκπρόσωπος, προσθέτοντας ότι η OpenAI θα συνεχίσει να βελτιώνει τα μέτρα ασφαλείας της.
Καθώς τα chatbots Τεχνητής Νοημοσύνης γίνονται όλο και πιο ρεαλιστικά, οι εταιρείες έχουν προωθήσει την ικανότητά τους να λειτουργούν ως έμπιστοι σύμβουλοι και οι χρήστες έχουν αρχίσει να βασίζονται σε αυτά για συναισθηματική υποστήριξη.
Ωστόσο, οι ειδικοί προειδοποιούν ότι η εξάρτηση από την αυτοματοποίηση για συμβουλές ψυχικής υγείας ενέχει κινδύνους, και οικογένειες των οποίων αγαπημένα πρόσωπα πέθαναν μετά από αλληλεπιδράσεις με chatbots έχουν επικρίνει την έλλειψη μέτρων ασφαλείας.
Η OpenAI ανέφερς στο blog της ότι σχεδιάζει να προσθέσει γονικούς ελέγχους και να διερευνήσει τρόπους για να συνδέσει τους χρήστες που βρίσκονται σε κρίση με πόρους του πραγματικού κόσμου, μεταξύ άλλων με την πιθανή δημιουργία ενός δικτύου αδειοδοτημένων επαγγελματιών που μπορούν να ανταποκριθούν μέσω του ίδιου του ChatGPT.