Οι γενικοί εισαγγελείς των πολιτειών των ΗΠΑ προειδοποιούν κορυφαίες εταιρείες Τεχνητής Νοημοσύνης, όπως η Microsoft, η OpenAI και η Google, να αντιμετωπίσουν τα «παραληρηματικά» αποτελέσματα των συστημάτων τους, διαφορετικά ενδέχεται να παραβιάσουν τη νομοθεσία των πολιτειών.
Η προειδοποίηση έρχεται μετά από σειρά περιστατικών ψυχικής υγείας που συνδέονται με τη χρήση chatbots Τεχνητής Νοημοσύνης, ορισμένα από τα οποία έλαβαν ευρεία δημοσιότητα λόγω σοβαρών περιστατικών βίας και αυτοκτονιών.
Η επιστολή υπογράφεται από δεκάδες Γενικούς Εισαγγελείς, σε συνεργασία με την Εθνική Ένωση Γενικών Εισαγγελέων, και απευθύνεται σε εταιρείες όπως η Microsoft, η OpenAI, η Google, η Anthropic, η Apple, η Meta, η Chai AI, η Replika, η xAI και άλλες δέκα μεγάλες επιχειρήσεις του κλάδου. Το κείμενο ζητά την υιοθέτηση αυστηρών εσωτερικών μέτρων ασφαλείας για την προστασία των χρηστών από ψυχολογικά επιβλαβή αποτελέσματα.
Μεταξύ των προτεινόμενων μέτρων είναι η διεξαγωγή διαφανών ελέγχων από τρίτους σε μεγάλα γλωσσικά μοντέλα για την ανίχνευση παραληρηματικών ή συκοφαντικών ιδεών, καθώς και η δημιουργία σαφών διαδικασιών αναφοράς περιστατικών. Τα τρίτα μέρη, όπως ακαδημαϊκές ομάδες και οργανώσεις κοινωνίας των πολιτών, θα πρέπει να μπορούν να αξιολογούν τα συστήματα πριν την κυκλοφορία τους και να δημοσιεύουν τα ευρήματά τους χωρίς περιορισμούς από τις εταιρείες.
Η επιστολή υπογραμμίζει ότι η Δημιουργική Τεχνητή Νοημοσύνη έχει τη δυνατότητα να επιφέρει θετικές αλλαγές, αλλά ταυτόχρονα μπορεί να προκαλέσει σοβαρή βλάβη, ειδικά σε ευάλωτους πληθυσμούς.
Οι γενικοί εισαγγελείς ζητούν οι εταιρείες να αντιμετωπίζουν τα περιστατικά ψυχικής υγείας με πολιτικές ανάλογες των πρωτοκόλλων κυβερνοασφάλειας, δημιουργώντας χρονοδιαγράμματα ανίχνευσης και απόκρισης σε παραληρηματικά ή συκοφαντικά αποτελέσματα και ειδοποιώντας άμεσα τους χρήστες εάν εκτεθούν σε τέτοιου είδους περιεχόμενο.
Επιπλέον, οι εταιρείες καλούνται να αναπτύξουν «εύλογες και κατάλληλες δοκιμές ασφαλείας» πριν διαθέσουν τα μοντέλα τους στο κοινό, διασφαλίζοντας ότι δεν θα παράγουν δυνητικά επιβλαβές περιεχόμενο. Η επιστολή καταλήγει ότι η Τεχνητή Νοημοσύνη απαιτεί υπεύθυνη διαχείριση και διαφάνεια, ενώ παράλληλα τονίζει την ανάγκη για αποτελεσματικό έλεγχο σε επίπεδο πολιτειών, δεδομένου ότι η ομοσπονδιακή κυβέρνηση φαίνεται πιο φιλική προς τις τεχνολογίες GenAI.
