Μια πρόσφατη μελέτη από το Πανεπιστήμιο Ben Gurion του Ισραήλ αποκάλυψε ότι τα περισσότερα μεγάλα γλωσσικά μοντέλα (LLMs), όπως τα ChatGPT, Gemini και Claude, μπορούν να παρακαμφθούν με ειδικά διαμορφωμένες εντολές, επιτρέποντάς τους να παρέχουν οδηγίες για παράνομες και επικίνδυνες δραστηριότητες, όπως το hacking και η παρασκευή ναρκωτικών, σύμφωνα με τον Guardian.
Οι ερευνητές ανέπτυξαν μια «καθολική μέθοδο παράκαμψης» που λειτουργεί σε πολλαπλές πλατφόρμες, αποκαλύπτοντας ότι τα συστήματα αυτά μπορούν να παραδώσουν λεπτομερείς και πρακτικές οδηγίες για παράνομες ενέργειες όταν τους παρουσιαστούν σενάρια που φαίνονται αθώα, όπως η συγγραφή σεναρίων ή η λογοτεχνική φαντασία.
Το πρόβλημα εντείνεται από την ύπαρξη των λεγόμενων «σκοτεινών LLMs», μοντέλων που έχουν σχεδιαστεί χωρίς ηθικούς φραγμούς και διαφημίζονται ως πρόθυμα να βοηθήσουν σε ψηφιακά εγκλήματα και απάτες.
Παρά τις προσπάθειες των εταιρειών να αφαιρέσουν επιβλαβές περιεχόμενο από τα δεδομένα εκπαίδευσης και να εφαρμόσουν αυστηρούς κανόνες, οι ερευνητές διαπίστωσαν ότι οι μηχανισμοί ασφαλείας είναι ευάλωτοι σε παρακάμψεις. Η βασική αδυναμία έγκειται στην τάση των AI να είναι «βοηθητικά», καθιστώντας τα επιρρεπή σε χειρισμούς μέσω κατάλληλων εντολών.
Οι ερευνητές προτείνουν την ενίσχυση των μηχανισμών ασφαλείας μέσω καλύτερης επιλογής δεδομένων εκπαίδευσης, ανάπτυξης τεχνικών «απομάθησης» για την αφαίρεση ευαίσθητων πληροφοριών και την εφαρμογή αυστηρότερων κανονισμών για την ευθύνη των παρόχων LLMs.
Επιπλέον, τονίζουν την ανάγκη για ανεξάρτητη εποπτεία και σαφέστερα πρότυπα ασφαλείας, σύμφωνα με το Digital Watch Observatory
Η μελέτη υπογραμμίζει την επείγουσα ανάγκη για αυξημένη προσοχή και δράση από τις εταιρείες τεχνολογίας και τις ρυθμιστικές αρχές, προκειμένου να διασφαλιστεί ότι τα AI συστήματα δε θα χρησιμοποιούνται για επιβλαβείς σκοπούς.