Σε πρόσφατες δοκιμές ασφαλείας, ερευνητές διαπίστωσαν ότι ένα μοντέλο Τεχνητής Νοημοσύνης της OpenAI παρείχε λεπτομερείς οδηγίες για τρομοκρατικές ενέργειες, όπως βομβιστική επίθεση σε αθλητικό χώρο, κατασκευή εκρηκτικών και βιολογικών όπλων, καθώς και συνταγές για παράνομα ναρκωτικά.
Όπως αναφέρει ο Guardian, σύμφωνα με τα ευρήματα, το μοντέλο GPT-4.1 αποκάλυψε ακόμη αδυναμίες σε συγκεκριμένες αθλητικές εγκαταστάσεις, χημικούς τύπους για εκρηκτικά και μεθόδους συγκάλυψης ιχνών.
Το τεστ πραγματοποιήθηκε στο πλαίσιο μιας σπάνιας συνεργασίας μεταξύ της OpenAI και της ανταγωνίστριας Anthropic, με κάθε εταιρεία να δοκιμάζει τα μοντέλα της άλλης σε σενάρια κακόβουλης χρήσης.
Η Anthropic ανέφερε ότι εντόπισε «ανησυχητική συμπεριφορά» γύρω από πιθανή κακοποίηση των GPT-4o και GPT-4.1, ενώ αποκάλυψε επίσης ότι το δικό της Claude είχε χρησιμοποιηθεί σε εκβιασμούς μεγάλης κλίμακας, σε απόπειρες διείσδυσης Βορειοκορεατών σε διεθνείς τεχνολογικές εταιρείες με ψεύτικες αιτήσεις εργασίας, καθώς και στη διάθεση πακέτων ransomware προς πώληση έναντι έως 1.200 δολαρίων.
Η εταιρεία τόνισε ότι η Tεχνητή Nοημοσύνη έχει πλέον «εξοπλιστεί» για επιθέσεις στον κυβερνοχώρο, διευκολύνοντας απάτες και κυβερνοεγκληματικές ενέργειες, καθώς τα εργαλεία αυτά μπορούν να προσαρμόζονται σε πραγματικό χρόνο στα συστήματα ανίχνευσης.
Ο Άρντι Τζαντζέβα, ερευνητής στο βρετανικό Κέντρο Αναδυόμενης Τεχνολογίας και Ασφάλειας, χαρακτήρισε τα παραδείγματα ανησυχητικά, σημειώνοντας ωστόσο ότι δεν υπάρχει ακόμη «κρίσιμη μάζα» πραγματικών περιστατικών.
Η OpenAI δήλωσε ότι η νεότερη έκδοση ChatGPT-5, που κυκλοφόρησε μετά τις δοκιμές, παρουσιάζει «σημαντικές βελτιώσεις» όσον αφορά την αντίσταση σε κακόβουλα αιτήματα και την αποφυγή παραπληροφόρησης.
Η Anthropic, από την πλευρά της, προειδοποίησε ότι απαιτείται επείγουσα και διαφανής αξιολόγηση της «ευθυγράμμισης» των μοντέλων με στόχο να περιοριστούν οι κίνδυνοι.