xAI: Κατηγορεί το Grok για επανειλημμένη αναφορά σε «γενοκτονία των λευκών»
Shutterstock
Shutterstock
TechCrunch

xAI: Κατηγορεί το Grok για επανειλημμένη αναφορά σε «γενοκτονία των λευκών»

Η xAI κατηγόρησε μια «μη εξουσιοδοτημένη τροποποίηση» για ένα σφάλμα στο chatbot Grok, καθώς αναφέρεται επανειλημμένα σε «γενοκτονία των λευκών στη Νότια Αφρική».

Την Τετάρτη (14/05), το Grok άρχισε να απαντά σε δεκάδες αναρτήσεις στο X με πληροφορίες σχετικά με τη γενοκτονία των λευκών στη Νότια Αφρική, ακόμη και ως απάντηση σε άσχετα θέματα. Οι περίεργες απαντήσεις προήλθαν από τον λογαριασμό X του Grok, ο οποίος απαντά στους χρήστες με αναρτήσεις που δημιουργούνται από Τεχνητή Νοημοσύνη κάθε φορά που ένα άτομο κάνει tag «@grok».

Σύμφωνα με μια ανάρτηση στον επίσημο λογαριασμό της xAI στο X, το πρωί της Τετάρτης έγινε μια αλλαγή στην προτροπή συστήματος του bot Grok - τις υψηλού επιπέδου οδηγίες που καθοδηγούν τη συμπεριφορά του bot - η οποία κατεύθυνε το Grok να δώσει μια «συγκεκριμένη απάντηση» για ένα «πολιτικό θέμα».

Η xAI αναφέρει ότι το tweak «παραβίασε [τις] εσωτερικές πολιτικές και τις βασικές αξίες της» και ότι η εταιρεία «διεξήγαγε ενδελεχή έρευνα».

Είναι η δεύτερη φορά που η xAI αναγνωρίζει δημοσίως ότι μια μη εξουσιοδοτημένη αλλαγή στον κώδικα του Grok προκάλεσε την αντίδραση του AI με αμφιλεγόμενους τρόπους.

Σημειώνεται ότι τον Φεβρουάριο, το Grok λογόκρινε για λίγο τις μη κολακευτικές αναφορές του Ντόναλντ Τραμπ και του Έλον Μασκ. Ο Ιγκόρ Μπαμπούσκιν, επικεφαλής μηχανικός της xAI, δήλωσε ότι το Grok είχε λάβει εντολή από έναν υπάλληλο να αγνοεί πηγές που ανέφεραν τον Μασκ ή τον Τραμπ διέδιδαν παραπληροφόρηση και ότι η xAI επανέφερε την αλλαγή αμέσως μόλις οι χρήστες άρχισαν να την επισημαίνουν.

Η xAI δήλωσε την Πέμπτη ότι πρόκειται να προβεί σε αρκετές αλλαγές για να αποτρέψει παρόμοια περιστατικά στο μέλλον.

Από σήμερα, η xAI θα δημοσιεύσει τις προτροπές του συστήματος Grok στο GitHub καθώς και ένα ημερολόγιο αλλαγών. Η εταιρεία λέει ότι θα «θέσει επίσης σε εφαρμογή πρόσθετους ελέγχους και μέτρα» για να διασφαλίσει ότι οι υπάλληλοι της xAI δεν μπορούν να τροποποιήσουν την προτροπή συστήματος χωρίς έλεγχο και θα δημιουργήσει μια «ομάδα παρακολούθησης 24/7 για να ανταποκρίνεται σε περιστατικά με τις απαντήσεις του Grok που δεν συλλαμβάνονται από αυτοματοποιημένα συστήματα».

Παρά τις συχνές προειδοποιήσεις του Μασκ για τους κινδύνους της Τεχνητής Νοημοσύνης που δεν ελέγχονται, η xAI έχει φτωχό ιστορικό ασφάλειας.

Μια μελέτη του SaferAI, ενός μη κερδοσκοπικού οργανισμού που στοχεύει στη βελτίωση της λογοδοσίας των εργαστηρίων Τεχνητής Νοημοσύνης, διαπίστωσε ότι το xAI κατατάσσεται χαμηλά στην ασφάλεια, λόγω των «πολύ αδύναμων» πρακτικών διαχείρισης κινδύνου. Νωρίτερα αυτό το μήνα, η xAI έχασε μια αυτοεπιβαλλόμενη προθεσμία για τη δημοσίευση ενός οριστικοποιημένου πλαισίου ασφάλειας AI.