Σε ενίσχυση των μέτρων για την κυβερνοασφάλεια της έχει προχωρήσει η OpenAI, σύμφωνα με τους Financial Times, μετά από κινήσεις της κινεζικής ανταγωνίστριας στην αγορά Τεχνητής Νοημοσύνης, DeepSeek.
Όπως μετέδωσε το TechCrunch, η μητρική του ChatGPT επιτάχυνε την εφαρμογή των υφιστάμενων μέτρων ασφαλείας μετά την κυκλοφορία ενός ανταγωνιστικού μοντέλου από την DeepSeek τον Ιανουάριο, με την OpenAI να ισχυρίζεται ότι η κινεζική startup αντέγραψε αθέμιτα τα μοντέλα της.
Η ενισχυμένη ασφάλεια περιλαμβάνει πολιτικές «πληροφόρησης» που περιορίζουν την πρόσβαση του προσωπικού σε ευαίσθητους αλγόριθμους και νέα προϊόντα. Για παράδειγμα, κατά τη διάρκεια της ανάπτυξης του μοντέλου o1 της OpenAI, μόνο τα επαληθευμένα μέλη της ομάδας που είχαν ενημερωθεί για το έργο μπορούσαν να το συζητήσουν σε κοινόχρηστους χώρους γραφείων, σύμφωνα με τους FT.
Και δεν είναι μόνο αυτό.
Η OpenAI απομονώνει πλέον την ιδιόκτητη τεχνολογία σε υπολογιστικά συστήματα εκτός σύνδεσης, εφαρμόζει βιομετρικούς ελέγχους πρόσβασης στους χώρους των γραφείων (σαρώνει τα δακτυλικά αποτυπώματα των υπαλλήλων) και διατηρεί μια πολιτική «απόρριψης εξ ορισμού» για το διαδίκτυο, η οποία απαιτεί ρητή έγκριση για εξωτερικές συνδέσεις, σύμφωνα με την έκθεση, η οποία προσθέτει επίσης ότι η εταιρεία έχει ενισχύσει τη φυσική ασφάλεια στα κέντρα δεδομένων και έχει αυξήσει το προσωπικό της στον τομέα της κυβερνοασφάλειας.
Οι αλλαγές φέρεται να αντανακλούν ευρύτερες ανησυχίες σχετικά με ξένους αντιπάλους που προσπαθούν να κλέψουν την πνευματική ιδιοκτησία της OpenAI, αν και, δεδομένων των συνεχιζόμενων πολέμων για την προσέλκυση στελεχών μεταξύ αμερικανικών εταιρειών AI και των όλο και πιο συχνών διαρροών των σχολίων του CEO, Σαμ Άλτμαν, η OpenAI ενδέχεται να προσπαθεί να αντιμετωπίσει και εσωτερικά ζητήματα ασφάλειας.