Η OpenAI αναγνωρίζει τους κινδύνους των μοντέλων ΑΙ από την κυβερνοασφάλεια έως την ψυχική υγεία

Η OpenAI αναγνωρίζει τους κινδύνους των μοντέλων ΑΙ από την κυβερνοασφάλεια έως την ψυχική υγεία

Η OpenAI προχωρά στην αναζήτηση νέου στελέχους για τη θέση του επικεφαλής ετοιμότητας, αρμόδιου για τη μελέτη των αναδυόμενων κινδύνων που συνδέονται με την Τεχνητή Νοημοσύνη, από την κυβερνοασφάλεια έως την ψυχική υγεία.

Σε ανάρτησή του στο X, ο διευθύνων σύμβουλος Σαμ Άλτμαν αναγνώρισε ότι τα μοντέλα Τεχνητής Νοημοσύνης «αρχίζουν να παρουσιάζουν πραγματικές προκλήσεις», όπως η «πιθανή επίδρασή τους στην ψυχική υγεία», αλλά και το γεγονός ότι είναι «τόσο ικανά στην ασφάλεια των υπολογιστών ώστε αρχίζουν να εντοπίζουν κρίσιμα τρωτά σημεία».

«Αν θέλετε να βοηθήσετε τον κόσμο να κατανοήσει πώς μπορούμε να προσφέρουμε στους υπερασπιστές της κυβερνοασφάλειας δυνατότητες αιχμής, διασφαλίζοντας παράλληλα ότι οι εισβολείς δεν θα τις αξιοποιήσουν κακόβουλα — ιδανικά καθιστώντας όλα τα συστήματα πιο ασφαλή - και αντίστοιχα να συμβάλουμε στο πώς απελευθερώνουμε βιολογικές δυνατότητες και αποκτούμε εμπιστοσύνη στην ασφάλεια συστημάτων που λειτουργούν και μπορούν να αυτοβελτιώνονται, σκεφτείτε να υποβάλετε αίτηση», έγραψε ο Άλτμαν.

Σύμφωνα με την αγγελία της OpenAI, ο ρόλος του επικεφαλής ετοιμότητας περιλαμβάνει την υλοποίηση του Πλαισίου Ετοιμότητας της εταιρείας, το οποίο «περιγράφει την προσέγγιση της OpenAI στην παρακολούθηση και την προετοιμασία για δυνατότητες αιχμής που δημιουργούν νέους κινδύνους σοβαρής βλάβης».

Η αμοιβή για τη θέση ανέρχεται σε 555.000 δολάρια, πλέον συμμετοχής στο μετοχικό κεφάλαιο της εταιρείας.

Η OpenAI είχε ανακοινώσει για πρώτη φορά τη σύσταση ομάδας ετοιμότητας το 2023, αναφέροντας ότι θα ασχολείται με τη μελέτη πιθανών «καταστροφικών κινδύνων», τόσο άμεσων - όπως επιθέσεις ηλεκτρονικού «ψαρέματος» (phishing) - όσο και πιο θεωρητικών, όπως πυρηνικές απειλές.

Λιγότερο από έναν χρόνο αργότερα, η εταιρεία μετέφερε τον τότε επικεφαλής ετοιμότητας, Αλεξάντερ Μοντρί, σε ρόλο που εστιάζει στη συλλογιστική της Τεχνητής Νοημοσύνης. Παράλληλα, άλλα στελέχη ασφάλειας έχουν αποχωρήσει από την OpenAI ή έχουν αναλάβει νέους ρόλους εκτός των τομέων ετοιμότητας και ασφάλειας.

Πρόσφατα, η OpenAI επικαιροποίησε και το Πλαίσιο Ετοιμότητας, επισημαίνοντας ότι ενδέχεται να «προσαρμόσει» τις απαιτήσεις ασφαλείας της εάν ανταγωνιστικό εργαστήριο Τεχνητής Νοημοσύνης κυκλοφορήσει μοντέλο «υψηλού κινδύνου» χωρίς αντίστοιχες δικλίδες προστασίας.

Όπως ανέφερε ο Άλτμαν, τα chatbots δημιουργικής Τεχνητής Νοημοσύνης έχουν δεχθεί αυξανόμενο έλεγχο για τον αντίκτυπό τους στην ψυχική υγεία. Πρόσφατες αγωγές υποστηρίζουν ότι το ChatGPT της OpenAI ενίσχυσε παραληρητικές ιδέες χρηστών, αύξησε την κοινωνική τους απομόνωση και, σε ορισμένες περιπτώσεις, συνέβαλε ακόμη και σε αυτοκτονίες.