Τεχνητή Νοημοσύνη: «Καμπανάκια» ειδικών για την ανάγκη ρυθμιστικού πλαισίου των deep fakes
Shutterstock
Shutterstock

Τεχνητή Νοημοσύνη: «Καμπανάκια» ειδικών για την ανάγκη ρυθμιστικού πλαισίου των deep fakes

Aνοιχτή επιστολή με την οποία ζητούν περισσότερους ρυθμιστικούς κανόνες γύρω από τη δημιουργία των deepfakes ζητούν εμπειρογνώμονες και ειδικοί της Τεχνητής Νοημοσύνης, ανάμεσά τους και ο Γιόσουα Μπέντζιο, επικαλούμενοι πιθανούς κινδύνους για την κοινωνία.

«Σήμερα, τα deepfakes συχνά περιλαμβάνουν σεξουαλικές εικόνες, απάτες ή πολιτική παραπληροφόρηση. Δεδομένου ότι η Τεχνητή Νοημοσύνη εξελίσσεται ραγδαία και καθιστά πολύ πιο εύκολη τη δημιουργία deepfakes, χρειάζονται διασφαλίσεις», αναφέρει η ομάδα στην επιστολή, την οποία συνέταξε ο Άντριου Κριτς, ερευνητής Τεχνητής Νοημοσύνης στο Πανεπιστήμιο Berkeley.

Τα deepfakes είναι ρεαλιστικές αλλά κατασκευασμένες εικόνες, ηχητικά και βίντεο που δημιουργούνται από αλγορίθμους AI και οι πρόσφατες εξελίξεις στην τεχνολογία τα έχουν καταστήσει όλο και πιο δυσδιάκριτα από το περιεχόμενο που δημιουργείται από τον άνθρωπο.

Η επιστολή, με τίτλο «Disrupting the Deepfake Supply Chain», διατυπώνει συστάσεις σχετικά με τον τρόπο ρύθμισης των deepfakes, συμπεριλαμβανομένης της πλήρους ποινικοποίησης της παιδικής πορνογραφίας deepfake, των ποινικών κυρώσεων για κάθε άτομο που εν γνώσει του δημιουργεί ή διευκολύνει τη διάδοση επιβλαβών deepfakes και της απαίτησης από τις εταιρείες Τεχνητής Νοημοσύνης να αποτρέπουν τα προϊόντα τους από τη δημιουργία επιβλαβών deepfakes.

Μέχρι το πρωί της Τετάρτης, πάνω από 400 άτομα από διάφορους κλάδους, συμπεριλαμβανομένων των ακαδημαϊκών, της ψυχαγωγίας και της πολιτικής, είχαν υπογράψει την επιστολή.

Στους υπογράφοντες περιλαμβάνονται ο Steven Pinker, καθηγητής ψυχολογίας του Χάρβαρντ, δύο πρώην πρόεδροι της Εσθονίας, ερευνητές της Google DeepMind και ένας ερευνητής του OpenAI.

Η διασφάλιση ότι τα συστήματα Τεχνητής Νοημοσύνης δεν βλάπτουν την κοινωνία αποτελεί προτεραιότητα για τις ρυθμιστικές αρχές από τότε που η OpenAI, η οποία υποστηρίζεται από τη Microsoft, παρουσίασε το ChatGPT στα τέλη του 2022, το οποίο εντυπωσίασε τους χρήστες εμπλέκοντάς τους σε συνομιλίες που μοιάζουν με αυτές του ανθρώπου και εκτελώντας άλλες εργασίες.

Υπήρξαν πολλαπλές προειδοποιήσεις από εξέχοντα πρόσωπα σχετικά με τους κινδύνους της τεχνητής νοημοσύνης, ιδίως μια επιστολή που υπέγραψε ο Ίλον Μασκ πέρυσι και η οποία ζητούσε εξάμηνη παύση στην ανάπτυξη συστημάτων ισχυρότερων από το μοντέλο τεχνητής νοημοσύνης GPT-4 της OpenAI.