Η ανάγκη για ρύθμιση της Τεχνητής Νοημοσύνης

Η Τεχνητή Νοημοσύνη δεν είναι πια επιστημονική φαντασία. Είναι εδώ - και μπορεί να γίνει επικίνδυνη με τρόπους που μέχρι χθες φάνταζαν αδιανόητοι. Φανταστείτε ένα βίντεο στο οποίο ο Ρετζέπ Ταγίπ Ερντογάν «ανακοινώνει» πόλεμο στην Ελλάδα. Ή ένα ηχητικό μήνυμα όπου «εσείς» ζητάτε χρήματα από τους γονείς σας. Ή μια φωτογραφία που δείχνει πολιτικούς να διαπράττουν εγκλήματα που ποτέ δεν συνέβησαν.

Αυτά δεν είναι πια πειράγματα. Είναι εργαλεία απάτης, πρόκλησης χάους, ακόμα και εθνικής απειλής. Το deepfake που ζητάει χρήματα από ηλικιωμένους ή πλαστογραφεί τραπεζικές εντολές προκαλεί άμεση οικονομική βλάβη σε άτομα. Αυτό είναι προσωπικό έγκλημα, όχι διαδικτυακή φάρσα.

Η απάντηση της πολιτείας στις νέες προκλήσεις δεν μπορεί να είναι ούτε η λογοκρισία ούτε ο γραφειοκρατικός πανικός. Πρέπει να είναι έξυπνη, φιλελεύθερη και αποτρεπτική. Η Ευρωπαϊκή Ένωση συζητά την AI Act, οι Ηνωμένες Πολιτείες επιμένουν στη διαφάνεια, ενώ η Δανία δοκιμάζει τεχνικά watermarks και αυτή τη στιγμή ηγείται διεθνώς στο ρυθμιστικό πλαίσιο της Τεχνητής Νοημοσύνης. Η Ελλάδα οφείλει να επενδύσει σε ένα πλαίσιο που προστατεύει την ελευθερία χωρίς να αφήνει ανενόχλητους τους απατεώνες.

Το ζητούμενο είναι ένα σύνολο κανόνων που καθιστούν την κακόβουλη χρήση της Τεχνητής Νοημοσύνης ασύμφορη, χωρίς να καταπνίγουν τη δημιουργικότητα. Κάθε ψηφιακό προϊόν που δημιουργείται με αλγόριθμους μπορεί να φέρει ένα αδιάβλητο αποτύπωμα προέλευσης, ένα τεχνικό ίχνος που να δείχνει ποιος και πότε το παρήγαγε. Μόνο έτσι τελειώνει η ανωνυμία του ψεύδους.

Παράλληλα, η ευθύνη πρέπει να είναι εστιασμένη και αυστηρά ορισμένη. Δεν διώκεται η φαντασία, η σάτιρα ή η πολιτική παρωδία, ούτε καν η δημιουργικότητα εφόσον δηλώνει καθαρά ότι δημιουργήθηκε με χρήση Τεχνητής Νοημοσύνης. Διώκεται αποκλειστικά η πλαστογραφία που παρουσιάζεται ως αλήθεια, προκαλεί άμεσο και σοβαρό κίνδυνο, και παράγεται ή διακινείται με δόλο. Στην κατηγορία αυτή ανήκουν τα deepfakes που οδηγούν σε οικονομική απάτη, σε παρακίνηση για βία, σε υπονόμευση του πολιτεύματος ή σε απειλή για την εθνική ασφάλεια. Η Δημοκρατία δεν διώκει το ψέμα ούτε διεκδικεί το μονοπώλιο της αλήθειας. Όμως, οφείλει να καταδιώκει το ψεύδος που επιδιώκει να καταστρέψει.

Ταυτόχρονα, οι χρηματικές ποινές πρέπει να είναι τόσο αυστηρές ώστε η εξαπάτηση να μην αποδίδει. Η οικονομική λογική είναι απλή: όταν το ρίσκο υπερβαίνει το κέρδος, η απάτη χάνει το νόημά της. Οι ίδιες οι πλατφόρμες που φιλοξενούν περιεχόμενο οφείλουν να ενημερώνουν καθαρά τους χρήστες όταν προβάλλουν ή διακινούν υλικό παραγμένο από Τεχνητή Νοημοσύνη. Δεν χρειάζεται φίμωση, χρειάζεται διαφάνεια. Και όταν αποδεικνύεται ότι ένα τέτοιο υλικό είναι επιβλαβές, η απόσυρσή του πρέπει να γίνεται γρήγορα και συντονισμένα, με διαφανείς διαδικασίες και δικαστική εποπτεία.

Ο χρόνος είναι πάντα σύμμαχος του ψεύδους· πρέπει να τον ανακτήσουμε.

Όλα αυτά όμως προϋποθέτουν ένα κράτος ικανό να κινηθεί με ταχύτητα και δικαιοσύνη. Χρειάζονται ειδικές τεχνολογικές μονάδες στην αστυνομία και στα δικαστήρια, εκπαιδευμένοι λειτουργοί και διαδικασίες που ολοκληρώνονται σε εβδομάδες, όχι σε χρόνια. Η βεβαιότητα της τιμωρίας αποτρέπει πολύ περισσότερο από τη σκληρότητα της ποινής. Όταν ο δράστης γνωρίζει ότι θα εντοπιστεί και θα τιμωρηθεί άμεσα, το ρίσκο γίνεται αβάσταχτο.

Ας μην έχουμε αυταπάτες: το κυνήγι των deepfakes θα θυμίζει τον αγώνα κατά των ιών. Κάποιοι θα δημιουργούν νέες μορφές εξαπάτησης και οι κάποιοι άλλοι θα προσπαθούν να τις προλάβουν. Όμως εδώ το διακύβευμα δεν είναι απλώς χαμένα δεδομένα, αλλά η ίδια η εμπιστοσύνη μας στην πραγματικότητα, η ασφάλεια των πολιτών και η αντοχή του πολιτεύματος. Η πολιτεία δεν μπορεί να μείνει θεατής. Οφείλει να είναι έτοιμη, αποφασισμένη και τεχνολογικά οπλισμένη πριν ξεσπάσει η καταιγίδα. Γιατί η επόμενη κρίση παραπληροφόρησης δεν θα μετριέται σε fake news· θα μετριέται σε ζωές, θεσμούς και ελευθερίες.