Συγκεκριμένες ποινές για τους παραβάτες προβλέπει το προσχέδιο του Κώδικα Πρακτικής για τη σήμανση και τον σαφή ορισμό του περιεχομένου, το οποίο παράγεται ή και τροποποιείται από συστήματα Τεχνητής Νοημοσύνης.
Η νομοθετική αυτή, πρωτοβουλία συνδέεται άμεσα με το άρθρο 50 του AI Act, το οποίο εισάγει σαφείς υποχρεώσεις τόσο για τους παρόχους όσο και για τους χρήστες (deployers) γενετικών (generic) συστημάτων ΑΙ.
Από τις πρώτες πληροφορίες που είναι διαθέσιμες συνάγεται ότι οι πάροχοι υποχρεούνται να διασφαλίζουν ότι το AI-generated ή παραποιημένο περιεχόμενο φέρει σήμανση σε μηχανικά αναγνώσιμη μορφή, ενώ οι χρήστες που αξιοποιούν generative AI για επαγγελματικούς σκοπούς οφείλουν να επισημαίνουν με σαφήνεια τόσο τις διάφορες μορφές deepfakes όσο και τα κείμενα ΑΙ, κυρίως αυτά που αφορούν ζητήματα δημοσίου ενδιαφέροντος.
Συγκεκριμένα, το πρώτο προσχέδιο του Κώδικα Πρακτικής δημοσίευσε η Ευρωπαϊκή Επιτροπή, ανοίγοντας επίσημα τη διαδικασία διαβούλευσης για ένα από τα πιο κρίσιμα κεφάλαια του AI Act, αυτό της διαφάνειας.
Το κείμενο δίνεται στη δημοσιότητα στο πλαίσιο του προβλεπόμενου χρονοδιαγράμματος, με στόχο ο τελικός Κώδικας να έχει ολοκληρωθεί έως τον Ιούνιο του 2026, πριν τεθούν σε εφαρμογή οι σχετικές υποχρεώσεις.
Για να διευκολυνθεί η συμμόρφωση με αυτές τις απαιτήσεις, η Ευρωπαϊκή Επιτροπή επέλεξε τη λύση ενός εθελοντικού Κώδικα Πρακτικής, ο οποίος καταρτίζεται από ανεξάρτητους εμπειρογνώμονες, πριν ακόμη οι δεσμευτικοί κανόνες τεθούν σε ισχύ. Η λογική είναι να δημιουργηθεί ένα κοινό πλαίσιο τεχνικών και λειτουργικών πρακτικών, το οποίο θα επιτρέψει στην αγορά να προσαρμοστεί εγκαίρως.
Όλοι οι κανόνες εφαρμοστέοι από 2 Αυγούστου 2026
Το πρώτο προσχέδιο του Κώδικα Πρακτικής χωρίζεται σε δύο βασικές και διακριτές ενότητες. Η πρώτη αφορά τη σήμανση και την ανίχνευση περιεχομένου που παράγεται από ΑΙ και απευθύνεται στους παρόχους γενετικών συστημάτων. Ακόμη, εστιάζει σε κανόνες που διασφαλίζουν ότι το παραγόμενο υλικό μπορεί να αναγνωριστεί ως τέτοιο σε τεχνικό επίπεδο.
Η δεύτερη ενότητα αφορά την επισήμανση deepfakes και συγκεκριμένων μορφών AI-generated ή τροποποιημένου κειμένου που σχετίζεται με θέματα δημοσίου ενδιαφέροντος και απευθύνεται στους deployers των συστημάτων ΑΙ.
Σύμφωνα με τον οδικό χάρτη της νέα ευρωπαϊκής νομοθετικής ρύθμισης, η Επιτροπή θα συλλέγει σχόλια και παρατηρήσεις από συμμετέχοντες και παρατηρητές έως τις 23 Ιανουαρίου.
Με βάση αυτή τη διαδικασία, το δεύτερο προσχέδιο αναμένεται να παρουσιαστεί έως τα μέσα Μαρτίου 2026, ενώ ο τελικός Κώδικας Πρακτικής προβλέπεται να οριστικοποιηθεί τον Ιούνιο του ίδιου έτους.
Η κρίσιμη ημερομηνία είναι η 2 Αυγούστου 2026. Από την ημερομηνία αυτή και μετά, οι κανόνες που αφορούν τη διαφάνεια του AI-generated περιεχομένου θα καταστούν εφαρμοστέοι, μετατρέποντας τις σημερινές κατευθυντήριες γραμμές σε πρακτική υποχρέωση για την αγορά, με σαφείς κυρώσεις για τους παραβάτες.
Με τον Κώδικα Πρακτικής, η Ευρωπαϊκή Επιτροπή επιχειρεί να προετοιμάσει το έδαφος για μια ελεγχόμενη και διαφανή χρήση της γενετικής (generic) ΑΙ, σε μια περίοδο όπου η διάκριση μεταξύ ανθρώπινου και μηχανικά παραγόμενου περιεχομένου καθίσταται ολοένα και πιο δύσκολη.
Κομισιόν: Αδήριτη η ανάγκη ειδικής νομοθεσίας για την ΤΝ
Όπως αναφέρει η Κομισιόν, η ανάγκη δημιουργίας νομοθεσίας για την Τεχνητή Νοημοσύνη είναι επιτακτική, καθώς διασφαλίζει ότι οι Ευρωπαίοι μπορούν να εμπιστεύονται τα οφέλη της.
«Ενώ τα περισσότερα συστήματα τεχνητής νοημοσύνης ενέχουν περιορισμένο ή μηδενικό κίνδυνο και μπορούν να συμβάλουν στην επίλυση πολλών κοινωνικών προκλήσεων», προσθέτει, «ορισμένα συστήματα τεχνητής νοημοσύνης δημιουργούν κινδύνους που πρέπει να αντιμετωπίσουμε για να αποφύγουμε ανεπιθύμητα αποτελέσματα».
Για παράδειγμα, όπως τονίζει στην εισαγωγική έκθεση του κειμένου, συχνά δεν είναι δυνατό να διαπιστωθεί γιατί ένα σύστημα τεχνητής νοημοσύνης έλαβε μια απόφαση ή έκανε μια πρόβλεψη και προέβη σε μια συγκεκριμένη ενέργεια. Επομένως, μπορεί να είναι δύσκολο να εκτιμηθεί εάν κάποιος έχει υποστεί αδικαιολόγητη ζημία, όπως π.χ. σε μια απόφαση πρόσληψης ή σε μια αίτηση για ένα πρόγραμμα δημόσιων παροχών.
