Πρόκειται για το πρώτο ρυθμιστικό πλαίσιο κανόνων στον κόσμο, το οποίο θα ρυθμίζει τη χρήση της Τεχνητής Νοημοσύνης σε εργαλεία όπως το ChatGPT και η βιομετρική παρακολούθηση.
Βάζοντας όρια στην Τεχνητή Νοημοσύνη: Τι προβλέπει η νέα νομοθεσία της ΕΕ

Βάζοντας όρια στην Τεχνητή Νοημοσύνη: Τι προβλέπει η νέα νομοθεσία της ΕΕ

Πρόκειται για το πρώτο ρυθμιστικό πλαίσιο κανόνων στον κόσμο, το οποίο θα ρυθμίζει τη χρήση της Τεχνητής Νοημοσύνης σε εργαλεία όπως το ChatGPT και η βιομετρική παρακολούθηση.

Το πρώτο σημαντικό βήμα, ώστε να μπουν κανόνες, αλλά και όρια στις δράσεις και χρήσεις των τεχνολογιών Τεχνητής Νοημοσύνης έκανε την Παρασκευή η Ευρώπη των 27, καταλήγοντας σε συμφωνία αναφορικά με τη θέσπιση ενός ολοκληρωμένου νομοθετικού πλαισίου.

Πρόκειται για το πρώτο ρυθμιστικό πλαίσιο κανόνων στον κόσμο, το οποίο θα ρυθμίζει τη χρήση της Τεχνητής Νοημοσύνης σε εργαλεία όπως το ChatGPT και η βιομετρική παρακολούθηση.

Μέσα στις επόμενες εβδομάδες, τόσο η Κομισιόν όσο και η Ευρωβουλή θα επεξεργαστούν όλες τις λεπτομέρειες που θα οδηγήσουν στην οριστική διαμόρφωση της ενωσιακής νομοθεσίας για την AI. Όπως εκτιμούν καλά ενημερωμένες πηγές στις Βρυξέλλες, η νέα νομοθεσία αναμένεται να τεθεί σε ισχύ στις αρχές του επόμενου έτους και να εφαρμοστεί το 2026.

Έως τότε, οι εταιρείες ενθαρρύνονται να υπογράψουν ένα εθελοντικό «Σύμφωνο Τεχνητής Νοημοσύνης» για την εφαρμογή των βασικών υποχρεώσεών τους επί των νέων κανόνων. Επί της ουσίας, το εν λόγω Σύμφωνο συνιστά ένα μεταβατικό αλλά μη δεσμευτικό πλαίσιο κανόνων.

Ακολουθούν τα βασικά σημεία που έχουν συμφωνηθεί:

1. Συστήματα ΤΝ υψηλού κινδύνου

Τα λεγόμενα συστήματα τεχνητής νοημοσύνης υψηλού κινδύνου - εκείνα που θεωρείται ότι έχουν σημαντικό δυναμικό να βλάψουν την υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία, τις εκλογές και το κράτος δικαίου - θα πρέπει να συμμορφώνονται με μια σειρά απαιτήσεων, όπως η διενέργεια εκτίμησης επιπτώσεων στα θεμελιώδη δικαιώματα, και υποχρεώσεων για την πρόσβαση στην αγορά της ΕΕ.

Τα συστήματα Τεχνητής Νοημοσύνης που θεωρείται ότι ενέχουν περιορισμένους κινδύνους, θα υπόκεινται σε πολύ ελαφρές υποχρεώσεις διαφάνειας, όπως ετικέτες γνωστοποίησης που θα δηλώνουν ότι το περιεχόμενο έχει παραχθεί με Τεχνητή Νοημοσύνη, ώστε να μπορούν οι χρήστες να αποφασίζουν για τον τρόπο χρήσης του.

2. Χρήση τεχνολογιών ΑΙ στην επιβολή του νόμου

Η χρήση απομακρυσμένων συστημάτων βιομετρικής ταυτοποίησης σε πραγματικό χρόνο σε δημόσιους χώρους από τις αρχές επιβολής του νόμου θα επιτρέπεται μόνο για να βοηθήσουν στην ταυτοποίηση θυμάτων απαγωγής, εμπορίας ανθρώπων, σεξουαλικής εκμετάλλευσης και για την πρόληψη συγκεκριμένης και παρούσας τρομοκρατικής απειλής.

Θα επιτρέπονται επίσης στις προσπάθειες εντοπισμού ατόμων που είναι ύποπτα για τρομοκρατικά εγκλήματα, εμπορία ανθρώπων, σεξουαλική εκμετάλλευση, δολοφονία, απαγωγή, βιασμό, ένοπλη ληστεία, συμμετοχή σε εγκληματική οργάνωση και περιβαλλοντικό έγκλημα.

3. Συστήματα Τεχνητής Νοημοσύνης Γενικού Σκοπού (GPAI) και θεμελιώδη μοντέλα

Τα GPAI και τα ιδρυματικά μοντέλα θα υπόκεινται σε απαιτήσεις διαφάνειας, όπως η σύνταξη τεχνικής τεκμηρίωσης, η συμμόρφωση με τη νομοθεσία της ΕΕ περί πνευματικών δικαιωμάτων και η διάδοση λεπτομερών περιλήψεων σχετικά με το περιεχόμενο που χρησιμοποιείται για την εκπαίδευση αλγορίθμων.

Τα μοντέλα θεμελίωσης που κατατάσσονται στην κατηγορία των συστημικών κινδύνων και των GPAI υψηλής επίπτωσης θα πρέπει να διενεργούν αξιολογήσεις μοντέλων, να αξιολογούν και να μετριάζουν τους κινδύνους, να διεξάγουν αντιπαραθετικές δοκιμές, να υποβάλλουν εκθέσεις στην Ευρωπαϊκή Επιτροπή για σοβαρά περιστατικά, να διασφαλίζουν την ασφάλεια στον κυβερνοχώρο και να υποβάλλουν εκθέσεις σχετικά με την ενεργειακή τους απόδοση.

Έως ότου δημοσιευθούν εναρμονισμένα πρότυπα της ΕΕ, τα GPAI με συστημικό κίνδυνο μπορούν να βασίζονται σε κώδικες πρακτικής για να συμμορφωθούν με τον κανονισμό.

4. Απαγορευμένη χρήση της Τεχνητής Νοημοσύνης

Οι κανονισμοί απαγορεύουν τα ακόλουθα:

  • Συστήματα βιομετρικής κατηγοριοποίησης που χρησιμοποιούν ευαίσθητα χαρακτηριστικά, όπως πολιτικές, θρησκευτικές, φιλοσοφικές πεποιθήσεις, σεξουαλικό προσανατολισμό, φυλή.
  • Μη στοχευμένη απόσπαση εικόνων προσώπου από το διαδίκτυο ή υλικό από κάμερες κλειστού κυκλώματος παρακολούθησης για τη δημιουργία βάσεων δεδομένων αναγνώρισης προσώπου,
  • Αναγνώριση συναισθημάτων στο χώρο εργασίας και στα εκπαιδευτικά ιδρύματα.
  • Κοινωνική βαθμολόγηση με βάση την κοινωνική συμπεριφορά ή τα προσωπικά χαρακτηριστικά.
  • Συστήματα Τεχνητής Νοημοσύνης που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούλησή τους.
  • Τεχνητή Νοημοσύνη που χρησιμοποιείται για την εκμετάλλευση των τρωτών σημείων των ανθρώπων λόγω ηλικίας, αναπηρίας, κοινωνικής ή οικονομικής κατάστασης.

5. Οι κυρώσεις

Ανάλογα με την παράβαση και το μέγεθος της εμπλεκόμενης εταιρείας, τα πρόστιμα θα ξεκινούν από 7,5 εκατ. ευρώ (8 εκατ. δολάρια) ή το 1,5% του παγκόσμιου ετήσιου κύκλου εργασιών και θα φτάνουν έως και τα 35 εκατ. ευρώ ή το 7% του ετήσιου κύκλου εργασιών.