Είναι οι Ευρωπαίοι πολίτες προστατευμένοι απέναντι στην τεχνητή νοημοσύνη;

Είναι οι Ευρωπαίοι πολίτες προστατευμένοι απέναντι στην τεχνητή νοημοσύνη;

Πολύ δρόμο έχει να διανύσει η Ευρωπαϊκή Ένωση, οι ηγεσίες των 27 κρατών -μελών και η κοινωνία των πολιτών, προκειμένου να ανταποκριθούν στις προκλήσεις που σηματοδοτούν οι τεχνολογικές εξελίξεις και κατ΄ επέκταση, αφενός να αναδείξουν την Ευρώπη ως παγκόσμιο πρωταγωνιστή, αφετέρου και κυρίως, να προστατεύσουν αλλήλους, κλείνοντας τις τεράστιες “μαύρες τρύπες” που εξακολουθούν να υφίστανται στο ισχύον πλαίσιο.

Υπάρχει αυτή τη στιγμή, ένα πανευρωπαϊκό δεοντολογικό πλαίσιο για την τεχνητή νοημοσύνη; Τι γίνεται με τα θέματα ευθύνης για την πρόκληση ζημιάς από τις εφαρμογές της; Πόσο προστατευμένα είναι τα δικαιώματα διανοητικής ιδιοκτησίας; Για παράδειγμα, μπορεί να υπάρξει αποτελεσματική προστασία της πνευματικής ιδιοκτησίας και ταυτόχρονα εγγυήσεις για τους προγραμματιστές; Υπάρχει ένα σύστημα αστικής ευθύνης με μακρόπνοη προοπτική για την προστασία ιδιωτών και επιχειρήσεων; Εν τέλει, μπορεί να εξισορροπηθεί η προστασία των πολιτών και να ενισχυθεί η τεχνολογική ανάπτυξη;

Αν σε αυτά προστεθούν και τα κενά που διαπιστώνονται γύρω από την ανάπτυξη της ψηφιακής τεχνολογίας, κυρίως σχετικά με τα πρότυπα- κανόνες για τις κάθε λογής πλατφόρμες, όπως η μη τήρηση από παρόχους τρίτων χωρών των όποιων κανόνων υφίστανται στην ΕΕ, η ελλιπής προστασία των καταναλωτών απέναντι σε παράνομα και μη ασφαλή προϊόντα, η “ασυδοσία” στο καθεστώς που διέπει τις στοχευμένες διαφημίσεις και το διαδικτυακό περιεχόμενο, πολλώ μάλλον από τους παγκόσμιους “γίγαντες” και τις “πλατφόρμες-ρυθμιστές” της ψηφιακής οικονομίας, τότε καταλαβαίνει ο οποιοσδήποτε ότι η Ενωμένη Ευρώπη κινδυνεύει να αναχθεί, όχι ένα αργοκίνητο υπερωκεάνιο, όπως συχνά λέγεται εσχάτως με αφορμή τους ρυθμούς “χελώνας” στη λήψη πολιτικών αποφάσεων, αλλά ένας παγκόσμιος “νάνος” με ότι αυτό συνεπάγεται.

Κι όμως, υπάρχουν σημάδια αισιοδοξίας και πρωτοβουλίες προς τη σωστή κατεύθυνση οι οποίες, υπό προϋποθέσεις, μπορεί να αποδείξουν ότι “το μέλλον είναι εδώ” και στο επίπεδο της λήψης αποφάσεων που θα ορίσουν την καθημερινότητά μας τα επόμενα χρόνια. Σε μια προσπάθεια ταυτόχρονα, να αντιστραφεί η σημερινή κατάσταση και η Ευρώπη να καταστεί, αν όχι παγκόσμιος ηγέτης, τουλάχιστον πρωταγωνιστής στην ανάπτυξη της τεχνητής νοημοσύνης και της ψηφιακής οικονομίας, με παράλληλη προστασία των πολιτών της.

Συγκεκριμένα, αυτές τις μέρες στις Βρυξέλλες και στο Ευρωκοινοβούλιο, βρίσκεται σε πλήρη εξέλιξη δημόσια συζήτηση, αλλά και νομοθετικές πρωτοβουλίες, με στόχο την αντιμετώπιση των τεράστιων υφιστάμενων κενών και τη θέσπιση αυστηρότερων κανόνων για την τεχνητή νοημοσύνη και το περιεχόμενό της, σε θέματα δεοντολογίας, αστικής ευθύνης και δικαιωμάτων διανοητικής ιδιοκτησίας. Νομικές υποχρεώσεις που θα πρέπει να τηρούνται κατά την ανάπτυξη, την υλοποίηση και τη χρήση τεχνητής νοημοσύνης, της ρομποτικής και συναφών τεχνολογιών στην ΕΕ, συμπεριλαμβανομένου του λογισμικού, των αλγορίθμων και των δεδομένων.

Τι σημαίνει αυτό πρακτικά; Ότι εφεξής πρέπει η νομοθεσία να εξασφαλίζει τον ανθρωποκεντρικό και ανθρωπογενή χαρακτήρα της τεχνητής νοημοσύνης ναι δεν αποτελεί αντίφαση- την ασφάλεια, τη διαφάνεια και τη λογοδοσία, τις δικλείδες ασφαλείας έναντι της μεροληψίας και των διακρίσεων, το δικαίωμα επανόρθωσης, την κοινωνική και την περιβαλλοντική ευθύνη, το σεβασμό της ιδιωτικής ζωής και την προστασία των δεδομένων.

Για παράδειγμα, οι τεχνολογίες τεχνητής νοημοσύνης υψηλού κινδύνου, όπως λόγου χάρη αυτές που διαθέτουν ικανότητες αυτοδιδασκαλίας, πρέπει να σχεδιάζονται – κι αυτό να είναι νομοθετικά θωρακισμένο- με τρόπο που να εξασφαλίζει τη δυνατότητα παρέμβασης από τον άνθρωπο ανά πάσα στιγμή. Σε περίπτωση που χρησιμοποιείται κάποια λειτουργία που θα μπορούσε να οδηγήσει σε σοβαρή παραβίαση των δεοντολογικών αρχών και να προκαλέσει κινδύνους, οι ικανότητες αυτοδιδασκαλίας θα πρέπει να απενεργοποιούνται και να αποκαθίσταται ο πλήρης έλεγχος από τον άνθρωπο.

Επιπλέον, ζητείται πλέον όλο και εντονότερα, η θέσπιση ενός πλαισίου αστικής ευθύνης με μακρόπνοη προοπτική, βάσει του οποίου οι διαχειριστές συστημάτων τεχνητής νοημοσύνης υψηλού κινδύνου θα καθίστανται υπεύθυνοι για κάθε ζημία που προκαλείται. Με στόχο η νομική σαφήνεια να ενθαρρύνει την καινοτομία, παρέχοντας αίσθημα ασφάλειας στις επιχειρήσεις. Αλλά, παράλληλα, να προστατεύσει τους πολίτες και να αυξήσει την εμπιστοσύνη τους στις τεχνολογίες τεχνητής νοημοσύνης, αποτρέποντας δραστηριότητες που μπορούν να αποβούν επικινδυνες.

Οι προς θέσπιση κανόνες πρέπει να καλύπτουν κάθε φυσική ή ψηφιακή δραστηριότητα τεχνητής νοημοσύνης που προκαλεί ζημία ή βλάβη στη ζωή, την υγεία, τη σωματική ακεραιότητα ή την περιουσία, ή προκαλεί σημαντική ηθική βλάβη που οδηγεί σε «επαληθεύσιμη οικονομική ζημία». Οι τεχνολογίες τεχνητής νοημοσύνης υψηλού κινδύνου δεν είναι ακόμη διαδεδομένες, ωστόσο οι χειριστές σχετικών συστημάτων πρέπει να διαθέτουν ασφάλιση ανάλογη με εκείνη που προβλέπεται για τα μηχανοκίνητα οχήματα.

Επιπρόσθετα, έρχονται βελτιώσεις και στο μείζον ζήτημα των δικαιωμάτων διανοητικής ιδιοκτησίας, καθώς και δικλείδες ασφαλείας για την προστασία καινοτόμων προγραμματιστών μέσω του συστήματος διπλωμάτων ευρεσιτεχνίας της ΕΕ. Ωστόσο, οι απαιτήσεις αυτές δεν πρέπει να αποβούν εις βάρος των συμφερόντων των ανθρώπων-δημιουργών, ούτε και των δεοντολογικών αρχών της ΕΕ. Η κυρίαρχη τάση στο Ευρωκοινοβούλιο υποστηρίζει ότι είναι σημαντικό να γίνει διάκριση μεταξύ των ανθρώπινων δημιουργιών που υποβοηθούνται από την τεχνητή νοημοσύνη και των δημιουργιών που παράγονται αυτόνομα από την τεχνητή νοημοσύνη.

Διευκρινίζοντας ότι τα συστήματα τεχνητής νοημοσύνης δεν θα πρέπει να έχουν νομική προσωπικότητα, συνεπώς τα δικαιώματα διανοητικής ιδιοκτησίας θα ανήκουν αποκλειστικά σε ανθρώπους. Κενά βεβαίως υπάρχουν και στο επίπεδο της συλλογής δεδομένων, του εμπορικού απορρήτου, της χρήσης αλγορίθμων και των … βαθιά ψευδών πληροφοριών («deep fakes»). Και επ' αυτών, ο δρόμος μπορεί να μην είναι στρωμένος με … ροδοπέταλα, αλλά σίγουρα είναι μακρύς….

Διαβάστε Περισσότερα