Η Τεχνητή Νοημοσύνη (ΤΝ) συχνά παρουσιάζεται μέσα από δύο ακραία αφηγήματα, διαμετρικά αντίθετα αλλά εξίσου παραπλανητικά. Από τη μία, εμφανίζεται ως μαγική λύση που μπορεί να αντικαταστήσει τον άνθρωπο και να προσφέρει λύσεις για όλα. Από την άλλη, προβάλλεται ως υπαρξιακή απειλή, ικανή να οδηγήσει σε κοινωνική και οικονομική καταστροφή ή ακόμη και στην εξαφάνιση της ανθρωπότητας. Και οι δύο προσεγγίσεις απομακρύνουν την κοινωνία από την κατανόηση και την ψύχραιμη προσέγγιση.
Τόσο η μυθοποίηση όσο και η καταστροφολογία δημιουργούν μια ελλιπή εικόνα της ΤΝ, είτε υπερεκτιμώντας τις δυνατότητές της είτε υπερτονίζοντας τους κινδύνους της. Παραβλέπουν έτσι την πραγματική της φύση ως εργαλείου που εξαρτάται από δεδομένα, αλγορίθμους, υπολογιστική δύναμη και ανθρώπινη επίβλεψη. Για τον λόγο αυτό, η ανάπτυξη του «AI literacy», δηλαδή του γραμματισμού γύρω από την ΤΝ είναι κομβική δεξιότητα που οφείλουμε να καλλιεργήσουμε. Το AI literacy δεν αφορά μόνο την τεχνική προσέγγιση, αλλά κυρίως την ικανότητα κατανόησης της λειτουργίας των συστημάτων τεχνητής νοημοσύνης, των δυνατοτήτων και των περιορισμών τους. Σύμφωνα με το World Economic Forum, το AI literacy περιλαμβάνει δεξιότητες αξιολόγησης και υπεύθυνης χρήσης, επιτρέποντας στους πολίτες να μην θεωρούν την ΤΝ ένα αδιαφανές «μαύρο κουτί», αλλά ένα εργαλείο που οφείλουμε να αντιμετωπίζουμε κριτικά.
Η έλλειψη AI literacy συντηρεί βασικές στρεβλώσεις στη δημόσια αντίληψη. Από τη μία πλευρά πολλοί χρήστες δεν κατανοούν σε βάθος την ΤΝ και εμπιστεύονται άκριτα τα αποτελέσματά της, θεωρώντας την αλάνθαστη. Από την άλλη, υπάρχει η κατηγορία εκείνων που γνωρίζουν καλά πώς λειτουργεί, επιλέγουν όμως να διαδίδουν ακραία σενάρια κινδύνου. Άλλες φορές τους συμφέρει να μεταβιβάζουν την ευθύνη, υποτιμώντας τη βλαβερή επίδραση των εθιστικών μηχανισμών που λειτουργούν χάρη στην ΤΝ. Αυτή η αντίφαση μεταξύ ρητορικής και πράξης αποπροσανατολίζει το κοινό από άμεσους κινδύνους, όπως οι αλγοριθμικές προκαταλήψεις, η παραπληροφόρηση, οι εθιστικές πρακτικές και η αδιαφάνεια των συστημάτων. Η ΤΝ τότε παύει να είναι ουδέτερη. Τα συστήματα μπορεί να σχεδιάζονται εξυπηρετώντας σκοπιμότητες και να βασίζονται σε δεδομένα που ενσωματώνουν κοινωνικές προκαταλήψεις.
Παράλληλα η ΤΝ διευκολύνει την κατασκευή και διάδοση πληροφοριών, αυξάνοντας τον κίνδυνο παραπληροφόρησης, ειδικά μέσω τεχνολογιών όπως τα deepfakes. Οι πολίτες καταναλώνουν πληροφορία που απλώς είναι πειστική, χωρίς να έχουν τα εργαλεία να την αξιολογήσουν κριτικά. Πρόσφατες δικαστικές αποφάσεις στις ΗΠΑ έκριναν ότι οι πλατφόρμες Facebook και YouTube μπορούν να συμβάλουν σε βλάβες στην ψυχική υγεία ανηλίκων, αναδεικνύοντας την επικινδυνότητα του ίδιου του σχεδιασμού τους. Η υπερασπιστική γραμμή του Mark Zuckerberg ότι «η ευθύνη για τη βλάβη στην ψυχική υγεία του χρήστη δεν μπορεί να αποδοθεί σε μία μόνο εφαρμογή» δείχνει πώς επιχειρείται από κάποιους η μετατόπιση της ευθύνης. Ωστόσο, όπως επισημαίνεται από ερευνητή, οι εξελίξεις αυτές σηματοδοτούν πλέον ένα σημείο ρήξης στην εμπιστοσύνη μεταξύ κοινού και ψηφιακών πλατφορμών και ενδεχομένως ανοίγουν ένα νέο κεφάλαιο στην υποχρέωση λογοδοσίας των τεχνολογικών μεγιστάνων.
Μέσα σε αυτό το ρευστό τοπίο, το AI literacy καθίσταται κρίσιμο διότι δεν αφορά μόνο την κατανόηση των αλγορίθμων, αλλά την ικανότητα των πολιτών να αξιολογούν κριτικά τόσο τα συστήματα ΤΝ όσο και τα αφηγήματα αυτών που τα αναπτύσσουν και τα χρησιμοποιούν. Στην Ολλανδία, μεταξύ 2012 και 2021, πάνω από 20.000 γονείς κατηγορήθηκαν για απάτη κατά την απονομή κρατικών επιδομάτων για τη φύλαξη παιδιών. Η ολλανδική φορολογική αρχή χρησιμοποίησε αλγοριθμικά συστήματα για να εντοπίζει «ύποπτες» αιτήσεις επιδομάτων. Το αποτέλεσμα ήταν χιλιάδες οικογένειες να στοχοποιηθούν άδικα, να τους ζητηθεί να επιστρέψουν υπέρμετρα ποσά, να ανοίξουν διοικητικές και δικαστικές διαμάχες και τελικά να οδηγηθούν σε οικονομική καταστροφή. Το πιο σημαντικό είναι ότι ένας δυσανάλογος αριθμός όσων χαρακτηρίστηκαν ως απατεώνες, είχε μεταναστευτικό υπόβαθρο. Η ανεπάρκεια μέτρων, θεσμικών αντίβαρων και συνεργασίας μεταξύ της νομοθετικής, εκτελεστικής και δικαστικής εξουσίας έθεσαν την όλη υπόθεση σε τροχιά πολιτικού σκανδάλου, υπό το βάρος του οποίου παραιτήθηκε η τότε κυβέρνηση.
Η εμπειρία από το σκάνδαλο επιδομάτων στην Ολλανδία δείχνει ότι οι αποτυχίες δεν προκύπτουν μόνο από άγνοια της τεχνολογίας, αλλά και από την άκριτη εκχώρηση εξουσίας σε αυτή. Τα αλγοριθμικά εργαλεία που χρησιμοποιήθηκαν για τον εντοπισμό υποτιθέμενης απάτης, αντιμετωπίστηκαν ως αντικειμενικά και αξιόπιστα, προκαλώντας άδικες κατηγορίες και σοβαρές οικονομικές συνέπειες. Εκ πρώτης όψεως, η αποκάλυψη της υπόθεσης ενίσχυσε την αντίληψη ότι η τεχνητή νοημοσύνη είναι ανεξέλεγκτη και επικίνδυνη. Με μια πιο ψύχραιμη ανάγνωση όμως, διαπιστώνουμε ότι το πρόβλημα δεν ήταν η ισχύς της τεχνολογίας, αλλά η απουσία των αναγκαίων θεσμικών εγγυήσεων, όπως επεσήμανε η «Επιτροπή της Βενετίας» του Συμβουλίου της Ευρώπης σε μια συνολική εξέταση του ζητήματος από πλευράς συνταγματικής συμμόρφωσης.
Η τεχνολογία, όταν της παραχωρούμε ρυθμιστικούς ρόλους ανεξέλεγκτα, αποκτά χαρακτηριστικά εξουσίας χωρίς λογοδοσία. Σε αυτό το πλαίσιο, η κατανόηση της τεχνητής νοημοσύνης καθίσταται κρίσιμη, καθώς μόνο πολίτες που αντιλαμβάνονται τα όρια και τις επιπτώσεις της, μπορούν να απαιτήσουν ουσιαστικό έλεγχο έναντι της αυθαιρεσίας. Αυτό που προτείνεται είναι η ικανότητα στάθμισης: να φοβάται κανείς όσα πρέπει, όπως πρέπει και όταν πρέπει. Ο Αριστοτέλης στα Ηθικά Νικομάχεια ορίζει το θάρρος ως μεσότητα ανάμεσα στον υπερβολικό φόβο και το απερίσκεπτο θράσος. Η ΤΝ αποτελεί ένα σύνθετο εργαλείο που αντανακλά ανθρώπινες επιλογές, αξίες και περιορισμούς. Συνεπώς το επίκεντρο δεν είναι η τεχνολογία καθεαυτή, αλλά η ικανότητα των πολιτών να την κατανοούν. Γιατί σε μια δημοκρατία, η γνώση δεν είναι απλώς δύναμη, είναι προϋπόθεση ελευθερίας.
