Η Τεχνητή Νοημοσύνη στην εκπαίδευση: Χρήσιμο εργαλείο ή δίκοπο μαχαίρι;
Shutterstock
Shutterstock
Ρ. Γουίλιαμς (Οξφόρδη)

Η Τεχνητή Νοημοσύνη στην εκπαίδευση: Χρήσιμο εργαλείο ή δίκοπο μαχαίρι;

Η Τεχνητή Νοημοσύνη βρίσκεται πλέον παντού. Εντοπίζει καρκινικά κύτταρα, αναπτύσει συστήματα πλογήσεις στο διάστημα, αναβιώνει νεκρές γλώσσες και μας βοηθάει να αποφασίσουμε τι χρώμα να βάψουμε το σαλόνι μας. Στη συνέντευξη που έδωσε στο Liberal.gr και τη Μαρία Κέντη Κρανιδιώτη, η καθηγήτρια Νομικής της Οξφόρδης, Ρεμπέκα Γουίλιαμς, συζητάει για τον χρήση και τον ρόλο της Τεχνητής Νοημοσύνης στην εκπαίδευση.

Ακολουθεί η συνέντευξη:

Πώς χρησιμοποιείται, λοιπόν η Τεχνητή Νοημοσύνη στα μαθήματα κορυφαίων πανεπιστημίων όπως η Οξφόρδη και το Κέιμπριτζ;

Υπάρχουν δύο απαντήσεις σε αυτό. Η γενική απάντηση, είναι ότι σε όλα τα συνηθισμένα μαθήματα καθώς και στο πρόγραμμα σπουδών της νομικής, αυτή τη στιγμή παλεύουμε με αυτό. Προσπαθούμε να βρούμε ποια είναι η καλύτερη προσέγγιση και ποια καθοδήγηση να δώσουμε στους φοιτητές μας. 

Κυρίως, αυτό που κάναμε ήταν μια στροφή πίσω στα διαγωνίσματα με αυτοπρόσωπη παρουσία, σε αίθουσες εξετάσεων, χρησιμοποιώντας υπολογιστές που έχουν περιορισμούς και δεν επιτρέπουν την πρόσβαση μηχανές αναζήτησης ή Chatbots. Αυτό γίνεται εν μέρει για να προστατεύσουμε την ακεραιότητα των πτυχίων μας βραχυπρόθεσμα. Αυτό που λέμε στους φοιτητές είναι ότι για τις γραπτές εργασίες κατά τη διάρκεια της χρονιάς, μπορούν να χρησιμοποιήσουν ό,τι βοηθήματα θέλουν. Aν βρουν τα AI εργαλεία χρήσιμα, τότε υπέροχα. Τους ενθαρρύνουμε να πειραματιστούν με το ΑΙ και να δουν τι μπορούν να κάνουν. 

Αλλά τους υπενθυμίζουμε ότι, στο τέλος της ημέρας, θα πρέπει να καθίσουν σε μια αίθουσα εξετάσεων και να γράψουν τέσσερα δοκίμια σε τρεις ώρες εξ ολοκλήρου από το μυαλό τους. Έτσι, αν όλη τη χρονιά γράφουν κάθε εργασία χρησιμοποιώντας το ChatGPT, θα κολλήσουν πολύ όταν φτάσουν στις εξετάσεις. Προς το παρόν, λοιπόν, τους δίνουμε αυτή την επιλογή: γνωρίζουμε ότι αυτά τα εργαλεία υπάρχουν και ότι θα τα χρησιμοποιούν για το υπόλοιπο της ζωής τους, οπότε αξίζει να μάθουν πώς να τα χρησιμοποιούν.

Αλλά πρέπει να έχουν κατά νου ότι ο στόχος εξακολουθεί να είναι να εκπαιδευτούν ώστε να μπορούν να παράγουν μια πρωτότυπη εργασία υπό συνθήκες γραπτών εξετάσεων. Το πανεπιστήμιο έχει επίσης δώσει σε όλους τους φοιτητές πρόσβαση σε μια εσωτερική άδεια ChatGPT, ώστε να μπορούν να υποβάλλουν την εργασία τους χωρίς αυτή να κοινοποιείται δημόσια. Είναι ένα κλειστό πανεπιστημιακό σύστημα. Αυτή είναι η γενική θέση της Οξφόρδης. 

Υπάρχουν, φυσικά, ορισμένα μαθήματα με κατ’οίκον εξετάσεις και σε καμία περίπτωση δεν θέλουμε να μεταβούμε μόνιμα σε ένα μοντέλο εξέτασης όπου όλα είναι κλειστά  - αυτό θα ήταν μια παλιομοδίτικη απάντηση σε ένα σύγχρονο πρόβλημα. Μακροπρόθεσμα, νομίζω ότι αυτό που πρέπει να κάνουμε είναι να εξετάσουμε πως οι ίδιοι οι ακαδημαϊκοί χρησιμοποιούμε τα εργαλεία Τεχνητής Νοημοσύνης και στη συνέχεια να εργαστούμε αντίστροφα με βάση αυτό.

Δηλαδή, αν υποθέσουμε ότι οι ακαδημαϊκοί θα συνεχίσουν να χρησιμοποιούν αυτά τα εργαλεία - κάποια για γραφή, κάποια για έρευνα - αλλά θα εξακολουθούν οι ίδιοι να ενορχηστρώνουν και να κατευθύνουν τη συνολική διαδικασία, τότε αυτό που κάνουμε θα εξακολουθεί να αποτελεί ένα ουσιαστικό πνευματικό έργο. Πρέπει λοιπόν να εκπαιδεύσουμε τους μαθητές μέσα σε μια τέτοια διαδικασία - δηλαδή να βλέπουν το ΑΙ ως εργαλείο και όχι ως υποκατάστατο της γνώσης - και να αξιολογήσουμε την ανθρώπινη συμβολή τους σε αυτήν. Δεν έχουμε δηλαδή ακόμη βρει το πώς να αξιολογούμε λογικά την ανθρώπινη συμβολή εν μέσω όλων αυτών των εργαλείων - αλλά αυτός είναι ο στόχος. 

Υπάρχει ένα ευρύ φάσμα απόψεων μεταξύ των συναδέλφων. Κάποιοι πιστεύουν ότι πρέπει να απαγορεύσουμε εντελώς τα εργαλεία Τεχνητής Νοημοσύνης - αν και πώς θα το επιβάλλαμε αυτό, δεν γνωρίζω. Άλλοι πιστεύουν ότι πρέπει να επιστρέψουμε πλήρως στις εξετάσεις με κλειστά βιβλία και να μην κάνουμε ποτέ τίποτα άλλο. Προσωπικά, νομίζω ότι χρειαζόμαστε μια προσωρινή λύση τώρα για να προστατεύσουμε την ακεραιότητα των εξετάσεων, αλλά μακροπρόθεσμα, πρέπει να επανεξετάσουμε τι σημαίνει έρευνα και γραφή σε έναν κόσμο όπου τα ΑΙ εργαλεία είναι διαθέσιμα και πώς μπορούμε να διδάξουμε και να αξιολογήσουμε τους μαθητές μέσα σε αυτή τη νέα πραγματικότητα. 

Πιστεύετε ότι τα οφέλη της Τεχνητής νοημοσύνης στην εκπαίδευση υπερτερούν των πιθανών κινδύνων της; Είναι πραγματικά δυνατό να διατηρηθούν τα πλεονεκτήματα της, περιορίζοντας ταυτόχρονα τα μειονεκτήματά της;

Πιστεύω ότι πρέπει να το παρακολουθήσουμε πολύ προσεκτικά. Εννοώ, κατά μία έννοια, δεν χρειάζεται η Τεχνητή Νοημοσύνη για να υπάρξουν κίνδυνοι - υπάρχουν ήδη πολλοί. Ένας τομέας στον οποίο εργάζομαι είναι η αλγοριθμική λήψη αποφάσεων. Ακόμη και ένας πολύ απλός αλγόριθμος, όπως αυτός που χρησιμοποιήθηκε για τον προσδιορισμό των βαθμών των μαθητών κατά τη διάρκεια της πανδημίας, μπορεί να είναι πραγματικά επιβλαβής. Βασικά είναι απλώς ένα υπολογιστικό φύλλο - δεν έχει καμία σχέση με κάτι τόσο εξεζητημένο όσο η Τεχνητή Νοημοσύνη. 

Στη Βρετανία έχουν επίσης προκύψει πολυάριθμες προκλήσεις σχετικά με την αυτοματοποίηση των κοινωνικών παροχών του Universal Credit¹. Και πάλι, πρόκειται για πολύ απλά συστήματα, και μέρος του προβλήματος είναι ότι συχνά είναι δισδιάστατα και δεν είναι τόσο περίπλοκα ή λεπτομερή όσο θα έπρεπε. 

Επομένως, είμαι σκεπτική ως προς την ιδέα ότι το πρόβλημα είναι σίγουρα η Τεχνητή Νοημοσύνη ή ότι οδεύουμε ανεπιστρεπτί προς την κατάκτηση του κόσμου από αυτήν. Προτιμώ να επικεντρωθώ στα ήδη υπάρχοντα προβλήματα, τα οποία συναντάμε ακόμη και στις σχετικά βασικές μορφές τεχνολογίας. 

Αντιστρόφως, μπορείς να κάνεις πολύ χρήσιμα πράγματα και με την απλή τεχνολογία. Επομένως, η ισορροπία μεταξύ πλεονεκτημάτων και μειονεκτημάτων υπάρχει παντού, όχι μόνο στον τομέα της Τεχνητής Νοημοσύνης.

Το βασικό είναι να παρακολουθούμε προσεκτικά και να ελέγχουμε τι συμβαίνει. Αν βλέπουμε ότι οι άνθρωποι βρίσκονται σε μειονεκτική θέση - ακόμα και αν δεν εμπίπτουν σε κάποια ευάλωτη ομάδα - ή αν ένα σύστημα δεν λειτουργεί σωστά ή δημιουργεί κινδύνους, πρέπει να το παρατηρήσουμε και να σκεφτούμε πώς μπορούμε να αντιδράσουμε. Μπορούμε να αξιοποιήσουμε τα οφέλη και, μακροπρόθεσμα, υποψιάζομαι ότι τα οφέλη θα υπερτερούν των κινδύνων - αλλά πρέπει να παρακολουθούμε προσεκτικά αυτούς τους κινδύνους και να σκεφτούμε πώς θα τους αντιμετωπίσουμε. 

Γινόμαστε όλο και πιο ανεκτικοί απέναντι στις ανακριβείς πληροφορίες. Οι άνθρωποι συχνά θεωρούν δεδομένο ό,τι λένε τα chatbots και δεν το επαληθεύουν. Ποιος θα ήταν ένα τρόπος αντιμετώπισης αυτού του κινδύνου;

Νομίζω ότι ο τρόπος με τον οποίο εκπαιδεύουμε τους ανθρώπους είναι ίσως το μεγαλύτερο εργαλείο που έχουμε για τη βελτίωση της ακρίβειας των πληροφοριών που λαμβάνουμε. Ως δικηγόροι, έχουμε την τάση να σκεφτόμαστε τους κανονισμούς και τους κανόνες, αλλά υπάρχουν και άλλα εργαλεία - και η εκπαίδευση είναι ένα από αυτά. Ιδανικά, από την ηλικία των 11 ετών περίπου, τα παιδιά θα πρέπει να διδάσκονται δύο βασικά πράγματα.

Πρώτον, περισσότερες στατιστική. Οι άνθρωποι πρέπει να κατανοούν τι τους λέει ένα συγκεκριμένο μοντέλο, κάτι που απαιτεί μια λογική κατανόηση των στατιστικών, ένα επίπεδο μαθηματικών γνώσεων που πολλοί άνθρωποι - ακόμη και πολύ έξυπνοι και μορφωμένοι συνάδελφοι - συχνά δεν έχουν. Στο μέλλον, για να είναι ενημερωμένοι πολίτες και να μπορούν να λαμβάνουν αποφάσεις, οι άνθρωποι θα χρειάζονται όλο και περισσότερο αυτές τις γνώσεις.

Κατά τη διάρκεια της πανδημίας, έγιναν εξαιρετικές προσπάθειες για να εξηγηθούν πράγματα όπως η Μπεϋζιανή λογική - πώς δηλαδή η σημασία ενός αποτελέσματος τεστ COVID εξαρτάται από την επικράτηση του COVID στον πληθυσμό και πώς τα ποσοστά ακρίβειας δεν αποτυπώνουν την πλήρη εικόνα. Η δημόσια στατιστική παιδεία όπως αυτή είναι ζωτικής σημασίας για την κατανόηση του τι λένε πραγματικά τα συστήματα, είτε πρόκειται για πρόβλεψη κινδύνου είτε για κάτι άλλο.

Το δεύτερο είναι να διδάξουμε στους ανθρώπους να σκέφτονται κριτικά σχετικά με τις πηγές των πληροφοριών τους. Αναδύονται επίσης ορισμένοι κανονισμοί - για παράδειγμα, το άρθρο 50 του νόμου της ΕΕ για την Τεχνητή Νοημοσύνη απαιτεί σαφή επισήμανση του υλικού που παράγεται από Τεχνητή Νοημοσύνη, κάτι που βοηθά τους ανθρώπους να εντοπίζουν τα deepfakes.

Υπάρχει και μια τεχνική πτυχή σε αυτό, όπως το να γίνει πιο δύσκολη η αφαίρεση των υδατογραφημάτων. Έτσι, η ρύθμιση και η τεχνολογία έχουν τον ρόλο τους, αλλά η εκπαίδευση είναι εξίσου σημαντική: οι άνθρωποι πρέπει να αξιολογούν αυτά που διαβάζουν, να εξετάζουν την πηγή και να αποφασίζουν ποιες πηγές να εμπιστευτούν.

Ωστόσο, αυτό αποτελεί από μόνο του πρόκληση. Δεν θέλουμε οι άνθρωποι να πέσουν στην αντίθετη παγίδα, όπου απορρίπτουν τις γνήσιες πληροφορίες ως ψευδείς ειδήσεις - όπως για παράδειγμα όταν ένας πολιτικός μπορεί να ισχυριστεί ότι κάτι δεν συνέβη. Οι άνθρωποι πρέπει να είναι σε θέση να πιστεύουν τις γνήσιες πληροφορίες και να απορρίπτουν τις ψευδείς πληροφορίες. Είναι πολύ δύσκολο να επιτευχθεί αυτή η ισορροπία.

Έτσι, ναι - η εκπαίδευση, η ρύθμιση και η τεχνολογία έχουν όλες ένα ρόλο ρόλο να διαδραματίσουν στη δημιουργία αυτού του περιβάλλοντος.

Ποια νομικά συστήματα ή ρυθμιστικά πλαίσια υπάρχουν σήμερα - στον τομέα της εκπαίδευσης και πέραν αυτού - για την προστασία από την επιβλαβή χρήση της Τεχνητής Νοημοσύνης και πόσο αποτελεσματικά είναι μέχρι στιγμής;

Αν κοιτάξετε, θα δείτε ότι ανά τον κόσμο υπάρχουν διάφορες προσεγγίσεις. Ορισμένα συστήματα έχουν προχωρήσει σε ριζικές αλλαγές - για παράδειγμα, η ΕΕ έχει δηλώσει: «Θα έχουμε έναν νόμο για την Τεχνητή Νοημοσύνη που θα είναι πρωτοπόρος σε παγκόσμιο επίπεδο. Θα είναι ένα τεράστιο, συνολικό νομοθετικό κείμενο. Θα προσπαθήσει να καλύψει τα πάντα, οριζόντια σε ολόκληρο το πεδίο, με κεντρική επιβολή από κάτω προς τα πάνω, που θα είναι άμεσα εκτελεστή». Αυτή είναι η κίνησή τους. Σκέφτηκαν σαφώς: «Ας θέσουμε την ατζέντα, ας είμαστε οι πρώτοι που θα κινηθούν και ας διασφαλίσουμε ότι από εδώ και στο εξής, όταν κάποιος μιλάει για ρύθμιση της Τεχνητής Νοημοσύνης, θα πρέπει να ανατρέχει σε εμάς». Είναι παρόμοιο με αυτό που έκαναν με τον GDPR [Γενικός Κανονισμός Προστασίας Δεδομένων] - το είδαν ως επιτυχημένο και σκέφτηκαν: «Μπορούμε να κάνουμε το ίδιο και με την Τεχνητή Νοημοσύνη».

Αντίθετα, οι ΗΠΑ έχουν υιοθετήσει μια πολύ διαφορετική προσέγγιση. Υπό την προεδρία του Μπάιντεν, εκδόθηκε εκτελεστικό διάταγμα για την ασφαλή, αξιόπιστη και έμπιστη Τεχνητή Νοημοσύνη. Την πρώτη μέρα της θητείας του, ο Τραμπ ακύρωσε το διάταγμα αυτό και το αντικατέστησε με ένα άλλο που εστίαζε στη διατήρηση της αμερικανικής κυριαρχίας στον τομέα της Τεχνητής Νοημοσύνης και στην άρση των ρυθμιστικών φραγμών, τους οποίους θεωρούν ότι εμποδίζουν την καινοτομία. Το αμερικανικό σύστημα συχνά τοποθετείται ως αντι-ρυθμιστικό, προκειμένου να είναι υπέρ της καινοτομίας. Παρόμοιες τάσεις παρατηρούνται και αλλού. Η Βραζιλία, για παράδειγμα, είναι επίσης πολύ υπέρ της καινοτομίας.

Ακόμη και εντός των ΗΠΑ όμως, η εικόνα είναι μικτή. Διάφορες πολιτείες έχουν δανειστεί τμήματα του νόμου της ΕΕ για την Τεχνητή Νοημοσύνη και τα έχουν ενσωματώσει στη νομοθεσία σε επίπεδο πολιτείας. Ο Τραμπ προσπάθησε να επιβάλει μορατόριουμ στη νομοθεσία των πολιτειών με το Big Beautiful Bill, αλλά απέτυχε, οπότε οι πολιτείες παραμένουν ελεύθερες να νομοθετούν όπως επιθυμούν. Το Κολοράντο, το Τέξας, η Καλιφόρνια και άλλες πολιτείες αντιγράφουν και επικολλούν τμήματα του νόμου για την Τεχνητή Νοημοσύνη στην εγχώρια νομοθεσία.

Έτσι, σε παγκόσμιο επίπεδο, υπάρχουν διάφορες προσεγγίσεις. Ορισμένα μέρη τοποθετούνται ως ρυθμιστικές αρχές, δίνοντας προτεραιότητα στην ασφάλεια, ενώ άλλα ως αντι-ρυθμιστικές, δίνοντας προτεραιότητα στην καινοτομία. Το Ηνωμένο Βασίλειο, μαζί με μέρη όπως το Χονγκ Κονγκ και η Σιγκαπούρη, βρίσκεται κάπου στη μέση - παρακολουθεί, περιμένει και εκφράζει απόψεις και προς τις δύο κατευθύνσεις χωρίς να δεσμεύεται πλήρως.

Δεν νομίζω ότι η διαφορά μεταξύ ρύθμισης και καινοτομίας είναι τόσο σαφής όσο παρουσιάζεται μέσα από ορισμένα πολιτικά αφηγήματα. Ένας λόγος είναι ότι, αν θέλετε οι άνθρωποι να υιοθετήσουν την καινοτομία, πρέπει να την εμπιστεύονται. Η ρύθμιση είναι ένας τρόπος για να καλλιεργηθεί αυτή η εμπιστοσύνη. Μπορεί να υπάρξει όση καινοτομία θέλουμε, αλλά αν κανείς δεν τη χρησιμοποιεί επειδή τη φοβάται, δεν θα αποκομίσει μια χώρα τα οικονομικά οφέλη που επιδιώκει.

Είναι ενδιαφέρον ότι ακόμη και στις ΗΠΑ, το Γραφείο Διαχείρισης και Προϋπολογισμού έχει αποστείλει υπομνήματα στις ομοσπονδιακές αρχές που χρησιμοποιούν Τεχνητή Νοημοσύνη, στα οποία τονίζει τη σημασία της εμπιστοσύνης και της προσοχής του κοινού. Έτσι, ακόμη και σε ένα υποτιθέμενο αντι-ρυθμιστικό πλαίσιο, αναγνωρίζεται ότι η εμπιστοσύνη είναι ζωτικής σημασίας και ότι μέρος αυτής της εμπιστοσύνης προέρχεται από το να είμαστε προσεκτικοί με τη χρήση της.

Ένα άλλο σημείο είναι ότι δεν χρειάζεται μια μεγάλη συνολική νομοθεσία όπως ο νόμος της ΕΕ για την Τεχνητή Νοημοσύνη για να έχουμε αποτελεσματικούς κανόνες. Μπορούμε να χρησιμοποιήσουμε την υπάρχουσα εθνική νομοθεσία. Για παράδειγμα, έχω γράψει για τη χρήση της συνήθους δικαστικής επανεξέτασης για την αμφισβήτηση της χρήσης της αλγοριθμικής λήψης αποφάσεων από τις δημόσιες Αρχές. 

Οι δημόσιες Αρχές υποχρεούνται ήδη να λαμβάνουν δίκαιες, αναλογικές και διαφανείς αποφάσεις, ανεξάρτητα από το αν ο υπεύθυνος λήψης αποφάσεων είναι άνθρωπος ή σύστημα. Σε όλα τα συστήματα, ακόμη και σε εκείνα που δεν διαθέτουν ειδική νομοθεσία για την Τεχνητή Νοημοσύνη, υπάρχουν κανόνες περί πνευματικής ιδιοκτησίας, κανόνες δημοσίου δικαίου, κανόνες αστικού δικαίου κ.λπ. που μπορούν να προσαρμοστούν από τα κάτω προς τα πάνω, με πρωτοβουλία του αιτούντος, για την αντιμετώπιση των συστημάτων Τεχνητής Νοημοσύνης.

Έτσι, η υποτιθέμενη δυαδικότητα μεταξύ ενός συστήματος «υπέρ της ρύθμισης» και ενός συστήματος «υπέρ της καινοτομίας» έχει βαθιά πολιτικό χαρακτήρα και αποτελεί συχνά επικοινωνιακό εργαλείο για πολιτικούς και κυβερνήσεις.
Όταν εξετάζουμε τις λεπτομέρειες, το χάσμα μεταξύ των δύο προσεγγίσεων είναι πολύ μικρότερο. 

Σε ένα πρόσφατο άρθρο σας αναφέρεστε σε «υπεύθυνους αλγόριθμους». Πώς μπορούμε να μιλάμε για υπευθυνότητα σε σχέση με κάτι που δεν έχει συνείδηση; Με άλλα λόγια, όταν η Τεχνητή Νοημοσύνη έχει αρνητικό αντίκτυπο, όταν χρησιμοποιείται είτε ιδιωτικά είτε από εταιρείες, ποιος πρέπει να θεωρηθεί υπεύθυνος και πώς;

Νομίζω ότι υπάρχουν πολλές διαφορετικές τακτικές, αλλά το βασικό είναι να σκεφτούμε πού μπορούμε να θέσουμε κίνητρα για να ενθαρρύνουμε την υπεύθυνη συμπεριφορά και να μειώσουμε τους κινδύνους βλάβης.

Για παράδειγμα, αν ένα σύστημα Τεχνητής Νοημοσύνης είναι διακριτικό στις προσλήψεις, ο πρώτος στόχος θα πρέπει να είναι η εταιρεία που χρησιμοποιεί αυτό το λογισμικό προσλήψεων. Αλλά αν υποθέσουμε ότι η εταιρεία δεν δημιούργησε η ίδια το ΑΙ σύστημα, τότε πιθανότατα να έχει, μια συμβατική σχέση μαζί του.

Έτσι, ένα βασικό ερώτημα είναι: ποιοι ήταν οι όροι αυτής της σύμβασης; Πώς έδωσε ο πάροχος οδηγίες στην εταιρεία για τη χρήση του συστήματος; Τηρήθηκαν αυτές οι οδηγίες; Για παράδειγμα, ο πάροχος μπορεί να είπε: «Αυτό λειτουργεί πολύ καλά αν θέλετε να προσλάβετε γυναίκες για αυτή τη θέση», αλλά η εταιρεία το χρησιμοποίησε για να προσλάβει άνδρες για μια διαφορετική θέση. Ο πάροχος θα μπορούσε να υποστηρίξει ότι η εταιρεία χρησιμοποιούσε το σύστημα εκτός των προβλεπόμενων όρων και προϋποθέσεων.

Ουσιαστικά, πρόκειται για την απόδοση ευθύνης όπου υπήρχε το κίνητρο να ενεργήσουν διαφορετικά. Ακόμα και αν ένα άτομο υποβάλει αγωγή κατά της εταιρείας που προέβη σε διάκριση, η εν λόγω εταιρεία μπορεί να έχει τη δυνατότητα να υποβάλει αγωγή κατά του παρόχου λογισμικού, ανάλογα με τους όρους της σύμβασης.

Ο στόχος είναι λοιπόν να σχεδιαστούν κίνητρα για τις εταιρείες που προσλαμβάνουν προσωπικό: να διασφαλίσουν ότι δοκιμάζουν και ελέγχουν το λογισμικό τους, να βεβαιώνονται ότι δεν κάνει διακρίσεις και να επιδιώκουν τη μέγιστη ακρίβεια. Σε τελική ανάλυση, η διάκριση είναι στην πραγματικότητα μια μορφή ανακριβούς λήψης αποφάσεων. Αν το σύστημα κάνει διακρίσεις, τότε δεν κάνει καλά τη δουλειά του.

Η ευθύνη πρέπει επίσης να αντιμετωπίζεται στις συμβάσεις, γι' αυτό και οι δικηγόροι πρέπει να κατανοούν αυτά τα ζητήματα. Οι δικηγόροι βοηθούν στη διαμόρφωση της συμβατικής αλυσίδας μεταξύ του χρήστη, του παρόχου και του προγραμματιστή του λογισμικού, καθορίζοντας τις ευθύνες που πρέπει να έχει κάθε οντότητα και τον τρόπο ενσωμάτωσής τους στις συμβάσεις, ώστε να διασφαλίζεται η υπεύθυνη λειτουργία του συστήματος.

Άρα, δεν χρειάζεται να ανησυχούμε για το γεγονός ότι δεν μπορούμε να θεωρήσουμε υπεύθυνο το ίδιο το σύστημα της Τεχνητής Νοημοσύνης - υπάρχουν πολλοί άνθρωποι που μπορούμε να θεωρήσουμε υπεύθυνους για διάφορες πτυχές της χρήσης του.

Όσον αφορά την ιδιωτική χρήση στο σπίτι, ένας δικηγόρος θα γνωρίζει καλύτερα, αλλά αυτό για το οποίο ουσιαστικά μιλάμε είναι η ψευδής δήλωση. Το νομικό πλαίσιο γι’αυτό υπάρχει ήδη. Για παράδειγμα, αν κάποιος σας δώσει οικονομικές συμβουλές σε ένα πάρτι, αυτό δεν τον καθιστά απαραίτητα υπεύθυνο αν εσύ αποφασίσεις μετά να επενδύσεις κάπου βάση αυτές τις συμβουλές. Θα έπρεπε να γνωρίζεις ότι σε ένα τέτοιο πλαίσιο δεν μπορείς να λάβεις αξιόπιστες οικονομικές συμβουλές. Αυτό είναι και κοινή λογική.

Υπάρχουν ήδη λεπτομερή πλαίσια κανόνων ευθύνης για ψευδείς δηλώσεις μεταξύ ανθρώπων. Νομίζω ότι αυτά θα μπορούσαν να προσαρμοστούν αρκετά εύκολα για να αντιμετωπιστεί η παραπληροφόρηση από συστήματα Τεχνητής Νοημοσύνης. Θα πρέπει επίσης να υπάρχουν και σαφείς όροι χρήσεις. Αυτό θα ήταν μια λύση. Καθώς και η εκπαίδευση - οι άνθρωποι μαθαίνουν να μην βασίζονται τυφλά σε αυτά τα συστήματα.

Είσαστε μια από τις ιδρύτριες του AIEOU (AI in Education at Oxford University). Τι έδωσε το έναυσμα για την πρωτοβουλία αυτή και ποιοι είναι οι κύριοι στόχοι της;

Ναι, είναι ένα πολύ ενδιαφέρον έργο, το οποίο ήταν ιδέα της φίλης και συναδέλφου μου, Σάρα Ράτνερ. Εκείνη το δημιούργησε - έχει εμπειρία στον τομέα της εκπαιδευτικής τεχνολογίας και, πιο πρόσφατα, ολοκλήρωσε το διδακτορικό της και εργάστηκε ως μεταδιδακτορική ερευνήτρια σε θέματα εκπαιδευτικής τεχνολογίας στο Τμήμα Εκπαίδευσης εδώ στην Οξφόρδη.

Συζητούσαμε για αυτό και σκεφτήκαμε ότι θα ήταν πολύ χρήσιμο να δημιουργήσουμε μια διεπιστημονική πλατφόρμα. Το τρίτο μέλος της ομάδαςείναι η Λίζυ, η οποία επίσης εργάζεται στον τομέα της εκπαίδευσης. Έχει εμπειρία στη χρήση της τεχνητής νοημοσύνης για την εκμάθηση γλωσσών. 

Έτσι, ο καθένας μας είχε διαφορετικά ενδιαφέροντα. Εγώ προσωπικά ήθελα να κατανοήσω τι λέει ο κανονισμός σχετικά με την τεχνολογία στην εκπαίδευση και πώς αισθάνονται οι εκπαιδευτικοί - αν αισθάνονται ότι έχουν υποστήριξη, αν ο GDPR τους αποθαρρύνει από το να πειραματιστούν και αν μπορούν να αξιοποιήσουν στο έπακρο την τεχνολογία. 

Ενδιαφερόμουν επίσης να μάθω αν οι εκπαιδευτικοί θεωρούν ότι υπάρχουν πιθανοί κίνδυνοι στους οποίους εκτίθενται οι ίδιοι ή οι φοιτητές τους και από τους οποίους δεν τους προστατεύει η νομοθεσία.

Με ενδιαφέρει επίσης πολύ να καταλάβω τι κάνουν τα πανεπιστήμια σχετικά με την Τεχνητή Νοημοσύνη στην εκπαίδευση και να δω τι κάνουν οι εκπαιδευτικοί στα σχολεία πριν οι μαθητές τους φτάσουν σε εμάς. Είμαστε μέρος αυτής της εκπαιδευτικής αλυσίδας, καθώς παραλαμβάνουμε τους μαθητές από τα σχολεία και συνεχίζουμε την εκπαίδευσή τους με στόχο την είσοδό τους στην αγορά εργασίας.

Επομένως, με ενδιαφέρει η Τεχνητή Νοημοσύνη σε όλη αυτή την αλυσίδα - από την πρωτοβάθμια εκπαίδευση έως τον τρόπο με τον οποίο οι δικηγόροι τη χρησιμοποιούν στην πράξη - και ο ρόλος του πανεπιστημίου ως κρίκου αυτής της αλυσίδας. 

Τέλος, ως καθηγήτρια, ποια είναι η γνώμη σας σχετικά με τη χρήση της τεχνητής νοημοσύνης σε μαθήματα ανθρωπιστικών και κοινωνικών επιστημών, όπως η Νομική; 

Ναι, νομίζω ότι η τεχνητή νοημοσύνη έχει να διαδραματίσει έναν τεράστιο ρόλο. Οι συνάδελφοί μας που γνωρίζουν προγραμματισμό και έχουν μαθηματικό ή στατιστικό υπόβαθρο είναι ήδη πολύ πιο μπροστά από εμάς. Για παράδειγμα, ένας συνάδελφος χρησιμοποιεί την επεξεργασία φυσικής γλώσσας για να αναλύσει θέματα όπως η σύνταξη συμβάσεων. Το έχει εφαρμόσει στο Σύνταγμα των ΗΠΑ και τώρα εργάζεται πάνω στη Συμφωνία της Μεγάλης Παρασκευής. Επεξεργάζεται τεράστιο όγκο ιστορικών εγγράφων - για παράδειγμα, σημειώσεις συνεδριάσεων - και μπορεί να δείξει μοτίβα όπως «Αν αυτό το άτομο ήταν στην αίθουσα, η συζήτηση γίνεται πιο συντηρητική· όταν αυτό το άτομο δεν είναι, συμβαίνει αυτό». Είναι πραγματικά συναρπαστική δουλειά και μέρος ενός ευρύτερου κινήματος ψηφιακών ανθρωπιστικών επιστημών σε όλο το πανεπιστήμιο.

Συνεργαζόμαστε επίσης με το Τμήμα Πολιτικών Επιστημών και Διεθνών Σχέσεων για τη δημιουργία ενός Κέντρου Προηγμένων Μεθόδων Κοινωνικών Επιστημών. Το κέντρο αυτό επικεντρώνεται στη χρήση της μηχανικής μάθησης και της Τεχνητής Νοημοσύνης για την επεξεργασία δεδομένων κοινωνικών επιστημών. Οι τομείς του δικαίου και της οικονομίας συνεργάζονται μαζί τους, και ορισμένοι ακαδημαϊκοί θα συνεργάζονται από κοινού με το κέντρο και τμήματα όπως η Νομική. 

Ξεκινάμε επίσης ένα κοινό μεταπτυχιακό πρόγραμμα για το δίκαιο, τη διακυβέρνηση και την Τεχνητή Νοημοσύνη. Το μάθημα έχει ως στόχο να διδάξει στους κοινωνικούς επιστήμονες να βλέπουν τα ευρύματα των κοινωνικών επιστημών ως πραγματικά δεδομένα.

Στην Νομική υπάρχει πλέον η συνειδητοποίηση ότι τεράστιες ποσότητες δεδομένων περνούν καθημερινά από τα χέρια των δικηγόρων. Θα μπορούσαν να τα χρησιμοποιήσουν με ενδιαφέροντες τρόπους: παρακολουθώντας τα μοτίβα των συναλλαγών, αναλύοντας τη συμπεριφορά των πελατών και μαθαίνοντας πολλά περισσότερα για το τι συμβαίνει στην πράξη. Οι περισσότεροι νομικοί ερευνητές έχουν συνηθίσει να πηγαίνουν στη βιβλιοθήκη, να διαβάζουν υποθέσεις και να γράφουν για αυτές. Αλλά η ιδέα ότι θα μπορούσαν να πάρουν όλες τις αποφάσεις των πρωτοβάθμιων δικαστηρίων, να λάβουν τα δεδομένα και να τα αναλύσουν - ώστε να δείξουν, για παράδειγμα, ότι στη βορειοανατολική Αγγλία, ένα συγκεκριμένο έγκλημα τιμωρείται με ποινή φυλάκισης Χ ετών, ενώ στη νοτιοανατολική Αγγλία τιμωρείται με ποινή φυλάκισης Υ ετών - ανοίγει εντελώς νέες προοπτικές. Δεν διαβάζετε απλώς τι λένε οι δικαστές, αλλά βλέπετε τι συμβαίνει στην πραγματικότητα.

Υπάρχουν πολλά αναξιοποίητα δεδομένα στις κοινωνικές και ανθρωπιστικές επιστήμες. Η χρήση της Τεχνητής νοημοσύνης με αυτόν τον τρόπο προσφέρει τεράστιες δυνατότητες για πιο συναρπαστική και ποσοτική έρευνα που δεν ήταν δυνατή στο παρελθόν, και εξοικονομεί πολύ χρόνο. Δίνει πρόσβαση σε πληροφορίες και γνώσεις για τον κόσμο που διαφορετικά δεν θα είχαμε. Μας επιτρέπει να δούμε πώς λειτουργεί ο νόμος στην πράξη, κάτι που μας προσφέρει τη δυνατότητα να σκεφτούμε κριτικά και να αποφασίσουμε αν είμαστε ικανοποιημένοι με αυτό ή αν θέλουμε να το αλλάξουμε. 

1. Universal Credit: Eπίδομα για άτομα με πολύ χαμηλό εισόδημα ή χωρίς δουλειά, που εισήχθη σταδιακά το 2013 στη Μεγάλη Βρετανία


* Η Ρεμπέκα Γουίλιαμς είναι καθηγήτρια Δημοσίου και Ποινικού Δικαίου στο Πανεπιστήμιο της Οξφόρδης. Το έργο της επικεντρώνεται ολοένα και περισσότερο στη σχέση δικαίου και στην τεχνολογία και συγκεκριμένα στους τρόπους με τους οποίους το δίκαιο θα πρέπει να αναπτυχθεί προκειμένου να συμβαδίσει με τις τεχνολογικές εξελίξεις.