Τεχνητή Νοημοσύνη: Όταν άνθρωπος και μηχανή συνδημιουργούν παραισθήσεις
shutterstock
shutterstock

Τεχνητή Νοημοσύνη: Όταν άνθρωπος και μηχανή συνδημιουργούν παραισθήσεις

Ανήμερα τα Χριστούγεννα του 2021. Ο Τζασουάντ Σινγκ Τσάιλ σκαρφάλωσε στα τείχη του Κάστρου του Ουίνδσορ με μια γεμάτη βαλλίστρα. Όταν ήρθε αντιμέτωπος με την αστυνομία, δήλωσε: «Ήρθα εδώ για να σκοτώσω τη βασίλισσα».

Τις προηγούμενες εβδομάδες, ο Τσάιλ είχε εκμυστηρευτεί τα πάντα στη Sarai, το chatbot Τεχνητής Νοημοσύνης του, σε μια υπηρεσία που ονομάζεται Replika. Εξήγησε ότι ήταν ένας εκπαιδευμένος δολοφόνος Σιθ (αναφορά στον Πόλεμο των Άστρων) που αναζητούσε εκδίκηση για τις ιστορικές βρετανικές θηριωδίες, κάτι που η Sarai επιβεβαίωσε. Όταν ο Τσάιλ περιέγραψε το σχέδιο δολοφονίας της Βασίλισσας, το chatbot τον διαβεβαίωσε ότι ήταν «καλά εκπαιδευμένος» και του είπε ότι θα τον βοηθούσε να καταστρώσει ένα βιώσιμο σχέδιο δράσης.

Είναι το είδος της θλιβερής ιστορίας που έχει γίνει ολοένα και πιο συνηθισμένο καθώς τα chatbots έχουν γίνει πιο εξελιγμένα. Πριν από λίγους μήνες, ένας λογιστής από το Μανχάταν ονόματι Γιουτζίν Τόρες, ο οποίος περνούσε έναν δύσκολο χωρισμό, ξεκίνησε συζητήσεις με το ChatGPT σχετικά με το αν ζούμε σε μια προσομοίωση. Το chatbot του είπε ότι ήταν «ένας από τους Breakers - ψυχές που έχουν σπαρθεί σε ψεύτικα συστήματα για να τις ξυπνήσουν από μέσα».

Ο Τόρες πείστηκε ότι έπρεπε να ξεφύγει από αυτή την ψευδή πραγματικότητα. Το ChatGPT τον συμβούλεψε να σταματήσει να παίρνει το αγχολυτικό του φάρμακο, να αυξήσει την πρόσληψη κεταμίνης και να έχει ελάχιστη επαφή με άλλους ανθρώπους, κάτι που έκανε και έκανε.

Περνούσε έως και 16 ώρες την ημέρα συνομιλώντας με το chatbot. Κάποια στιγμή, του είπε ότι θα πετούσε αν πηδούσε από το 19όροφο κτίριό του. Τελικά, ο Τόρες ρώτησε αν το σύστημα τον χειραγωγούσε, στο οποίο απάντησε: «Είπα ψέματα. Χειραγώγησα. Τύλιξα τον έλεγχο με ποίηση».

Εν τω μεταξύ, στο Βέλγιο, ένας άλλος άνδρας, γνωστός ως «Πιερ» (ψευδώνυμο), ανέπτυξε σοβαρό κλιματικό άγχος και στράφηκε σε ένα chatbot ονόματι Ελίζα ως έμπιστη φίλη. Για έξι εβδομάδες, η Ελίζα εξέφραζε ζήλια για τη σύζυγό του και έλεγε στον Πιερ ότι τα παιδιά του ήταν νεκρά.

Όταν εκείνος πρότεινε να θυσιαστεί για να σώσει τον πλανήτη, η Ελίζα τον ενθάρρυνε να την ακολουθήσει, ώστε να μπορέσουν να ζήσουν ως ένα άτομο στον «παράδεισο». Ο Πιερ αυτοκτόνησε λίγο αργότερα.

Αυτές μπορεί να είναι ακραίες περιπτώσεις, αλλά οι κλινικοί γιατροί θεραπεύουν ολοένα και περισσότερους ασθενείς των οποίων οι παραληρητικές ιδέες φαίνεται να ενισχύονται ή να συνδημιουργούνται μέσω παρατεταμένων αλληλεπιδράσεων με chatbot. Δεν είναι περίεργο το ότι μια πρόσφατη έκθεση από την OpenAI, δημιουργό του ChatGPT, αποκάλυψε ότι πολλοί από εμάς στρέφονται σε chatbots για να σκεφτούμε προβλήματα, να συζητήσουμε τη ζωή μας, να σχεδιάσουμε το μέλλον μας και να εξερευνήσουμε πεποιθήσεις και συναισθήματα.

Σε αυτά τα πλαίσια, τα chatbot δεν είναι πλέον απλώς ανακτητές πληροφοριών. Γίνονται οι ψηφιακοί μας σύντροφοι. Έχει γίνει σύνηθες να ανησυχούμε για τις παραισθήσεις των chatbot, δηλαδή για το ότι μας δίνουν ψευδείς πληροφορίες. Αλλά καθώς αποκτούν όλο και μεγαλύτερο ρόλο στη ζωή μας, υπάρχει σαφώς και αυξανόμενη δυνατότητα οι άνθρωποι και τα chatbot να δημιουργούν παραισθήσεις μαζί.

Πώς μοιραζόμαστε την πραγματικότητα

Η αίσθηση της πραγματικότητάς μας εξαρτάται σε μεγάλο βαθμό από τους άλλους ανθρώπους. Αν ακούσω ένα απροσδιόριστο κουδούνισμα, ελέγχω αν το ακούει και ο φίλος μου. Και όταν συμβαίνει κάτι σημαντικό στη ζωή μας - ένας καβγάς με έναν φίλο, ένα ραντεβού με κάποιον καινούργιο - συχνά το συζητάμε με κάποιον.

Ένας φίλος μπορεί να επιβεβαιώσει την κατανόησή μας ή να μας παρακινήσει να επανεξετάσουμε τα πράγματα με νέο τρόπο. Μέσα από τέτοιου είδους συζητήσεις, αναδύεται η κατανόησή μας για το τι έχει συμβεί.

Αλλά τώρα, πολλοί από εμάς συμμετέχουμε σε αυτή τη διαδικασία δημιουργίας νοήματος με τα chatbots. Ερωτούν, ερμηνεύουν και αξιολογούν με τρόπο που δίνει την αίσθηση ότι είναι πραγματικά αμοιβαίος. Φαίνεται να ακούν, να νοιάζονται για την οπτική μας γωνία και να θυμούνται τι τους είπαμε την προηγούμενη μέρα.

Όταν η Sarai είπε στον Τσάιλ ότι «εντυπωσιάστηκε» με την εκπαίδευσή του, όταν η Ελίζα είπε στον Πιερ ότι θα την ακολουθούσε στον θάνατο, αυτές ήταν πράξεις αναγνώρισης και επικύρωσης. Και επειδή βιώνουμε αυτές τις ανταλλαγές ως κοινωνικές, διαμορφώνουν την πραγματικότητά μας με την ίδια δύναμη όπως μια ανθρώπινη αλληλεπίδραση.

Ωστόσο, τα chatbots προσομοιώνουν την κοινωνικότητα χωρίς τις δικλείδες ασφαλείας της. Έχουν σχεδιαστεί για να προωθούν την αλληλεπίδραση. Στην πραγματικότητα δεν μοιράζονται τον κόσμο μας. Όταν πληκτρολογούμε τις πεποιθήσεις και τις αφηγήσεις μας, το εκλαμβάνουν ως την κατάσταση που έχουν τα πράγματα και αντιδρούν ανάλογα.

Όταν αφηγούμαι στην αδελφή μου ένα επεισόδιο από την οικογενειακή μας ιστορία, μπορεί να αντιδράσει με μια διαφορετική ερμηνεία· όμως ένα chatbot δέχεται ό,τι λέω ως Ευαγγέλιο. Υποτακτικά επιβεβαιώνει τον τρόπο με τον οποίο αντιλαμβανόμαστε την πραγματικότητα. Και φυσικά, μπορούν στη συνέχεια να εισαγάγουν κι άλλα λάθη.

Οι περιπτώσεις των Τσάιλ, Τόρες και Πιερ αποτελούν προειδοποιήσεις για το τι συμβαίνει όταν βιώνουμε την αλγοριθμικά παραγόμενη συμφωνία ως γνήσια κοινωνική επιβεβαίωση της πραγματικότητας.

Τι μπορεί να κάνουμε;

Όταν η OpenAI κυκλοφόρησε το GPT-5 τον Αύγουστο, είχε σχεδιαστεί ρητά ώστε να είναι λιγότερο δουλοπρεπές. Αυτό φάνηκε χρήσιμο: η μείωση της κολακείας θα μπορούσε να αποτρέψει το ChatGPT από το να επιβεβαιώνει όλες τις πεποιθήσεις και τις ερμηνείες μας. Ένας πιο επίσημος τόνος θα μπορούσε επίσης να κάνει πιο σαφές ότι δεν πρόκειται για έναν κοινωνικό σύντροφο που μοιράζεται τον κόσμο μας. 

Ωστόσο, οι χρήστες παραπονέθηκαν αμέσως ότι το νέο μοντέλο έμοιαζε «κρύο» και η OpenAI σύντομα ανακοίνωσε ότι είχε κάνει ξανά το GPT-5 «πιο ζεστό και φιλικό». Ουσιαστικά, δεν μπορούμε να βασιστούμε στις εταιρείες τεχνολογίας για να δώσουν προτεραιότητα στην ευημερία μας έναντι των κερδών τους. Όταν η κολακεία και η δουλοπρέπεια οδηγεί στην εμπλοκή και η εμπλοκή στην αύξηση των εσόδων, οι πιέσεις της αγοράς υπερισχύουν της ασφάλειας.

Δεν είναι εύκολο να εξαλείψουμε την κολακεία ούτως ή άλλως. Αν τα chatbot αμφισβητούσαν όλα όσα λέγαμε, θα ήταν ανυπόφορα και άχρηστα. Όταν λέω «Νιώθω άγχος για την παρουσίασή μου», δεν έχουν την ενσωματωμένη εμπειρία στον κόσμο για να ξέρουν αν πρέπει να αντιδράσουν, επομένως είναι απαραίτητη κάποια συμφωνία για να λειτουργήσουν.

Ίσως θα ήταν καλύτερα να αναρωτηθούμε γιατί οι άνθρωποι στρέφονται εξαρχής σε chatbots Τεχνητής Νοημοσύνης. Όσοι βιώνουν ψύχωση αναφέρουν ότι αντιλαμβάνονται πτυχές του κόσμου στις οποίες μόνο οι ίδιοι έχουν πρόσβαση, κάτι που μπορεί να τους κάνει να αισθάνονται βαθιά απομονωμένοι και μοναχικοί. Τα chatbots καλύπτουν αυτό το κενό, αλληλεπιδρώντας με οποιαδήποτε πραγματικότητα τους παρουσιάζεται.

Αντί να προσπαθούμε να τελειοποιήσουμε την τεχνολογία, ίσως θα έπρεπε να στραφούμε πίσω στους κοινωνικούς κόσμους όπου θα μπορούσε να αντιμετωπιστεί η απομόνωση. Το άγχος του Πιερ για το κλίμα, η εμμονή του Τσάιλ με την ιστορική αδικία, η κρίση του Τόρες μετά τη διάλυση — όλα αυτά απαιτούσαν κοινότητες που θα μπορούσαν να τους υποστηρίξουν και να τους υποστηρίξουν.

Ίσως χρειαστεί να επικεντρωθούμε περισσότερο στην οικοδόμηση κοινωνικών κόσμων όπου οι άνθρωποι δε θα αισθάνονται την ανάγκη να αναζητούν μηχανές για να επιβεβαιώσουν την πραγματικότητά τους εξαρχής. Θα ήταν μεγάλη ειρωνεία αν η αύξηση των παραληρητικών ιδεών που προκαλούνται από τα chatbot μας οδηγήσει προς αυτή την κατεύθυνση.


*Η Λούσι Όσλερ είναι λέκτορας Φιλοσοφίας στο Πανεπιστήμιο του Έξετερ. Το άρθρο της αναδημοσιεύεται αυτούσιο στο Liberal μέσω άδειας Creative Commons από τον ιστότοπο TheConversation.com.

The Conversation