Ο Τύπος χρησιμοποιεί πάντα μεταφορές και παραδείγματα για να απλοποιήσει σύνθετα ζητήματα και να τα καταστήσει πιο κατανοητά. Με την άνοδο των chatbots που λειτουργούν με Τεχνητή Νοημοσύνη (AI), η τάση να ανθρωποποιείται η τεχνολογία έχει ενταθεί, είτε μέσω συγκρίσεων με την ιατρική, είτε μέσω γνωστών παρομοιώσεων, είτε μέσω δυστοπικών σεναρίων.
Αν και πίσω από την AI δεν κρύβεται τίποτα περισσότερο από κώδικα και κυκλώματα, τα μέσα ενημέρωσης συχνά απεικονίζουν τους αλγόριθμους ως έχοντες ανθρώπινες ιδιότητες. Τι χάνουμε, λοιπόν, και τι κερδίζουμε, όταν η AI παύει να είναι μια απλή συσκευή και γίνεται, γλωσσικά μιλώντας, ένα ανθρώπινο alter ego, μια οντότητα που «σκέφτεται», «αισθάνεται» και ακόμη και «νοιάζεται»;
Ο ψηφιακός εγκέφαλος
Ένα άρθρο στην ισπανική εφημερίδα El País παρουσίασε το κινεζικό μοντέλο τεχνητής νοημοσύνης DeepSeek ως έναν «ψηφιακό εγκέφαλο» που «φαίνεται να κατανοεί αρκετά καθαρά το γεωπολιτικό πλαίσιο της γέννησής του».
Αυτός ο τρόπος γραφής αντικαθιστά την τεχνική ορολογία – το θεμελιώδες μοντέλο, τις παραμέτρους, το GPU κ.λπ. – με ένα όργανο που όλοι αναγνωρίζουμε ως τον πυρήνα της ανθρώπινης νοημοσύνης. Αυτό έχει δύο αποτελέσματα. Επιτρέπει στους ανθρώπους να κατανοήσουν το μέγεθος και τη φύση της εργασίας («σκέψη») που εκτελεί η μηχανή. Ωστόσο, υποδηλώνει επίσης ότι η τεχνητή νοημοσύνη έχει «μυαλό» ικανό να κρίνει και να θυμάται συμφραζόμενα – κάτι που σήμερα απέχει πολύ από την τεχνική πραγματικότητα.
Αυτή η μεταφορά ταιριάζει στην κλασική θεωρία των εννοιολογικών μεταφορών των Τζορτζ Λάκοφ και Μαρκ Τζόνσον, η οποία υποστηρίζει ότι οι έννοιες βοηθούν τους ανθρώπους να κατανοήσουν την πραγματικότητα και τους επιτρέπουν να σκέφτονται και να ενεργούν. Όταν μιλάμε για τεχνητή νοημοσύνη, αυτό σημαίνει ότι μετατρέπουμε δύσκολες, αφηρημένες ικανότητες («στατιστικός υπολογισμός») σε γνωστές («σκέψη»).
Αν και ενδεχομένως χρήσιμη, αυτή η τάση ενέχει τον κίνδυνο να θολώσει τη διαφορά μεταξύ στατιστικής συσχέτισης και σημασιολογικής κατανόησης. Ενισχύει την ψευδαίσθηση ότι τα υπολογιστικά συστήματα μπορούν πραγματικά να «γνωρίζουν» κάτι.
Μηχανές με συναισθήματα
Τον Φεβρουάριο του 2025, το ABC δημοσίευσε μια έκθεση με θέμα «συναισθηματική Τεχνητή Νοημοσύνη» που έθετε το ερώτημα: «Θα έρθει η μέρα που θα είναι ικανές να αισθάνονται;» Το κείμενο αναφερόταν στην πρόοδο που είχε σημειώσει μια ισπανική ομάδα που προσπαθούσε να εξοπλίσει συστήματα τεχνητής νοημοσύνης με «ψηφιακό μεταιχμιακό σύστημα».
Εδώ, η μεταφορά γίνεται ακόμη πιο τολμηρή. Ο αλγόριθμος δεν σκέφτεται πλέον απλώς, αλλά μπορεί επίσης να υποφέρει ή να νιώθει χαρά. Αυτή η σύγκριση δραματοποιεί την καινοτομία και την κάνει πιο προσιτή στον αναγνώστη, αλλά ενέχει εννοιολογικά λάθη: εξ ορισμού, τα συναισθήματα συνδέονται με τη σωματική ύπαρξη και την αυτογνωσία, κάτι που το λογισμικό δεν μπορεί να έχει. Η παρουσίαση της τεχνητής νοημοσύνης ως «συναισθηματικού υποκειμένου» καθιστά ευκολότερο να απαιτείται από αυτήν ενσυναίσθηση ή να κατηγορείται για σκληρότητα. Επομένως, μετατοπίζει το ηθικό επίκεντρο από τους ανθρώπους που σχεδιάζουν και προγραμματίζουν τη μηχανή στην ίδια τη μηχανή.
Ένα παρόμοιο άρθρο ανέφερε ότι «αν η τεχνητή νοημοσύνη φαίνεται ανθρώπινη, έχει συναισθήματα όπως ο άνθρωπος και ζει όπως ο άνθρωπος... τι σημασία έχει αν είναι μηχανή;»
Ρομπότ που φροντίζουν
Τα ανθρωποειδή ρομπότ συχνά παρουσιάζονται με αυτούς τους όρους. Ένα δημοσίευμα στην εφημερίδα El País σχετικά με την προώθηση των ανδροειδών για τη φροντίδα ηλικιωμένων στην Κίνα τα περιέγραψε ως μηχανές που «φροντίζουν τους ηλικιωμένους». Με τη φράση «φροντίζουν», το άρθρο αναφέρεται στο καθήκον της οικογένειας να φροντίζει τους ηλικιωμένους, και το ρομπότ παρουσιάζεται ως συγγενής που θα παρέχει την συναισθηματική συντροφιά και τη σωματική βοήθεια που προηγουμένως παρείχε η οικογένεια ή το νοσηλευτικό προσωπικό.
Αυτή η μεταφορά του φροντιστή δεν είναι καθόλου κακή. Νομιμοποιεί την καινοτομία σε ένα πλαίσιο δημογραφικής κρίσης, ενώ ταυτόχρονα κατευνάζει τους τεχνολογικούς φόβους παρουσιάζοντας το ρομπότ ως απαραίτητη υποστήριξη ενόψει της έλλειψης προσωπικού, σε αντίθεση με μια απειλή για τις θέσεις εργασίας.
Ωστόσο, θα μπορούσε να θεωρηθεί ότι συσκοτίζει τα ηθικά ζητήματα που αφορούν την ευθύνη όταν η φροντίδα γίνεται από μια μηχανή που διαχειρίζεται ιδιωτικές εταιρείες – για να μην αναφέρουμε την ήδη επισφαλή φύση αυτού του είδους εργασίας.
Ο βοηθός του γιατρού
Σε άλλο δημοσίευμα της El País, τα μεγάλα γλωσσικά μοντέλα παρουσιάστηκαν ως βοηθοί ή «επεκτάσεις» των γιατρών, ικανά να εξετάζουν ιατρικά αρχεία και να προτείνουν διαγνώσεις. Η μεταφορά του «έξυπνου νυστεριού» ή του «ακούραστου ειδικευόμενου» τοποθετεί την Τεχνητή Νοημοσύνη στο σύστημα υγειονομικής περίθαλψης ως αξιόπιστο συνεργάτη και όχι ως υποκατάστατο.
Γιατί ο Τύπος βασίζεται στις μεταφορές;
Πέρα από το διακοσμητικό τους χαρακτήρα, αυτές οι μεταφορές εξυπηρετούν τουλάχιστον τρεις σκοπούς. Πρώτον και κύριον, διευκολύνουν την κατανόηση. Η εξήγηση των βαθιών νευρωνικών δικτύων απαιτεί χρόνο και τεχνική ορολογία, αλλά η αναφορά σε «εγκέφαλους» είναι πιο εύκολα κατανοητή για τους αναγνώστες.
Δεύτερον, δημιουργούν δραματικότητα στην αφήγηση. Η δημοσιογραφία ευδοκιμεί σε ιστορίες με πρωταγωνιστές, συγκρούσεις και αποτελέσματα. Η ανθρωποποίηση της Τεχνητής Νοημοσύνης δημιουργεί όλα αυτά, μαζί με ήρωες και κακούς, μέντορες και μαθητευόμενους.
Τρίτον, οι μεταφορές χρησιμεύουν στη διατύπωση ηθικών κρίσεων. Μόνο αν ο αλγόριθμος μοιάζει με ένα υποκείμενο μπορεί να θεωρηθεί υπεύθυνος ή να του αποδοθεί πίστωση.
Ωστόσο, αυτές οι ίδιες μεταφορές μπορούν να εμποδίσουν τη δημόσια συζήτηση. Αν η Τεχνητή Νοημοσύνη «αισθάνεται», τότε είναι λογικό να ρυθμίζεται όπως οι πολίτες. Ομοίως, αν θεωρείται ότι έχει ανώτερη νοημοσύνη από τη δική μας, φαίνεται φυσικό να αποδεχόμαστε την εξουσία της.
Πώς να μιλάμε για την Τεχνητή Νοημοσύνη
Η κατάργηση αυτών των μεταφορών θα ήταν αδύνατη, ούτε είναι κάτι που πρέπει να επιδιώξουμε. Η μεταφορική γλώσσα είναι ο τρόπος με τον οποίο οι άνθρωποι κατανοούν το άγνωστο, αλλά το σημαντικό είναι να τη χρησιμοποιούμε κριτικά. Για το σκοπό αυτό, προσφέρουμε μερικές συστάσεις για συγγραφείς και συντάκτες:
- Πρώτον, είναι σημαντικό να προσθέτουμε τεχνικά αντίβαρα. Αυτό σημαίνει ότι, μετά την εισαγωγή της μεταφοράς, πρέπει να εξηγούμε σύντομα αλλά σαφώς τι κάνει και τι δεν κάνει το εν λόγω σύστημα.
Είναι επίσης σημαντικό να αποφεύγουμε να αποδίδουμε στην Τεχνητή Νοημοσύνη απόλυτη, ανθρώπινη ικανότητα δράσης. Αυτό σημαίνει ότι φράσεις όπως «η Τεχνητή Νοημοσύνη αποφασίζει» πρέπει να συνοδεύονται από διευκρινίσεις: το σύστημα «προτείνει»; Ο αλγόριθμος «ταξινομεί»;
- Ένα άλλο βασικό στοιχείο είναι να αναφέρονται υπεύθυνες, ανθρώπινες πηγές. Η αναφορά των ονομάτων των προγραμματιστών και των ρυθμιστικών αρχών μας υπενθυμίζει ότι η τεχνολογία δεν προκύπτει από το κενό.
- Ομοίως, πρέπει να διαφοροποιούμε τις μεταφορές και να εξερευνούμε λιγότερο ανθρωπομορφικές εικόνες – για παράδειγμα, «μικροσκόπιο» ή «στατιστική μηχανή» – που μπορούν να εμπλουτίσουν τη συζήτηση.
Ενώ η «ανθρωποποίηση» της Τεχνητής Νοημοσύνης στον Τύπο βοηθά τους αναγνώστες να εξοικειωθούν με την πολύπλοκη τεχνολογία, όσο περισσότερο η Τεχνητή Νοημοσύνη μοιάζει με εμάς, τόσο πιο εύκολο είναι να προβάλλουμε φόβους, ελπίδες και ευθύνες στους διακομιστές και τις γραμμές κώδικα.
Καθώς αυτή η τεχνολογία εξελίσσεται περαιτέρω, το καθήκον που αντιμετωπίζουν οι δημοσιογράφοι – καθώς και οι αναγνώστες τους – θα είναι να βρουν μια λεπτή ισορροπία μεταξύ της υποβλητικής δύναμης της μεταφοράς και της εννοιολογικής ακρίβειας που χρειαζόμαστε για να συνεχίσουμε να έχουμε ενημερωμένες συζητήσεις για το μέλλον.
*Ο Xosé López-García είναι καθηγητής Δημοσιογραφίας στο Πανεπιστήμιο του Σαντιάγο ντε Κομποστέλα και συντονιστής του ερευνητικού ομάδας “Novos Medios”, με εξειδίκευση στον ψηφιακό πολιτισμό και τη διαδικτυακή δημοσιογραφία.
Ο Cristian Augusto Gonzalez Arias είναι καθηγητής Γλωσσολογίας στην Ποντιφική Καθολική Πανεπιστήμιο της Βαλπαραΐσο, με διδακτορικές σπουδές στη Γλωσσολογία (Χιλή) και στις Γλωσσικές Επιστήμες (Γαλλία).
Το άρθρο τους αναδημοσιεύεται αυτούσιο στο Liberal μέσω άδειας Creative Commons από τον ιστότοπο TheConversation.com.
