Στον πόλεμο, η πληροφορία δεν είναι απλώς «ρεπορτάζ»· είναι πεδίο μάχης. Τις τελευταίες ημέρες, ένας ισχυρισμός που θα έπρεπε να είναι αδύνατο να σταθεί χωρίς επιβεβαίωση, ότι ο πρωθυπουργός του Ισραήλ «σκοτώθηκε», απέκτησε ψηφιακή ζωή, ανακυκλώθηκε σαν «είδηση», και γέννησε μια δεύτερη, εξίσου τοξική εκδοχή: ότι η ισραηλινή κυβέρνηση δήθεν χρησιμοποιεί τεχνητή νοημοσύνη για τον να «παριστάνει» ως ζωντανό.
Η ταχύτητα δεν ήταν τυχαία. Το αφήγημα έπεσε πάνω σε τρεις συγκυρίες: την κλιμάκωση της σύγκρουσης με το Ιράν μετά την 28η Φεβρουαρίου 2026, τους περιορισμούς που μειώνουν την ορατότητα της ηγεσίας σε καιρούς πολέμου, και μια «πανικόβλητη» κουλτούρα deepfakes που κάνει μέρος του κοινού να βλέπει «AI παντού», ακόμη και σε σκιές, θολούρες και συμπίεση βίντεο.
Η γέννηση μιας φήμης
Το πρώτο τεκμηριώσιμο ίχνος της ιστορίας δεν ήταν ένα ανώνυμο tweet, αλλά ένας ισχυρισμός συνδεδεμένος με κρατικά/ημιεπίσημα κανάλια. Στις 2 Μαρτίου 2026, η ιρανική πλευρά προώθησε αφήγημα ότι πλήγμα στην Ιερουσαλήμ άφησε «αδιευκρίνιστη» την τύχη του πρωθυπουργού. Το γραφείο του ιδίου απάντησε «fake news» αμέσως, ενώ δεν υπήρχαν καμία αναφορά για πλήγματα στην πόλη. Το σήμα μεταφέρθηκε μέσω του Fars News Agency.
Την ίδια ημέρα, το Iran International σημείωσε ότι, παρότι οι Φρουροί της Επανάστασης (IRGC) ισχυρίστηκαν ότι «χτύπησαν» γραφείο του Ισραηλινού πρωθυπουργού, δεν υπήρχε καμία ένδειξη ότι πύραυλοι έφτασαν ποτέ στο Ισραήλ. Αυτή η διάσταση — μεγάλος ισχυρισμός, μηδενικό αποδεικτικό υλικό — είναι το κλασικό πρώτο βήμα μιας επιχείρησης «σύγχυσης»: η είδηση δεν χρειάζεται να αποδειχθεί· αρκεί να ειπωθεί και να αναπαραχθεί.
Στις 10 Μαρτίου, το Tasnim News Agency πήγε τη φόρμουλα ένα βήμα παραπέρα: δημοσίευσε κείμενο που οδηγούσε την κοινή γνώμη από το «ίσως χτυπήθηκε» στο «ίσως είναι νεκρός ή τραυματισμένος», επικαλούμενο ως «ενδείξεις» αποσπασματικά στοιχεία, όπως λιγότερες εμφανίσεις του πρωθυπουργού και ακυρώσεις επισκέψεων τρίτων. Καμία απόδειξη για τραυματισμό ή θάνατο δεν παρείχθηκε.
Η μηχανή της παραπληροφόρησης
Για να καταλάβουμε γιατί μια τέτοια «είδηση» πολλαπλασιάζεται, πρέπει να δούμε τη μηχανική της διάδοσης. Σε πολεμικές συνθήκες, η παραπληροφόρηση λειτουργεί συχνά σαν «firehose»: πολύς όγκος, πολλαπλά κανάλια, επανάληψη, και αδιαφορία για συνέπεια ή επαλήθευση. Η προπαγάνδα κερδίζει το «πλεονέκτημα της πρώτης εντύπωσης», ενώ η διάψευση είναι πιο αργή και απαιτεί κόπο.
Εδώ διακρίνεται μια χαρακτηριστική διαδρομή διάδοσης «από πάνω προς τα κάτω». Ισχυρισμοί που προέρχονται από ή συνδέονται με κρατικές δομές αναπαράγονται στη συνέχεια από δίκτυα λογαριασμών και καναλιών στα κοινωνικά μέσα, τα οποία τους ανακυκλώνουν, τους παραλλάσσουν και συχνά τους «ενισχύουν» αφηγηματικά για μεγαλύτερο engagement. Οι φήμες ότι ο Νετανιάχου ήταν «νεκρός ή σοβαρά τραυματισμένος» εμφανίστηκαν αρχικά σε ιρανικά κρατικά μέσα ενημέρωσης και στη συνέχεια διαχύθηκαν ταχύτατα στο εσωτερικό πληροφοριακό οικοσύστημα του Ιράν, λειτουργώντας ως κύμα διάχυσης που τροφοδοτούσε συνεχώς νέες παραλλαγές του ίδιου ισχυρισμού.
Η διασπορά και διάδοση επιταχύνθηκε από δύο πλατφόρμες. Η Telegram προσφέρει γρήγορη διάχυση σε μεγάλα κανάλια/δίκτυα με χαλαρή εποπτεία: ένα ανώνυμο post μπορεί να γίνει παγκόσμια ιστορία πριν υπάρξει ποτέ έλεγχος. Η X, από την άλλη, προσφέρει το τέλειο περιβάλλον για σπινθήρες που γίνονται πυρκαγιά: αλγόριθμοι διάχυσης, κίνητρα προβολής, και μια οικονομία προσοχής που ευνοεί το σοκαριστικό. Μετά την έναρξη των αμερικανοισραηλινών επιθέσεων στις 28 Φεβρουαρίου, η πλατφόρμα κατακλύστηκε από παραπλανητικό/ψευδές υλικό, με ενεργά AI εικόνες/βίντεο και ακόμη και το chatbot Grok να αποδεικνύεται μερικές φορές και με λανθασμένους χειρισμούς από τους χρήστες ικανό να «επικυρώνει» λάθος ισχυρισμούς αντί να τους φρενάρει.
Η συνωμοσία των «έξι δαχτύλων»
Το πιο χαρακτηριστικό στιγμιότυπο της υπόθεσης δεν ήταν ένας «πύραυλος», αλλά ένα καρέ. Αφετηρία: η πρώτη συνέντευξη Τύπου του Νετανιάχου από την έναρξη του πολέμου, στις 12 Μαρτίου, μέσω video link, με σειρήνες να ηχούν την ώρα που μιλούσε.
Σε αυτό το περιβάλλον, κυκλοφόρησε στο X ένα αποσπασματικό στιγμιότυπο από το βίντεο, με κύκλους/βέλη πάνω στο χέρι του πρωθυπουργού, ώστε να φαίνεται πως έχει «έξι δάχτυλα». Η «διάγνωση» ήταν άμεση: «AI-generated», άρα «η κυβέρνηση κρύβει ότι είναι νεκρός». Το PolitiFact όμως έκανε την αυτονόητη κίνηση που οι θεωρίες συνωμοσίας αποφεύγουν: έλεγξε ολόκληρο το βίντεο. Συμπέρασμα: τα χέρια φαίνονται φυσιολογικά και πιθανότατα ένα «τρικ φωτός»/σκιάς στην παλάμη δημιούργησε την ψευδαίσθηση «έξτρα δακτυλιού».
Το επεισόδιο δείχνει κάτι βαθύτερο: η τεχνολογία των deepfakes δεν γεννά μόνο ψεύτικα βίντεο· γεννά και μια νέα μορφή δυσπιστίας που επιτρέπει σε κακόβουλους δρώντες να βαφτίζουν αληθινό υλικό «AI». Το φαινόμενο αυτό αναφέρεται ως «liar's dividend»: όσο αυξάνεται η επίγνωση ότι «τα πάντα μπορούν να είναι deepfake», τόσο αυξάνεται και η αποτελεσματικότητα ενός ψέματος που απλώς ισχυρίζεται ότι κάτι είναι deepfake.
Πώς αποδομήθηκε η ιστορία
Η αποδόμηση της φήμης έγινε με την παλιά, αλλά δύσκολη συνταγή: συνέπεια, πολλαπλές επιβεβαιώσεις, και επιστροφή σε πρωτογενές πηγές. Στο τεχνικό σκέλος, το PolitiFact προχώρησε από το screenshot στο πλήρες βίντεο και έδειξε ότι δεν υπάρχει κανένα μοτίβο AI ούτε επαναλαμβανόμενη παραμόρφωση· απλώς ένα μεμονωμένο οπτικό τέχνασμα.
Στο επιχειρησιακό/OSINT (Open Source Intelligence) σκέλος, στις 15 Μαρτίου ο Νετανιάχου ανέβασε βίντεο από καφέ στα περίχωρα της Ιερουσαλήμ, όπου αστειεύεται για τις φήμες. Η Reuters επαλήθευσε την τοποθεσία συγκρίνοντας το εσωτερικό με διαθέσιμο υλικό και επιβεβαίωσε την ημερομηνία από πολλαπλά βίντεο/φωτογραφίες που ανάρτησε το ίδιο το καφέ εκείνη την ημέρα. Επιπλέον, ανεξάρτητα από αυτό, υπήρχε ένα σύνολο δημόσιων ενδείξεων: εμφάνιση σε συνέντευξη Τύπου στις 12 Μαρτίου, επισκέψεις σε πληγείσες πόλεις, νοσοκομείο και στρατιωτικές βάσεις εν μέσω συνθηκών περιορισμένης πρόσβασης ΜΜΕ.
Η απάντηση του Ισραήλ
Η επίσημη γραμμή της ισραηλινής πλευράς κινήθηκε σε δύο επίπεδα. Αφενός, άμεση απόρριψη: ήδη από τις 2 Μαρτίου, όταν ιρανικοί ισχυρισμοί περί αδιευκρίνιστης τύχης του πρωθυπουργού εμφανίστηκαν, το γραφείο του είχε ήδη απαντήσει «fake news». Αφετέρου, επίδειξη συνέχειας της διακυβέρνησης.
Στις 15 Μαρτίου, η απάντηση πήρε πιο «ανθρώπινη» μορφή: ένα βίντεο χαμηλής έντασης, χωρίς διάγγελμα, αλλά με χιούμορ, σε ένα καφέ στα περίχωρα της Ιερουσαλήμ. Η επιλογή αυτή δεν ήταν τυχαία: σε συνθήκες πολέμου, όπου η δημόσια εικόνα της ηγεσίας γίνεται πιο σπάνια και πιο «μονταρισμένη» από γραφεία Τύπου, η ανθρώπινη ανεπιτήδευτη πραγματικότητα του βίντεο απενεργοποιούσε την υποψία AI χωρίς να στεγευτεί σε απολογισμούς.
Μαθήματα από έναν ψηφιακό πόλεμο πληροφοριών
Αν αυτό το επεισόδιο ήταν απλώς «μια τρελή θεωρία», θα τελείωνε στα σχόλια. Δεν τελείωσε, γιατί εξυπηρετεί στρατηγικές ανάγκες. Η «είδηση» ενός δήθεν νεκρού πρωθυπουργού λειτουργεί ως εργαλείο ψυχολογικού πολέμου: υπόσχεται «αποκεφαλισμό» της αντίπαλης ηγεσίας, επιχειρεί να επηρεάσει ηθικό/αντοχή, και κυρίως σπέρνει σύγχυση σε ένα κοινό που ήδη ζει σε καθεστώς φόβου και πληροφορικής υπερφόρτωσης.
Η άλλη, πιο σύγχρονη πλευρά είναι ο «AI-πανικός». Η σύγκρουση συνοδεύτηκε από έντονη παρουσία AI-παραγόμενου υλικού, καθώς και από άστοχες διαδικασίες επιβεβαίωσης (verification) ακόμη και από εργαλεία που υποτίθεται ότι βοηθούν τον χρήστη να ξεχωρίσει αλήθεια και ψέμα. Σε τέτοιο περιβάλλον, η κατηγορία «deepfake» γίνεται όπλο: δεν είναι απαραίτητο να αποδείξεις ότι κάτι είναι ψεύτικο· αρκεί να το υπονοήσεις, να το δέσεις με ένα screenshot, και να αφήσεις την αμφιβολία να δουλέψει υπέρ σου.
Τρίτο μάθημα: οι πλατφόρμες «μηνυμάτων» είναι πλέον πρωτογενείς αγωγοί πληροφορίας, όχι απλώς χώροι συζήτησης. Ενα ανώνυμο post στο Telegram μπορεί να περάσει σε ΜΜΕ και να αποκτήσει διεθνή υπόσταση πριν ελεγχθεί. Αυτό δεν αφορά μόνο τη Ρωσία· είναι το λειτουργικό μοντέλο της σύγχρονης παραπληροφόρησης για κάθε θέατρο σύγκρουσης.
Η «άμυνα» για τον αναγνώστη δεν είναι να γίνει ειδικός στα pixels. Είναι να υιοθετήσει πειθαρχία: να ζητά πρωτογενές πηγές, να εμπιστεύεται οργανισμούς που εξηγούν τη μεθοδολογία τους, και να αντιμετωπίζει με καχυποψία κάθε αφήγημα που βασίζεται σε «κενά παρουσίας» ή σε «σήματα» χωρίς αποδείξεις. Ακριβώς το μοτίβο που αξιοποίησε η Tasnim για να σπρώξει την υπόνοια στην κατεύθυνση «θάνατος/τραυματισμός».
*Ο Γιαακώβ Χαλιώτης είναι ιδρυτής της συμβουλευτικής εταιρείας Group of Verified Intelligence και τα τελευταία δεκαπέντε χρόνια ζει και εργάζεται στο Λονδίνο, στο Ηνωμένο Βασίλειο. Στη διάρκεια της επαγγελματικής του πορείας έχει δραστηριοποιηθεί σε μια σειρά από μεγάλους οργανισμούς, όπου ηγήθηκε ομάδων ψηφιακής επικοινωνίας, αξιοποιώντας digital analytics και insights, ώστε Διευθύνοντες Σύμβουλοι, Γενικοί Διευθυντές κα ακόμα Υπουργοί της βρετανικής κυβέρνησης να μπορούν να λαμβάνουν τεκμηριωμένες και αποτελεσματικές αποφάσεις.
Έχει διατελέσει Digital Strategy Manager στο National Lottery του Ηνωμένου Βασιλείου κατά τη διάρκεια των Ολυμπιακών Αγώνων του Ρίο το 2016, εργάστηκε στο Υπουργείο Παιδείας της Αγγλίας την περίοδο της πανδημίας και, στη συνέχεια, ανέλαβε τον ρόλο του Global Brand Analytics Lead στη Shell, την πετρελαϊκή εταιρεία.
Γεννήθηκε και μεγάλωσε στην Κύπρο, με καταγωγή από την Κεφαλονιά. Είναι ενεργό μέλος του Jewish Diplomatic Corps του Παγκόσμιου Εβραϊκού Συνεδρίου, όπου συμβάλλει στην παγκόσμια εβραϊκή διπλωματική δράση, με έμφαση στην αντιμετώπιση του αντισημιτισμού και του αντισιωνισμού.
