Deepfake: Τα τρία απειλητικά σενάρια που αντιμετωπίζουν οι χρήστες το 2023
Shutterstock
Shutterstock

Deepfake: Τα τρία απειλητικά σενάρια που αντιμετωπίζουν οι χρήστες το 2023

Κατά περίπου 900% αυξάνεται ετησίως ο αριθμός των deepfake βίντεο στο διαδίκτυο, αναφέρει το Παγκόσμιο Οικονομικό Φόρουμ. Πολλές περιπτώσεις απάτης μέσω deepfake έχουν πάρει μεγάλη δημοσιότητα, με τις σχετικές αναφορές να κάνουν λόγο για παρενόχληση, εκδίκηση και απόπειρα απάτης με κρυπτονομίσματα κ.λπ. Τώρα οι ερευνητές της Kaspersky ρίχνουν φως στις τρεις κορυφαίες απάτες που χρησιμοποιούν deepfakes και τις οποίες πρέπει να προσέχετε. 

Η χρήση των νευρωνικών δικτύων (neural networks) και της βαθιάς μάθησης (deep learning, εξ ου και το «deep fake») έχουν επιτρέψει σε χρήστες από όλον τον κόσμο να βασιστούν σε εικόνες, βίντεο και ηχητικό υλικό, ώστε να δημιουργήσουν ρεαλιστικά βίντεο ενός ατόμου στα οποία το πρόσωπο ή το σώμα του έχουν τροποποιηθεί ψηφιακά, με αποτέλεσμα να φαίνεται ότι είναι κάποιος άλλος.

Αυτά τα παραποιημένα βίντεο και εικόνες χρησιμοποιούνται συχνά για κακόβουλους σκοπούς, όπως είναι η διάδοση ψευδών πληροφοριών.

Οικονομική απάτη

Τα deepfakes μπορούν να χρησιμοποιηθούν για κοινωνική μηχανική (social engineering), όπου οι κακόβουλοι χρήστες χρησιμοποιούν τροποποιημένες εικόνες για να υποδυθούν διασημότητες, ώστε να δελεάσουν τα θύματα να πέσουν στην «παγίδα» τους. 

Πορνογραφικά deepfakes 

Μια άλλη χρήση των deepfakes είναι η παραβίαση της ιδιωτικής ζωής ενός ατόμου. Τα deepfake βίντεο μπορούν να δημιουργηθούν με την προσθήκη του προσώπου ενός ατόμου σε ένα πορνογραφικό βίντεο, προκαλώντας βλάβη και δυσφορία. 

Επιχειρηματικοί κίνδυνοι 

Συχνά, τα deepfakes χρησιμοποιούνται ακόμη και για να πλήξουν και επιχειρήσεις με τρόπους όπως ο εκβιασμός στελεχών της εταιρείας και βιομηχανική κατασκοπεία. Για παράδειγμα, υπάρχει μια γνωστή περίπτωση όπου εγκληματίες του κυβερνοχώρου κατάφεραν να εξαπατήσουν έναν διευθυντή τράπεζας στα Ηνωμένα Αραβικά Εμιράτα και να κλέψουν 35 εκατομμύρια δολάρια, χρησιμοποιώντας ένα deepfake φωνής.

Μια μικρή μόνο ηχογράφηση της φωνής του αφεντικού του εργαζόμενου ήταν αρκετή για να δημιουργηθεί ένα πειστικό deepfake. Σε μια άλλη περίπτωση, απατεώνες προσπάθησαν να ξεγελάσουν τη μεγαλύτερη πλατφόρμα κρυπτονομισμάτων, την Binance.

Το στέλεχος της Binance εξεπλάγη όταν άρχισε να λαμβάνει ευχαριστήρια μηνύματα σχετικά με μια συνάντηση Zoom στην οποία δεν συμμετείχε ποτέ. Μόνο με τη χρήση των online διαθέσιμων εικόνων του, οι απατεώνες κατάφεραν να δημιουργήσουν ένα deepfake και να το χρησιμοποιήσουν σε μια online συνάντηση, μιλώντας αντί του στελέχους.

Σε γενικές γραμμές, οι απατεώνες που εκμεταλλεύονται τα deepfakes επιδιώκουν την παραπληροφόρηση και τη χειραγώγηση της κοινής γνώμης, τον εκβιασμό ή ακόμη και την κατασκοπεία.

Πηγή φωτ.: Shutterstock

Σύμφωνα με προειδοποίηση του FBI, οι υπεύθυνοι ανθρώπινου δυναμικού βρίσκονται ήδη σε εγρήγορση όσον αφορά τη χρήση deepfakes από υποψηφίους που υποβάλλουν αίτηση για απομακρυσμένη εργασία.

Στην περίπτωση της Binance, οι επιτιθέμενοι χρησιμοποίησαν εικόνες ανθρώπων από το Διαδίκτυο για να δημιουργήσουν deepfakes και ήταν σε θέση να προσθέσουν ακόμη και τις φωτογραφίες αυτών των ανθρώπων σε βιογραφικά σημειώματα. Αν καταφέρουν να ξεγελάσουν με αυτόν τον τρόπο τους υπεύθυνους ανθρώπινου δυναμικού και αργότερα λάβουν μια προσφορά, μπορούν να κλέψουν δεδομένα του εργοδότη.

Είναι επίσης σημαντικό να ληφθεί υπόψη ότι τα deepfakes απαιτούν υψηλή χρηματοδότηση αφού αποτελούν μια πολύ ακριβή μορφή απάτης. Παλαιότερη έρευνα της Kaspersky αποκάλυψε τους τύπους των deepfakes που πωλούνται στο darknet και το κόστος τους.

Εάν ένας απλός χρήστης βρει ένα απλό λογισμικό στο διαδίκτυο και προσπαθήσει να φτιάξει ένα deepfake, το αποτέλεσμα θα είναι μη ρεαλιστικό. Λίγοι άνθρωποι θα αγοράσουν ένα deepfake κακής ποιότητας: θα παρατηρήσουν καθυστερήσεις στην έκφραση του προσώπου ή μια θόλωση του σχήματος του πηγουνιού.

Πηγή φωτ.: Shutterstock

Επομένως, όταν οι εγκληματίες του κυβερνοχώρου προετοιμάζουν μια τέτοια απατή, χρειάζονται έναν μεγάλο όγκο δεδομένων με φωτογραφίες και αποσπάσματα βίντεο από το άτομο το οποίο θέλουν να αντιγράψουν. Οι διαφορετικές γωνίες, η φωτεινότητα, οι εκφράσεις του προσώπου, όλα παίζουν μεγάλο ρόλο στην τελική ποιότητα. Για να είναι το αποτέλεσμα ρεαλιστικό, είναι απαραίτητη η σύγχρονη ισχύς των υπολογιστών και του λογισμικού.

Όλα αυτά απαιτούν τεράστια ποσότητα πόρων και είναι διαθέσιμα μόνο σε μικρό αριθμό κυβερνοεγκληματιών. Ως εκ τούτου, παρ' όλο τον κίνδυνο που μπορεί να προκαλέσει ένα deepfake, εξακολουθεί να είναι μια εξαιρετικά σπάνια απειλή και μόνο ένας μικρός αριθμός αγοραστών θα μπορέσει να το αντέξει οικονομικά - άλλωστε, η τιμή για ένα λεπτό ενός deepfake μπορεί να ξεκινά από 20.000 δολάρια ΗΠΑ.