Τα deepfakes είναι εικόνες, βίντεο ή ηχητικά αποσπάσματα που μιμούνται γνωστά ή έμπιστα πρόσωπα.
Οι υποστηριζόμενες από τεχνητή νοημοσύνη πλαστές μιμήσεις τύπου deepfake γίνονται όλο και πιο δύσκολο να ανιχνευθούν, προειδοποιεί το FBI
Το Ομοσπονδιακό Γραφείο Ερευνών στην Ουάσιγκτον στις 7 Αυγούστου 2025. Madalina Kilroy/The Epoch Times
Ναβίν Ατραπούλι
Το ολοένα και πιο δύσκολο να εντοπιστεί περιεχόμενο τύπου deepfake που δημιουργείται με τεχνητή νοημοσύνη αξιοποιείται από εγκληματίες για να υποδύονται έμπιστα πρόσωπα, ανέφεραν το FBI και η Αμερικανική Ένωση Τραπεζιτών (ABA) σε έκθεση που δημοσιεύθηκε στις 3 Σεπτεμβρίου.
Στο ενημερωτικό γράφημα «Απάτες Μέσω Deepfake Μέσων», το FBI ανέφερε ότι οι απάτες που στοχεύουν Αμερικανούς βρίσκονται σε έξαρση. Από το 2020, η υπηρεσία έχει λάβει περισσότερες από 4,2 εκατομμύρια αναφορές για απάτες, που ανέρχονται σε απώλειες ύψους 50,5 δισεκατομμυρίων δολαρίων. «Οι απάτες με πλαστούς μιμητές αυξάνονται ιδιαίτερα. … Οι εγκληματίες χρησιμοποιούν deepfakes, δηλαδή μέσα που δημιουργούνται ή τροποποιούνται από τεχνητή νοημοσύνη, για να κερδίσουν την εμπιστοσύνη σας και να σας εξαπατήσουν, αποσπώντας τα χρήματά σας που κερδίσατε με κόπο.»
Το περιεχόμενο τύπου deepfake μπορεί να περιλαμβάνει αλλοιωμένες εικόνες, ηχητικά ή βίντεο. Οι απατεώνες μπορεί να προσποιούνται ότι είναι μέλη της οικογένειας, φίλοι ή δημόσια πρόσωπα, όπως διασημότητες, εκπρόσωποι των αρχών επιβολής του νόμου ή κρατικοί αξιωματούχοι, προειδοποίησε το FBI.
«Τα deepfakes γίνονται όλο και πιο εξελιγμένα και πιο δύσκολο να εντοπιστούν», δήλωσε ο Σαμ Κουντζουκούντζου, αντιπρόεδρος εκπαίδευσης καταναλωτών στο Ίδρυμα της Αμερικανικής Ένωσης Τραπεζιτών (ABA).
Σύμφωνα με το ενημερωτικό γράφημα, ορισμένες ασυνέπειες στο υλικό που παράγεται από την τεχνητή νοημοσύνη μπορούν να βοηθήσουν στον εντοπισμό των deepfakes.
Όσον αφορά εικόνες ή βίντεο, οι πολίτες πρέπει να προσέχουν πρόσωπα που φαίνονται θολά ή παραμορφωμένα· αφύσκιες σκιές ή φωτισμούς· αν ο ήχος και η εικόνα δεν συγχρονίζονται· αν τα δόντια και τα μαλλιά φαίνονται ρεαλιστικά· και αν το άτομο ανοιγοκλείνει τα μάτια υπερβολικά λίγο ή πολύ. Στην περίπτωση του ηχητικού περιεχομένου, οι πολίτες πρέπει να προσέχουν εάν ο τόνος της φωνής είναι υπερβολικά επίπεδος ή αφύσικος. Το γράφημα ανέφερε τρεις ενδείξεις απάτης μέσω deepfake: απροσδόκητα αιτήματα για χρήματα ή προσωπικές πληροφορίες· συναισθηματική χειραγώγηση με βάση την αίσθηση του κατεπείγοντος ή του φόβου· και μη χαρακτηριστική επικοινωνία από άτομο που φαίνεται να είναι γνωστό.
Για την ασφάλειά τους, η ABA και το FBI συμβούλευσαν τους Αμερικανούς να σκέφτονται πριν απαντήσουν σε συναισθηματικά φορτισμένα ή επείγοντα αιτήματα και να δημιουργούν λέξεις ή φράσεις-κωδικούς για να επιβεβαιώνουν την ταυτότητα των αγαπημένων τους προσώπων.
«Το FBI συνεχίζει να παρατηρεί ανησυχητική αύξηση στις αναφορές απάτης που περιλαμβάνουν μέσα τύπου deepfake», δήλωσε ο Χοσέ Πέρες, βοηθός διευθυντής της Διεύθυνσης Ποινικών Ερευνών του FBI.
«Η ενημέρωση του κοινού σχετικά με αυτήν την αναδυόμενη απειλή είναι το κλειδί για την πρόληψη αυτών των απατών και την ελαχιστοποίηση των συνεπειών τους. Ενθαρρύνουμε τους καταναλωτές να παραμένουν ενήμεροι και να μοιράζονται όσα μαθαίνουν με φίλους και συγγενείς, ώστε να μπορούν να εντοπίζουν τα deepfakes πριν προκαλέσουν ζημιά.»
Σύμφωνα με έκθεση της 6ης Αυγούστου από την εταιρεία κυβερνοασφάλειας Group-IB, η παγκόσμια οικονομική επίπτωση από απάτες που διευκολύνονται μέσω deepfake εκτιμάται ότι θα φτάσει τα 40 δισεκατομμύρια δολάρια έως το 2027.
«Τα κλεμμένα χρήματα σχεδόν ποτέ δεν ανακτώνται: λόγω του ταχύτατου ξεπλύματος μέσω αλυσίδων μεταφοράς χρημάτων από ενδιάμεσους (“money‑mule chains”) και μιγμάτων κρυπτονομισμάτων (“crypto mixers”), ανακτάται λιγότερο από το 5% των κεφαλαίων που χάνονται σε σύνθετες απάτες φωνητικής εξαπάτησης (vishing)», αναφέρεται στην έκθεση.
Η φωνητική εξαπάτηση (vishing), συντομογραφία του “voice phishing”, αφορά απατεώνες που υποδύονται πρόσωπα εξουσίας, όπως κρατικούς αξιωματούχους, τεχνική υποστήριξη ή υπαλλήλους τραπεζών, προκειμένου να εξαπατήσουν τα θύματα και να αποσπάσουν χρήματα.
Σύμφωνα με την Group-IB, η φωνητική εξαπάτηση με χρήση deepfake βασίζεται σε μεγάλο βαθμό σε τακτικές συναισθηματικής χειραγώγησης. Στόχοι τέτοιων απατών είναι στελέχη επιχειρήσεων και εργαζόμενοι στον χρηματοοικονομικό τομέα.
Ηλικιωμένα άτομα και άνθρωποι σε συναισθηματική δυσχέρεια είναι επίσης ευάλωτοι σε τακτικές φωνητικής εξαπάτησης με deepfake, λόγω περιορισμένης ψηφιακής παιδείας και άγνοιας της τεχνολογίας τεχνητής φωνής, πρόσθεσε η Group-IB. Ως εκ τούτου, οι απάτες που περιλαμβάνουν μιμήσεις φωνών οικείων προσώπων ενδέχεται να έχουν μεγαλύτερο αντίκτυπο σε αυτά τα άτομα.
Τον Ιούνιο, ήρθε στο φως περιστατικό απάτης με χρήση deepfake που αφορούσε Καναδό στην όγδοη δεκαετία της ζωής του, ο οποίος έχασε περισσότερα από 15.000 δολάρια σε σχήμα εξαπάτησης που χρησιμοποίησε deepfake του Πρωθυπουργού του Οντάριο, Νταγκ Φορντ.
Στην απάτη, ο Φορντ παρουσιαζόταν να προωθεί λογαριασμό αμοιβαίου κεφαλαίου, τον οποίο το θύμα είδε μέσω διαφήμισης στο Facebook. Όταν το θύμα πάτησε στη διαφήμιση, άνοιξε ένα παράθυρο συνομιλίας, που τελικά τον έπεισε να επενδύσει τα χρήματα.
Τον Ιούνιο, ο Γερουσιαστής Τζον Χάστεντ (Ρεπουμπλικανός – Οχάιο) εισήγαγε το διακομματικό νομοσχέδιο «Πράξη για την Πρόληψη Απατών Μέσω Deep Fake», το οποίο αποσκοπεί στην αντιμετώπιση της απειλής που συνιστούν τέτοιες απάτες.
Το νομοσχέδιο επιδιώκει να αντιμετωπίσει την κλοπή ή απάτη δεδομένων και ταυτότητας με τη βοήθεια τεχνητής νοημοσύνης, δημιουργώντας ειδική ομάδα δράσης με επίκεντρο την τεχνητή νοημοσύνη στον χρηματοοικονομικό τομέα.
«Οι απατεώνες χρησιμοποιούν deepfakes για να υποδύονται συγγενικά πρόσωπα των θυμάτων, προκειμένου να τους κλέψουν τα χρήματα», δήλωσε ο Χάστεντ.
«Καθώς οι απατεώνες συνεχίζουν να μηχανεύονται νέα σχέδια, πρέπει να διασφαλίσουμε ότι αξιοποιούμε την τεχνητή νοημοσύνη ώστε να προστατεύσουμε καλύτερα τους αθώους Αμερικανούς και να αποτρέψουμε αυτές τις απάτες εξ αρχής. Το νομοσχέδιό μου θα προστατεύσει τους ηλικιωμένους του Οχάιο, τις οικογένειες και τους μικροεπιχειρηματίες από κακόβουλους δράστες που εκμεταλλεύονται τη συμπόνια τους.»
Ναβίν Ατραπούλι
Συντάκτης
Ο Ναβίν Ατραπούλι είναι δημοσιογράφος ειδήσεων που καλύπτει θέματα επιχειρηματικότητας και διεθνών γεγονότων στην εφημερίδα The Epoch Times.


