Ανησυχητικές διαστάσεις λαμβάνουν οι απάτες μέσω Deepfake αποκομίζοντας εκατομμύρια δολάρια από εταιρείες σε όλο τον κόσμο με τους ειδικούς σε θέματα ασφαλείας στον κυβερνοχώρο να προειδοποιούν ότι τέτοια περιστατικά μπορούν να έχουν ακόμη πιο καταστροφικές συνέπειες.
Τρανταχτό παράδειγμα καταγράφηκε τον περασμένο Φεβρουάριο στο Χονγκ Κονγκ, όταν ένα στέλεχος οικονομικών μετέφερε πάνω από 25 εκατ. δολάρια σε απατεώνες, οι οποίοι χρησιμοποιώντας τεχνολογία deepfake «μεταμφιέστηκαν» σε συναδέλφους του σε μια βιντεοκλήση.
Την περασμένη εβδομάδα η βρετανική εταιρεία υπηρεσιών σχεδιασμού, μηχανικής και αρχιτεκτονικής Arup επιβεβαίωσε στο CNBC ότι ήταν η εταιρεία που εμπλέκεται στην εν λόγω υπόθεση, αλλά δεν μπορούσε να υπεισέλθει σε λεπτομέρειες σχετικά με το θέμα λόγω της διεξαγόμενης έρευνας.
Η Arup επιβεβαίωσε ότι στο περιστατικό χρησιμοποιήθηκαν «ψεύτικες φωνές και εικόνες», προσθέτοντας ότι «ο αριθμός και η πολυπλοκότητα αυτών των επιθέσεων έχει αυξηθεί απότομα τους τελευταίους μήνες».
Ραγδαία η αύξηση των περιστατικών
Τέτοιες απειλές έχουν αυξηθεί ως αποτέλεσμα της διάδοσης του Chat GPT της Open AI - που ξεκίνησε το 2022 - το οποίο εκτόξευσε γρήγορα την τεχνολογία generative AI στην επικρατούσα τάση, δήλωσε ο David Fairman, επικεφαλής πληροφοριών και ασφάλειας στην εταιρεία κυβερνοασφάλειας Netskope.
«Η προσβασιμότητα αυτών των υπηρεσιών μείωσε το εμπόδιο εισόδου για τους εγκληματίες του κυβερνοχώρου - δεν χρειάζεται πλέον να έχουν ειδικές τεχνολογικές δεξιότητες», δήλωσε ο Fairman.
Ο όγκος και η πολυπλοκότητα των απατών έχουν διευρυνθεί καθώς η τεχνολογία τεχνητής νοημοσύνης συνεχίζει να εξελίσσεται, πρόσθεσε.
Διάφορες υπηρεσίες Τεχνητής Νοημοσύνης μπορούν να χρησιμοποιηθούν για τη δημιουργία περιεχομένου κειμένου, εικόνας και βίντεο που μοιάζει με τον άνθρωπο και, ως εκ τούτου, μπορούν να λειτουργήσουν ως ισχυρά εργαλεία για παράνομους φορείς που προσπαθούν να χειραγωγήσουν ψηφιακά και να αναπαραστήσουν ορισμένα άτομα.
Τα κινεζικά κρατικά μέσα ενημέρωσης ανέφεραν μια παρόμοια περίπτωση στην επαρχία Shanxi φέτος που αφορούσε μια γυναίκα υπάλληλο του χρηματοπιστωτικού τομέα, η οποία εξαπατήθηκε για να μεταφέρει 1,86 εκατομμύρια γιουάν (262.000 δολάρια) σε λογαριασμό απατεώνα μετά από μια βιντεοκλήση με ένα deepfake του αφεντικού της.
Το 2019, ο διευθύνων σύμβουλος ενός βρετανικού παρόχου ενέργειας φέρεται να μετέφερε 220.000 ευρώ (238.000 δολάρια) σε έναν απατεώνα, ο οποίος είχε μιμηθεί ψηφιακά τον επικεφαλής της μητρικής του εταιρείας και ζητούσε να γίνει έμβασμα σε έναν υποτιθέμενο προμηθευτή σε ένα τηλεφώνημα.
Τον Αύγουστο του περασμένου έτους, ερευνητές του Google κατέγραψαν μια σειρά περιπτώσεων παράνομων φορέων που χρησιμοποιούσαν τεχνολογία AI και deepfake για απάτες phishing, παραπληροφόρηση και άλλους παράνομους σκοπούς.
Τότε, η εταιρεία δήλωσε ότι η χρήση της τεχνολογίας για τέτοιες δραστηριότητες ήταν περιορισμένη, αλλά ότι η αυξανόμενη διαθεσιμότητα νέων εργαλείων Τεχνητής Νοημοσύνης θα επιταχύνει την εφαρμογή της από κακόβουλους φορείς.
Οι ειδικοί προειδοποιούν
Εκτός από τις άμεσες επιθέσεις, οι εταιρείες ανησυχούν όλο και περισσότερο για άλλους τρόπους με τους οποίους οι φωτογραφίες, τα βίντεο ή οι ομιλίες των ανώτερων στελεχών τους θα μπορούσαν να χρησιμοποιηθούν με κακόβουλο τρόπο, λένε οι ειδικοί σε θέματα κυβερνοασφάλειας.
Σύμφωνα με τον Jason Hogg, εμπειρογνώμονα κυβερνοασφάλειας και executive-in-residence στην Great Hill Partners, τα deepfakes υψηλόβαθμων μελών της εταιρείας μπορούν να χρησιμοποιηθούν για τη διάδοση ψευδών ειδήσεων με σκοπό τη χειραγώγηση των τιμών των μετοχών, τη δυσφήμιση του εμπορικού σήματος και των πωλήσεων μιας εταιρείας και τη διάδοση άλλης επιβλαβούς παραπληροφόρησης.
«Αυτό είναι μόνο το ξύσιμο της επιφάνειας», δήλωσε ο Hogg, ο οποίος στο παρελθόν υπηρέτησε ως ειδικός πράκτορας του FBI.
Τόνισε ότι η Τεχνητή Νοημοσύνη είναι σε θέση να δημιουργεί βαθιά ψεύδη με βάση έναν θησαυρό ψηφιακών πληροφοριών, όπως το δημόσια διαθέσιμο περιεχόμενο που φιλοξενείται στα μέσα κοινωνικής δικτύωσης και σε άλλες πλατφόρμες μέσων ενημέρωσης.
Το 2022, ο Patrick Hillmann, επικεφαλής επικοινωνίας της Binance, ισχυρίστηκε σε ανάρτηση στο blog ότι οι απατεώνες είχαν δημιουργήσει ένα deepfake του με βάση προηγούμενες συνεντεύξεις στις ειδήσεις και τηλεοπτικές εμφανίσεις, χρησιμοποιώντας το για να εξαπατήσουν πελάτες και επαφές σε συναντήσεις.
Ο Fairman της Netskope δήλωσε ότι οι κίνδυνοι αυτοί οδήγησαν ορισμένα στελέχη να αρχίσουν να περιορίζουν την παρουσία τους στο διαδίκτυο από φόβο ότι θα μπορούσαν να χρησιμοποιηθούν ως πυρομαχικά από εγκληματίες του κυβερνοχώρου.
Σύμφωνα με τον Hogg, τα ευρύτερα ζητήματα θα επιταχυνθούν και θα επιδεινωθούν για ένα χρονικό διάστημα, καθώς η πρόληψη του εγκλήματος στον κυβερνοχώρο απαιτεί προσεκτική ανάλυση προκειμένου να αναπτυχθούν συστήματα, πρακτικές και έλεγχοι για την άμυνα απέναντι στις νέες τεχνολογίες.
Πώς μπορεί να αντιμετωπιστεί το φαινόμενο
Εμπειρογνώμονες σε θέματα κυβερνοασφάλειας δήλωσαν στο CNBC ότι οι επιχειρήσεις μπορούν να ενισχύσουν την άμυνα στις απειλές με Τεχνητή Νοημοσύνη μέσω της βελτιωμένης εκπαίδευσης του προσωπικού, των δοκιμών κυβερνοασφάλειας και της απαίτησης κωδικών λέξεων και πολλαπλών επιπέδων εγκρίσεων για όλες τις συναλλαγές - κάτι που θα μπορούσε να έχει αποτρέψει περιπτώσεις όπως αυτή της Arup.