«Εκατομμύρια» άνθρωποι μπορεί να γίνουν στόχος απάτης μέσω της ΑΙ
Shutterstock
Shutterstock

«Εκατομμύρια» άνθρωποι μπορεί να γίνουν στόχος απάτης μέσω της ΑΙ

«Εκατομμύρια» άνθρωποι μπορεί να πέσουν θύματα απάτης από την ικανότητα που παρέχει η Τεχνητή Νοημοσύνη να κλωνοποιεί την ανθρώπινη φωνή, προειδοποιεί η βρετανική Starling Bank.

Η διαδικτυακή Starling Bank δήλωσε ότι οι επίδοξοι απατεώνες είναι σε θέση να χρησιμοποιήσουν την ΑΙ για να αντιγράψουν τη φωνή ενός ατόμου χρησιμοποιώντας ακόμη και τρία δευτερόλεπτα ήχου που βρίσκονται, για παράδειγμα, σε ένα βίντεο που το άτομο έχει αναρτήσει στο διαδίκτυο.

Οι απατεώνες μπορούν στη συνέχεια να εντοπίσουν τους φίλους και τα μέλη της οικογένειας του ατόμου και να χρησιμοποιήσουν την κλωνοποιημένη μέσω ΑΙ φωνή για να κάνουν ένα τηλεφώνημα και να ζητήσουν χρήματα. Τέτοιου είδους  απάτες έχουν τη δυνατότητα να εξαπατήσουν «εκατομμύρια ανθρώπους», ανέφερε η Starling Bank σε δελτίο Τύπου την Τετάρτη.

Το CNN μεταδίδει ότι οι απάτες αυτές έχουν ήδη επηρεάσει εκατοντάδες ανθρώπους.

Σύμφωνα με έρευνα σε περισσότερους από 3.000 ενήλικες που διεξήγαγε η τράπεζα με τη Mortar Research τον περασμένο μήνα, περισσότεροι από το 1/4 των ερωτηθέντων δήλωσαν ότι έχουν γίνει στόχος απάτης μέσω κλωνοποίησης της φωνής τους τελευταίους 12 μήνες.

Η έρευνα έδειξε επίσης ότι το 46% των ερωτηθέντων δεν γνώριζε ότι υπάρχουν τέτοιες απάτες και ότι το 8% θα έστελνε όσα χρήματα του ζητούσε ένας φίλος ή μέλος της οικογένειάς του, ακόμη και αν του φαινόταν παράξενο το τηλεφώνημα. 
 
«Οι άνθρωποι δημοσιεύουν τακτικά περιεχόμενο στο διαδίκτυο το οποίο περιέχει ηχογραφήσεις της φωνής τους, χωρίς ποτέ να φαντάζονται ότι αυτό τους καθιστά πιο ευάλωτους σε απάτες», δήλωσε η Λίζα Γκράχαμ της Starling Bank.

Η τράπεζα ενθαρρύνει τους πολίτες να συμφωνήσουν με τους οικείους τους σε μια «ασφαλή φράση» - μια απλή, τυχαία φράση που είναι εύκολο να θυμάται κανείς - η οποία μπορεί να χρησιμοποιηθεί για την επαλήθευση της ταυτότητάς τους μέσω τηλεφώνου.

Επίσης, συμβουλεύει να μην μοιράζονται τη «safe phrase» μέσω κειμένου και αν αυτό συμβεί, να διαγράψουν κατευθείαν το μήνυμα.

Νωρίτερα φέτος, η OpenAI, η κατασκευάστρια εταιρεία του ChatGPT, παρουσίασε το εργαλείο αντιγραφής φωνής, Voice Engine, αλλά δεν το διέθεσε στο κοινό, επικαλούμενη την «πιθανότητα κατάχρησης συνθετικής φωνής».

Πηγή: CNN