Φανταστείτε ότι δέχεστε ένα τηλεφώνημα από την τράπεζά σας που σας ενημερώνει ότι ο λογαριασμός σας έχει παραβιαστεί και ότι για να διατηρήσετε τα χρήματά σας ασφαλή, πρέπει να επιβεβαιώσετε τα προσωπικά σας στοιχεία. Ο επείγον χαρακτήρας του τηλεφωνήματος και ο «πανικός» στη φωνή του «υπαλλήλου» της τράπεζας μπορεί όντως να είναι αρκετός για να σας κάνει να μοιραστείτε ευαίσθητες πληροφορίες. Το πρόβλημα είναι ότι αυτό το άτομο μπορεί να μην έχει σχέση με την τράπεζά σας – ή μπορεί να μην υπάρχει καν, προειδοποιεί η ομάδα της παγκόσμιας εταιρίας λογισμικού ασφαλείας ESET. Θα μπορούσε να είναι απλώς μια φωνή που δημιουργήθηκε με τη βοήθεια της τεχνολογίας και που ακούγεται απόλυτα ανθρώπινη.
Αυτό δεν είναι καθόλου ασυνήθιστο και τα παραδείγματα τα τελευταία χρόνια είναι πολλά. Το 2019, ο διευθύνων σύμβουλος εταιρείας ενέργειας στο Ηνωμένο Βασίλειο εξαπατήθηκε από φωνή deepfake που έμοιαζε με τη φωνή του διευθύνοντα συμβούλου της μητρικής εταιρείας στη Γερμανία και πλήρωσε σχεδόν 220.000 ευρώ. Με τον ίδιο τρόπο, ένας εργαζόμενος στο λογιστήριο πολυεθνικής εταιρείας εξαπατήθηκε μέσω μιας deepfake βιντεοκλήσης το 2024, με αποτέλεσμα να κοστίσει στην εταιρεία του 25 εκατομμύρια δολάρια ΗΠΑ.
Τεχνητή νοημοσύνη, ο καταλύτης
Με τις σύγχρονες δυνατότητες κλωνοποίησης και μετάφρασης φωνής που προσφέρει η τεχνητή νοημοσύνη, το vishing και το smishing έχουν γίνει ευκολότερα από ποτέ. Ο Jake Moore, Παγκόσμιος Σύμβουλος Κυβερνοασφάλειας της ESET, έδειξε την ευκολία με την οποία ο καθένας μπορεί να δημιουργήσει μια πειστική έκδοση deepfake κάποιου άλλου – συμπεριλαμβανομένου και κάποιου που γνωρίζετε καλά. Πλέον δεν μπορούμε να εμπιστευτούμε ούτε τα μάτια ούτε τα αυτιά μας.
Η τεχνητή νοημοσύνη χαμηλώνει τον πήχη για τους κυβερνοεγκληματίες, χρησιμεύοντας ως ένα πολυδύναμο εργαλείο για τη συλλογή δεδομένων, την αυτοματοποίηση κουραστικών εργασιών και την δυνατότητα προσέγγισης θυμάτων διεθνώς. Κατά συνέπεια, το phishing με χρήση φωνών και κειμένου που δημιουργούνται από τεχνητή νοημοσύνη θα γίνει πιο συχνό.
Σε αυτό το σημείο, μια πρόσφατη έκθεση της Enea κατέγραψε αύξηση κατά 1.265% στις απάτες phishing από την κυκλοφορία του ChatGPT τον Νοέμβριο του 2022 και επισήμανε τη δυνατότητα των μεγάλων γλωσσικών μοντέλων να συμβάλλουν στην τροφοδότηση τέτοιων κακόβουλων επιχειρήσεων.
Πηγή: newmoney