
Κλήσεις εξαπάτησης χρησιμοποιούν τη γενετική τεχνητή νοημοσύνη, η οποία αναφέρεται σε συστήματα ικανά να δημιουργούν κείμενο, εικόνα, βίντεο και ήχο με βάση τις εντολές ενός χρήστη. Το μόνο που χρειάζεται είναι τα δεδομένα προκειμένου ο αλγόριθμος να μπορέσει να αναπαράξει τη φωνή σας ή την εικόνα σας.
Πρακτικά δηλαδή αυτό σημαίνει ότι αν υπάρχουν πολλές ηχογραφήσεις της φωνής σας ελεύθερα στο διαδίκτυο, η τεχνητή νοημοσύνη μπορεί να αναπαράγει τη φωνή σας ή οποιουδήποτε άλλου και να την κάνει να πει ότι θέλει.
Πολλοί μοιραζόμαστε πολλές φωτογραφίες και video της καθημερινότητάς μας στο Διαδίκτυο. Αυτό σημαίνει ότι τα δεδομένα ήχου και εικόνας που απαιτούνται για τη δημιουργία ενός ρεαλιστικού αντιγράφου μας θα μπορούσαν να είναι άμεσα διαθέσιμα στα μέσα κοινωνικής δικτύωσης.
Η κόρη της ζητούσε λύτρα…
Ωστόσο, φανταστείτε τώρα ότι η φωνή στην άλλη άκρη του τηλεφώνου δεν είναι απλώς ένας άγνωστος, αλλά ακούγεται ακριβώς σαν ένας φίλος ή σαν ένα αγαπημένο πρόσωπο. Αυτό διαμορφώνει ένα εντελώς νέο επίπεδο πολυπλοκότητας και προκαλεί πανικό στον άτυχο αποδέκτη.
Ρεπορτάζ του CNN επισημαίνει ένα περιστατικό κατά το οποίο μια μητέρα έλαβε κλήση από άγνωστο αριθμό. Οταν απάντησε στο τηλέφωνο, ήταν η κόρη της. Φερόταν να είχε απαχθεί και τηλεφωνούσε για να ζητήσει λύτρα. Ευτυχώς το κορίτσι βέβαια ήταν σώο και δεν είχε απαχθεί όμως οι απατεώνες είχαν κάνει deepfake τη φωνή του.
Αυτό δεν είναι ένα μεμονωμένο περιστατικό, και υπάρχουν διάφορες παραλλαγές, όπως του υποτιθέμενου τροχαίου ατυχήματος, με το θύμα να καλεί την οικογένειά του ζητώντας χρήματα για να το βοηθήσουν.












