Εάν δείτε οι χρήστες του tik tok έναν Έλληνα πολιτικό, τον πρωθυπουργό για παράδειγμα ή κάποιον υπουργό που σας υπόσχεται χρήματα και οφέλη μην «τσιμπήσετε», τουλάχιστον αμέσως και πριν το τσεκάρετε… . Δεν πρόκειται, ενδεχομένως, για αληθινές δηλώσεις αλλά για έναν ακόμη τρόπο που βρίσκουν οι απατεώνες οι οποίοι με τη βοήθεια της τεχνητής νοημοσύνης επιδιώκουν να εξαπατήσουν τον κόσμο που δεν έχει εξοικειωθεί ακόμα με τα «θαύματα» που μπορεί να κάνει.
Τελευταίες προσπάθειες εξαπάτησης του κόσμου μέσω της AI και των μέσων κοινωνικής δικτύωσης έχουν ήδη κάνει την εμφάνισή τους. Στο βίντεο που υπάρχει, ο Έλληνας πρωθυπουργός φαίνεται να λέει ότι ακολουθώντας κάποια βήματα, θα μπουν στους τραπεζικούς λογαριασμούς 3.000 ευρώ.
Το βίντεο με τον πρωθυπουργό βρίσκεται ήδη στον «αέρα» του συγκεκριμένου μέσου κοινωνικής δικτύωσης, είναι άγνωστο προς το παρόν, εάν υπήρξαν θύματα. Στο νομό Ηρακλείου, σύμφωνα με αστυνομικές πηγές, δεν έχει υπάρξει μέχρι στιγμής κάποιο «θύμα»
Ειδικοί εξηγούν ότι το νέο «φρούτο» απάτης είναι τα λεγόμενα deppfakes. Πρόκειται για συνθετικά μέσα που έχουν υποστεί ψηφιακή επεξεργασία για να αντικαταστήσουν πειστικά την ομοιότητα ενός ατόμου με αυτήν ενός άλλου.
Αν και η δημιουργία ψεύτικου περιεχομένου δεν είναι νέα, τα deepfakes αξιοποιούν ισχυρές τεχνικές από τη μηχανική μάθησης και την τεχνητή νοημοσύνη για να δημιουργήσουν οπτικό και ηχητικό περιεχόμενο που μπορεί πιο εύκολα να εξαπατήσει. Μάλιστα ειδικοί εξηγούν ότι όσο πιο πολλές οι φωτογραφίες και τα βίντεο ενός ανθρώπου που υπάρχουν στο Διαδίκτυο τόσο πιο εύκολα θα εκπαιδευτεί το μοντέλο της απάτης μέσω ΑΙ.
Απαιτούνται επίσης αρκετά δεδομένα εικόνων, ήχων και βίντεο (data sets) για να παραχθούν αληθοφανή deepfakes. Γι’ αυτούς του λόγους, συνήθως, προς το παρόν τουλάχιστον, θύματα των deepfake videos είναι διάσημοι και πρόσωπα με αναγνωρισιμότητα».
Λόγω της ενδυνάμωσης της τεχνολογίας και της εύκολης πρόσβασης όλων σε αυτή, η τεχνολογία deepfake έχει εξελιχθεί και γίνεται ολοένα και πιο πειστική, ενώ η χρήση της δεν περιορίζεται στην παραδοσιακή ψυχαγωγία και τα βιντεοπαιχνίδια.
Τα deepfakes έχουν συγκεντρώσει αυτή τη στιγμή την ευρεία προσοχή των Αρχών και των εξεταστών ψηφιακών πειστηρίων για πιθανή χρήση τους στη δημιουργία υλικού σεξουαλικής κακοποίησης παιδιών, πορνογραφικών βίντεο διασημοτήτων, πορνό εκδίκησης (revenge porn), ψεύτικες ειδήσεις, φάρσες, εκφοβισμό, αλλά και οικονομικές απάτες