Μια μητέρα στην Πενσυλβανία των ΗΠΑ συνελήφθη την περασμένη εβδομάδα, γιατί δημιούργησε deepfake βίντεο με τις αντίπαλες μαζορέτες της κόρης της, σε μια προφανή προσπάθεια να τις παρενοχλήσει και να τις εκφοβίσει.
Βρέθηκε κατηγορούμενη με πολλαπλά αδικήματα, καθώς απέστειλε deepfake βίντεο στους προπονητές της ομάδας μαζορετών, καθώς και στα κορίτσια της ομάδας. Στα παραποιημένα βίντεο που είχε κατασκευάσει χρησιμοποιώντας AI λογισμικό, φαινόταν ότι τα μέλη της ομάδας εμπλέκονταν σε άσεμνες ή παραβιάζουσες συμπεριφορές.
Η υπόθεση διεκπεραιώνεται από το γραφείο του εισαγγελέα Μαρ Βάιντραμπ, της επαρχίας Μπακς, το οποίο είπε στους δημοσιογράφους ότι η γυναίκα έστειλε επίσης και ανώνυμα μηνύματα στα θύματα της, προτρέποντας τα να αυτοκτονήσουν.
Τοπικές ειδήσεις αναφέρουν ότι οι ενέργειες της συγκεκριμένης μητέρας είχαν ως στόχο να εξαναγκάσουν τους αντιπάλους της κόρης της να αποχωρήσουν από την ομάδα και όλες οι ενδείξεις δείχνουν ότι η κόρη δεν γνώριζε τις ενέργειες της μητέρας της.
Οι ντετέκτιβ που παρακολούθησαν και βρήκαν τη γυναίκα, μετά από τα απειλητικά μηνύματα που έστειλε, ανέφεραν ότι χρησιμοποιήθηκαν αριθμοί τηλεφώνων μίας εταιρείας που πουλά deepfake βίντεο σε ομάδες μάρκετινγκ. Δεν είναι σαφές αυτήν τη στιγμή εάν η γυναίκα εργάζεται για την εταιρεία, ή τα παρήγγειλε ή τα δημιούργησε την ίδια.
Τα deepfake βίντεο είναι “πειραγμένα βίντεο” που με την ΑΙ τεχνολογία έχουν αλλαχθεί τα πρόσωπα των πρωταγωνιστών με απίστευτη πιστότητα. Η τεχνολογία αυτή είναι αρκετά πρόσφατη και μόλις έχει αρχίσει να διαδίδεται ευρέως. Οπότε μην πιστεύετε ό, τι βλέπετε. Έχουν ήδη σημειωθεί συλλήψεις για κακή χρήση.
Τα έχουμε δει να διασκεδάζουν και να εκπλήσσουν, αλλά είναι ξεκάθαρο από την αρχή τους ότι τα deepfake αποτελούν κίνδυνο για την κοινωνία.
Θεωρητικά υπάρχουν ακόμα τρόποι εντοπισμού τους, αλλά αυτό θα μπορούσε να αλλάξει γρήγορα καθώς οι προγραμματιστές αναπτύσουν τον κώδικά τους για να ξεπεράσουν τις ελλείψεις της πλατφόρμας.
Καθώς το επίπεδο δεξιοτήτων και τεχνολογίας που απαιτείται για να διακρίνει κάποιος τη διαφορά μεταξύ ενός deepfake βίντεο και του πραγματικού βίντεο συνεχίζει να αυξάνεται, είμαστε σχεδόν σίγουροι ότι θα δούμε περισσότερες καταστάσεις όπως αυτή.