Η Apple ανακοίνωσε πρόσφατα μερικές νέες δυνατότητες ασφάλειας για παιδιά σε όλες τις πλατφόρμες του λογισμικού της. Οι νέες δυνατότητες θα κυκλοφορήσουν με τα λειτουργικά συστήματα iOS 15, iPadOS 15, watchOS 8 και macOS Monterey στις ΗΠΑ αργότερα φέτος, και έχουν σαν στόχο να περιορίσουν τη διάδοση του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM από το Child Sexual Abuse Material), μεταξύ άλλων.
Μία από τις νέες δυνατότητες ουσιαστικά θα σαρώνει iPhone και iPad για CSAM και θα τα αναφέρει στο Εθνικό Κέντρο για Αγνοούμενα και Εκμεταλλευόμενα Παιδιά (NCMEC από το National Center for Missing and Exploited Children). Η Apple ισχυρίζεται ότι η μέθοδος ανίχνευσης γνωστού CSAM “έχει σχεδιαστεί με γνώμονα την ιδιωτικότητα του χρήστη”. Ωστόσο η δήλωση της εταιρείας δεν καθησυχάζει τους ειδικούς ασφαλείας.
Σύμφωνα με πρόσφατη δημοσίευση των Financial Times, ερευνητές ασφαλείας έχουν προειδοποιήσει ότι το νέο εργαλείο της Apple θα μπορούσε να χρησιμοποιηθεί για παρακολούθηση, θέτοντας σε κίνδυνο προσωπικές πληροφορίες εκατομμυρίων ανθρώπων.
Η ανησυχία τους βασίζεται στα δεδομένα που μοιράστηκε η Apple με ορισμένους ακαδημαϊκούς των ΗΠΑ νωρίτερα αυτήν την εβδομάδα. Δύο ανώνυμοι ερευνητές ασφαλείας που παρακολούθησαν την ενημέρωση της Apple αποκάλυψαν ότι το προτεινόμενο σύστημα (που ονομάζεται “neuralMatch”) θα προειδοποιήσει προληπτικά μια ομάδα ανθρώπων (επιθεωρητές) αν εντοπίσει CSAM σε iPhone ή iPad. Οι επιθεωρητές θα επικοινωνούν στη συνέχεια με τις αρχές επιβολής του νόμου αν φυσικά είναι σε θέση να επαληθεύσουν το υλικό.
Παρόλο που οι πολλοί ερευνητές ασφάλειας υποστηρίζουν τις προσπάθειες της Apple να περιορίσει την εξάπλωση του CSAM, ορισμένοι έχουν εκφράσει ανησυχίες για το ενδεχόμενο κατάχρησης του εργαλείου από τις κυβερνήσεις που θα μπορούν να το χρησιμοποιήσουν για να αποκτήσουν πρόσβαση στα δεδομένα των πολιτών τους.
Ο Ross Anderson, καθηγητής Μηχανικής Ασφάλειας στο Πανεπιστήμιο του Cambridge, ανέφερε:
“Είναι μια απολύτως φρικιαστική ιδέα, διότι πρόκειται να οδηγήσει σε κατανεμημένη μαζική παρακολούθηση … των τηλεφώνων και των φορητών υπολογιστών μας”.
Ο Matthew Green, καθηγητής της Επιστήμης των Υπολογιστών στο Ινστιτούτο Ασφάλειας Πληροφοριών Johns Hopkins, εξέφρασε επίσης την ανησυχία του στο Twitter:
I’ve had independent confirmation from multiple people that Apple is releasing a client-side tool for CSAM scanning tomorrow. This is a really bad idea.
— Matthew Green (@matthew_d_green) August 4, 2021
Αλλά ακόμα κι αν πιστεύετε ότι η Apple δεν θα επιτρέψει την κατάχρηση αυτών των εργαλείων… υπάρχουν πολλά ακόμη να ανησυχείτε. Αυτά τα συστήματα βασίζονται σε μια βάση δεδομένων με προβληματικά “media hashes” που εσείς, ως καταναλωτής, δεν μπορείτε να ελέγξετε … Τα Hashes χρησιμοποιούν έναν νέο και ιδιόκτητο neural hashing αλγόριθμο που έχει αναπτύξει η Apple και έκαναν την NCMEC να συμφωνήσει να χρησιμοποιήσει … Δεν γνωρίζουμε πολλά για αυτόν τον αλγόριθμο. Τι γίνεται αν κάποιος μπορεί να τον αποκρυπτογραφήσει;
Αν και ο αλγόριθμος είναι επί του παρόντος εκπαιδευμένος να εντοπίζει CSAM, θα μπορούσε να προσαρμοστεί για να σαρώσει άλλες στοχευμένες εικόνες ή κείμενα, όπως αντικυβερνητικά – αναρχικά σήματα, καθιστώντας το ένα εξαιρετικά χρήσιμο εργαλείο για αυταρχικές κυβερνήσεις.