Apple θα σαρώνει συσκευές για παιδική πορνογραφία

Η Apple ανακοίνωσε πρόσφατα μερικές νέες δυνατότητες ασφάλειας για παιδιά σε όλες τις πλατφόρμες του λογισμικού της. Οι νέες δυνατότητες θα κυκλοφορήσουν με τα λειτουργικά συστήματα iOS 15, iPadOS 15, watchOS 8 και macOS Monterey στις ΗΠΑ αργότερα φέτος, και έχουν σαν στόχο να περιορίσουν τη διάδοση του υλικού σεξουαλικής κακοποίησης παιδιών (CSAM από το Child Sexual Abuse Material), μεταξύ άλλων.

institutional child abuse

Μία από τις νέες δυνατότητες ουσιαστικά θα σαρώνει iPhone και iPad για CSAM και θα τα αναφέρει στο Εθνικό Κέντρο για Αγνοούμενα και Εκμεταλλευόμενα Παιδιά (NCMEC από το National Center for Missing and Exploited Children). Η Apple ισχυρίζεται ότι η μέθοδος ανίχνευσης γνωστού CSAM “έχει σχεδιαστεί με γνώμονα την ιδιωτικότητα του χρήστη”. Ωστόσο η δήλωση της εταιρείας δεν καθησυχάζει τους ειδικούς ασφαλείας.

Σύμφωνα με πρόσφατη δημοσίευση των Times, ερευνητές ασφαλείας έχουν προειδοποιήσει ότι το νέο εργαλείο της Apple θα μπορούσε να χρησιμοποιηθεί για παρακολούθηση, θέτοντας σε κίνδυνο προσωπικές πληροφορίες εκατομμυρίων ανθρώπων.

Η ανησυχία τους βασίζεται στα που μοιράστηκε η Apple με ορισμένους ακαδημαϊκούς των ΗΠΑ νωρίτερα αυτήν την εβδ. Δύο ανώνυμοι ερευνητές ασφαλείας που παρακολούθησαν την ενημέρωση της Apple αποκάλυψαν ότι το προτεινόμενο σύστημα (που ονομάζεται “neuralMatch”) θα προειδοποιήσει προληπτικά μια ομάδα ανθρώπων (επιθεωρητές) αν εντοπίσει CSAM σε iPhone ή iPad. Οι επιθεωρητές θα επικοινωνούν στη συνέχεια με τις αρχές επιβολής του νόμου αν φυσικά είναι σε θέση να επαληθεύσουν το .

Παρόλο που οι πολλοί ερευνητές ασφάλειας υποστηρίζουν τις προσπάθειες της Apple να περιορίσει την εξάπλωση του CSAM, ορισμένοι έχουν εκφράσει ανησυχίες για το ενδεχόμενο κατάχρησης του εργαλείου από τις κυβερνήσεις που θα μπορούν να το χρησιμοποιήσουν για να αποκτήσουν πρόσβαση στα δεδομένα των πολιτών τους.

Ο Ross Anderson, καθηγητής Μηχανικής Ασφάλειας στο Πανεπιστήμιο του Cambridge, ανέφερε:

“Είναι μια απολύτως φρικιαστική ιδέα, διότι πρόκειται να οδηγήσει σε κατανεμημένη μαζική παρακολούθηση … των τηλεφώνων και των φορητών υπολογιστών μας”.

Ο Matthew Green, καθηγητής της Επιστήμης των Υπολογιστών στο Ινστιτούτο Ασφάλειας Πληροφοριών Johns Hopkins, εξέφρασε επίσης την ανησυχία του στο :

Αλλά ακόμα κι αν πιστεύετε ότι η Apple δεν θα επιτρέψει την κατάχρηση αυτών των εργαλείων… υπάρχουν πολλά ακόμη να ανησυχείτε. Αυτά τα συστήματα βασίζονται σε μια βάση δεδομένων με προβληματικά “media hashes” που εσείς, ως καταναλωτής, δεν μπορείτε να ελέγξετε … Τα Hashes χρησιμοποιούν έναν νέο και ιδιόκτητο neural hashing αλγόριθμο που έχει αναπτύξει η Apple και έκαναν την NCMEC να συμφωνήσει να χρησιμοποιήσει … Δεν γνωρίζουμε πολλά για αυτόν τον αλγόριθμο. Τι γίνεται αν κάποιος μπορεί να τον αποκρυπτογραφήσει;

Αν και ο αλγόριθμος είναι επί του παρόντος εκπαιδευμένος να εντοπίζει CSAM, θα μπορούσε να προσαρμοστεί για να σαρώσει άλλες στοχευμένες εικόνες ή κείμενα, όπως αντικυβερνητικά – αναρχικά σήματα, καθιστώντας το ένα εξαιρετικά χρήσιμο εργαλείο για αυταρχικές κυβερνήσεις.

iGuRu.gr The Best Technology Site in Greecefgns

κάθε δημοσίευση, άμεσα στο inbox σας

Προστεθείτε στους 2.082 εγγεγραμμένους.
παιδική πορνογραφία,apple,iguru,iguru.gr

Written by giorgos

Ο Γιώργος ακόμα αναρωτιέται τι κάνει εδώ....

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Το μήνυμα σας δεν θα δημοσιευτεί εάν:
1. Περιέχει υβριστικά, συκοφαντικά, ρατσιστικά, προσβλητικά ή ανάρμοστα σχόλια.
2. Προκαλεί βλάβη σε ανηλίκους.
3. Παρενοχλεί την ιδιωτική ζωή και τα ατομικά και κοινωνικά δικαιώματα άλλων χρηστών.
4. Διαφημίζει προϊόντα ή υπηρεσίες ή διαδικτυακούς τόπους .
5. Περιέχει προσωπικές πληροφορίες (διεύθυνση, τηλέφωνο κλπ).