Stop Scanning Me η σάρωση ιδιωτικών συνομιλιών στο διαδίκτυο, πρέπει να απορριφθεί

Η ιδιωτική συνομιλία είναι βασικό ανθρώπινο δικαίωμα. Όπως και τα υπόλοιπα δικαιώματά μας, δεν πρέπει να τα χάνουμε όταν μπαίνουμε στο διαδίκτυο. Αλλά μια νέα πρόταση της Ευρωπαϊκής Ένωσης θα μπορούσε να επηρεάσει σημαντικά τα δικαιώματά μας στην ιδιωτικότητα.

Το εκτελεστικό όργανο της Ευρωπαϊκής Ένωσης προωθεί μια πρόταση που θα μπορούσε να οδηγήσει σε υποχρεωτική σάρωση κάθε προσωπικού μηνύματος, φωτογραφίας και βίντεο. Η Επιτροπή της ΕΕ θέλει να ανοίξει τα απόρρητα δεδομένα της ψηφιακής μας ζωής για έλεγχο από λογισμικό σάρωσης εγκεκριμένο από την κυβέρνηση και στη συνέχεια να ελεγχθεί σε βάσεις δεδομένων που διατηρούν εικόνες κακοποίησης παιδιών. 

Η τεχνολογία δεν λειτουργεί σωστά . Και το να λανσάρουμε ένα σύστημα με κοριούς στις τσέπες μας» είναι απλώς λάθος, ακόμα και όταν γίνεται στο όνομα της προστασίας των παιδιών.

Δεν χρειαζόμαστε κυβερνητικούς παρατηρητές που εξετάζουν τις ιδιωτικές μας συνομιλίες, είτε πρόκειται για τεχνητή νοημοσύνη, bots ή αστυνομικούς. Δεν το χρειάζονται οι ενήλικες, ούτε και τα . ssme

Εάν βρίσκεστε σε μία από τις 27 χώρες μέλη της ΕΕ , είναι καλή στιγμή να επικοινωνήσετε με το μέλος του Ευρωπαϊκού Κοινοβουλίου και να τους ενημερώσετε ότι είστε αντίθετοι σε αυτήν την επικίνδυνη πρόταση. Πριν λίγες ημέρες οργανώσεις ψηφιακών δικαιωμάτων στην Ευρώπη, έφτιαξαν έναν ιστότοπο που ονομάζεται «Stop Scanning Me», με περισσότερες πληροφορίες σχετικά με την πρόταση και τα προβλήματά της. Περιλαμβάνει μια λεπτομερή νομική ανάλυση του κανονισμού και μια επιστολή που συνυπογράφεται από 118 ΜΚΟ που αντιτίθενται σε αυτήν την πρόταση, συμπεριλαμβανομένου του .

Ακόμα κι αν δεν είστε κάτοικος ΕΕ, αυτός ο κανονισμός θα πρέπει να εξακολουθεί να σας απασχολεί. Οι μεγάλες πλατφόρμες ανταλλαγής μηνυμάτων θα εγκαταλείψουν τις δεσμεύσεις για το απόρρητο και την ασφάλεια στους χρήστες τους. Αυτό θα επηρεάσει τους χρήστες σε όλο τον κόσμο, ακόμη και αυτούς που δεν επικοινωνούν τακτικά με άτομα στην ΕΕ.

“Εντολές ανίχνευσης” για ακρόαση ιδιωτικών συνομιλιών

Ο προτεινόμενος κανονισμός της ΕΕ για τη σεξουαλική κακοποίηση παιδιών (CSAR) είναι ένα απογοητευτικό βήμα προς τα πίσω. Στο παρελθόν, η ΕΕ πρωτοστάτησε στη νομοθεσία για την προστασία της ιδιωτικής ζωής, η οποία, αν και δεν ήταν τέλεια, κινήθηκε προς την κατεύθυνση της αύξησης και όχι της μείωσης του απορρήτου των ανθρώπων, όπως ο Γενικός Κανονισμός για την Προστασία Δεδομένων (GDPR) και το e-Privacy Directive. Αλλά ο κανονισμός CSA κινείται προς την αντίθετη κατεύθυνση. Δεν σέβεται τον Χάρτη των Θεμελιωδών Δικαιωμάτων της ΕΕ και υπονομεύει τον πρόσφατα εγκριθέντα νόμο για τις ψηφιακές υπηρεσίες , ο οποίος ήδη παρέχει εξουσίες στις αρχές να αφαιρούν παράνομο περιεχόμενο.

Η πρόταση απαιτεί από τις διαδικτυακές πλατφόρμες και τους παρόχους υπηρεσιών ανταλλαγής μηνυμάτων να μετριάσουν το καταχρηστικό περιεχόμενο και να ενθαρρύνει τη γενική παρακολούθηση της επικοινωνίας των χρηστών. Ωστόσο, εάν παραμένουν «σημαντικοί» κίνδυνοι διαδικτυακής σεξουαλικής κακοποίησης παιδιών μετά από αυτούς τους μετριασμούς -και είναι εντελώς ασαφές τι σημαίνει αυτό στην πράξη- οι υπηρεσίες επιβολής του νόμου μπορούν να στείλουν «εντολές ανίχνευσης» σε τεχνολογικές πλατφόρμες. Μόλις εκδοθεί μια εντολή ανίχνευσης, η εταιρεία που εκτελεί την πλατφόρμα μπορεί να χρειαστεί να σαρώσει μηνύματα, φωτογραφίες, βίντεο και άλλα δεδομένα χρησιμοποιώντας λογισμικό που είναι εγκεκριμένο από τις αρχές επιβολής του νόμου.

Με τις εντολές εντοπισμού σε ισχύ, οι πλατφόρμες δεν θα μπορούν να φιλοξενούν πραγματικά ιδιωτικές συνομιλίες. Είτε σαρώνουν τα μηνύματα ανθρώπων σε έναν κεντρικό διακομιστή είτε στις δικές τους συσκευές , ο κανονισμός CSA απλά δεν θα είναι συμβατός με την κρυπτογράφηση από άκρο σε άκρο. 

Μη ικανοποιημένοι με τον έλεγχο των δεδομένων μας και τον έλεγχο τους σε σχέση με τις κυβερνητικές βάσεις δεδομένων για την υπάρχουσα κακοποίηση παιδιών, οι συντάκτες της πρότασης προχωρούν πολύ περισσότερο. Η CSAR προτείνει τη χρήση αλγορίθμων για να μαντέψουμε ποιες άλλες εικόνες μπορεί να αντιπροσωπεύουν κατάχρηση. Σχεδιάζει ακόμη και να αναζητήσει «grooming» χρησιμοποιώντας τεχνητή νοημοσύνη για να ελέγχει τα μηνύματα κειμένου των ανθρώπων για να προσπαθήσει να μαντέψει ποιες επικοινωνίες θα μπορούσαν να υποδηλώνουν μελλοντική κακοποίηση παιδιών.

Οι μεγάλες εταιρείες μέσων κοινωνικής δικτύωσης συχνά δεν μπορούν να ανταποκριθούν στις δηλωμένες υποσχέσεις των δικών τους πολιτικών ελέγχου περιεχομένου. Είναι απίστευτο ότι οι νομοθέτες της ΕΕ μπορεί τώρα να αναγκάσουν αυτές τις εταιρείες να χρησιμοποιήσουν τους προβληματικούς αλγόριθμους παρακολούθησης για να κατηγορήσουν τους ίδιους τους χρήστες τους για τα χειρότερα είδη εγκλημάτων.

Η Επιτροπή της ΕΕ προωθεί μια τεχνητή νοημοσύνη ανίχνευσης εγκλήματος που δεν λειτουργεί 

Είναι δύσκολο να ελέγξετε την ακρίβεια του λογισμικού που χρησιμοποιείται πιο συχνά για τον εντοπισμό υλικού σεξουαλικής κακοποίησης παιδιών (CSAM). Αλλά τα δεδομένα που έχουν βγει θα πρέπει να στέλνουν κόκκινες σημαίες, όχι να ενθαρρύνουν τους νομοθέτες να προχωρήσουν.

  • Μια μελέτη του Facebook διαπίστωσε ότι το 75% των μηνυμάτων που επισημάνθηκαν από το σύστημα σάρωσης  για τον εντοπισμό υλικού κακοποίησης παιδιών δεν ήταν «κακόβουλα» και περιλάμβαναν μηνύματα όπως άσχημα αστεία και μιμίδια.
  • Το LinkedIn ανέφερε 75 περιπτώσεις ύποπτου CSAM στις αρχές της ΕΕ το 2021. Μετά από μη αυτόματο έλεγχο, μόνο 31 από αυτές τις περιπτώσεις —περίπου το 41%— αφορούσαν επιβεβαιωμένο CSAM.
  • Τα πρόσφατα δημοσιευμένα δεδομένα από την Ιρλανδία, που δημοσιεύθηκαν σε μια αναφορά από το EDRi (βλ. σελίδα 34), δείχνουν περισσότερες ανακρίβειες. Το 2020, η ιρλανδική αστυνομία έλαβε 4.192 αναφορές από το Εθνικό Κέντρο των ΗΠΑ για τα εξαφανισμένα και τα εκμεταλλευόμενα παιδιά (NCMEC). Από αυτές, 852 παραπομπές (20,3%) επιβεβαιώθηκαν ως πραγματικές CSAM. Από αυτές, 409 παραπομπές (9,7%) κρίθηκαν «δυνάμενες να ληφθούν μέτρα» και 265 παραπομπές (6,3%) «ολοκληρώθηκαν» από την ιρλανδική αστυνομία.
  Η ιστορία της δισκέτας και πως έγινε το διάσημο εικονίδιο Save

Παρά την επιμονή των ενισχυτών και των αξιωματούχων επιβολής του νόμου ότι το λογισμικό σάρωσης έχει μαγικά υψηλά επίπεδα ακρίβειας, ανεξάρτητες πηγές το καθιστούν σαφές: η εκτεταμένη σάρωση παράγει σημαντικό αριθμό ψευδών κατηγοριών. Μόλις η ΕΕ ψηφίσει για την έναρξη λειτουργίας του λογισμικού σε δισεκατομμύρια περισσότερα μηνύματα, θα οδηγήσει σε εκατομμύρια περισσότερες ψευδείς κατηγορίες. Αυτές οι ψευδείς κατηγορίες προωθούνται στις υπηρεσίες επιβολής του νόμου. Στην καλύτερη περίπτωση, είναι σπάταλοι. έχουν επίσης τη δυνατότητα να προκαλέσουν πόνο στον πραγματικό κόσμο.

Τα ψευδώς θετικά προκαλούν πραγματικό κακό. Μια πρόσφατη είδηση ​​των New York Times τόνισε έναν ελαττωματικό σαρωτή CSAM της Google που αναγνώριζε εσφαλμένα δύο πατέρες νηπίων στις ΗΠΑ ως κακοποιητλες παιδιών. Μάλιστα και οι δύο άνδρες είχαν στείλει ιατρικές φωτογραφίες λοιμώξεων στα παιδιά τους μετά από αίτημα των παιδιάτρων τους. Τα δεδομένα τους εξετάστηκαν από την τοπική αστυνομία και οι άνδρες απαλλάχθηκαν από κάθε παράνομη ενέργεια. Παρά την αθωότητά τους, η Google διέγραψε οριστικά τους λογαριασμούς τους, στάθηκε στο πλευρό του αποτυχημένου συστήματος τεχνητής νοημοσύνης και υπερασπίστηκε την αδιαφανή ανθρώπινη διαδικασία ελέγχου.

Όσον αφορά τα πρόσφατα δημοσιευμένα δεδομένα της Ιρλανδίας, η ιρλανδική εθνική αστυνομία επαλήθευσε ότι αυτή τη στιγμή διατηρεί όλα τα προσωπικά δεδομένα που της διαβιβάζονται από το NCMEC—συμπεριλαμβανομένων ονομάτων χρηστών, διευθύνσεων ηλεκτρονικού ταχυδρομείου και άλλων δεδομένων επαληθευμένων αθώων χρηστών.

Η κακοποίηση παιδιών είναι φρικτή. Όταν η ψηφιακή τεχνολογία χρησιμοποιείται για την ανταλλαγή εικόνων σεξουαλικής κακοποίησης παιδιών, είναι ένα σοβαρό έγκλημα που απαιτεί έρευνα και δίωξη. 

Γι’ αυτό δεν πρέπει να σπαταλάμε προσπάθειες σε ενέργειες που είναι αναποτελεσματικές και ακόμη και επιβλαβείς. Η συντριπτική πλειοψηφία των αλληλεπιδράσεων στο διαδίκτυο δεν είναι εγκληματικές πράξεις. Η αστυνομία που ερευνά διαδικτυακά εγκλήματα βρίσκεται ήδη σε θέση να αναζητήσει μια «βελόνα στα άχυρα». Η εισαγωγή της υποχρεωτικής σάρωσης των φωτογραφιών και των μηνυμάτων μας δεν θα τους βοηθήσει να περιορίσουν τον στόχο – αντίθετα, θα επεκτείνει μαζικά τη «θημωνιά με τ άχυρα».

Η πρόταση κανονισμού της ΕΕ προτείνει επίσης την υποχρεωτική επαλήθευση της ηλικίας ως οδό για τη μείωση της εξάπλωσης του CSAM. Δεν υπάρχει καμία μορφή ηλεκτρονικής επαλήθευσης ηλικίας που να μην έχει αρνητικές επιπτώσεις στα ανθρώπινα δικαιώματα των ενηλίκων ομιλητών. Οι εταιρείες επαλήθευσης ηλικίας τείνουν να συλλέγουν (και να μοιράζονται) βιομετρικά δεδομένα . Η διαδικασία παρεμβαίνει επίσης στο δικαίωμα των ενηλίκων να μιλούν ανώνυμα – ένα δικαίωμα που είναι ιδιαίτερα ζωτικής σημασίας για τους αντιφρονούντες και τις μειονότητες που μπορεί να καταπιέζονται ή να μην είναι ασφαλείς. 

Τα κράτη της ΕΕ ή άλλα δυτικά έθνη μπορεί κάλλιστα να είναι τα πρώτα έθνη που απαγόρευσαν την κρυπτογράφηση για να σαρώσουν κάθε μήνυμα. Δεν θα είναι οι τελευταίοι. Οι κυβερνήσεις σε όλο τον κόσμο το έχουν καταστήσει σαφές: θέλουν να διαβάζουν τα κρυπτογραφημένα μηνύματα των ανθρώπων. Θα χαρούν να υπογραμμίσουν την τρομοκρατία, τα εγκλήματα κατά των παιδιών ή άλλες φρικαλεότητες, εάν κάνουν τους πολίτες τους να αποδεχτούν περισσότερη παρακολούθηση. Εάν αυτός ο κανονισμός εγκριθεί, οι αυταρχικές χώρες, που συχνά έχουν ήδη καθεστώτα επιτήρησης, θα απαιτήσουν να εφαρμόσουν σάρωση μηνυμάτων τύπου ΕΕ για να βρουν τα δικά τους «εγκλήματα». Ο κατάλογος πιθανότατα θα περιλαμβάνει κυβερνήσεις που επιτίθενται σε αντιφρονούντες και ποινικοποιούν ανοιχτά τις κοινότητες LBGT+.

Πηγή άρθρου: https://www.eff.org/

Αναδημοσίευση από το ellak.gr

Stop Scanning Me,disable media scanning,eff

Written by newsbot

Αν και τα δελτία τύπου θα είναι από πολύ επιλεγμένα έως και σπάνια, είπα να περάσω ... γιατί καμιά φορά κρύβονται οι συντάκτες.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Το μήνυμα σας δεν θα δημοσιευτεί εάν:
1. Περιέχει υβριστικά, συκοφαντικά, ρατσιστικά, προσβλητικά ή ανάρμοστα σχόλια.
2. Προκαλεί βλάβη σε ανηλίκους.
3. Παρενοχλεί την ιδιωτική ζωή και τα ατομικά και κοινωνικά δικαιώματα άλλων χρηστών.
4. Διαφημίζει προϊόντα ή υπηρεσίες ή διαδικτυακούς τόπους .
5. Περιέχει προσωπικές πληροφορίες (διεύθυνση, τηλέφωνο κλπ).