Όταν μιλάμε για τους κινδύνους που έρχονται με την τεχνητή νοημοσύνη (AI από το Artificial Intelligence), δίνουμε έμφαση περισσότερο στις ακούσιες παρενέργειες.
Ανησυχούμε για το ότι θα μπορούσαμε να δημιουργήσουμε κατά λάθος ένα πολύ έξυπνο AI και για το ότι θα ξεχάσουμε να το προγραμματίσουμε με συνείδηση, ή ότι θα αναπτύξουμε ποινικούς αλγόριθμους που θα έχουν απορροφήσει τις ρατσιστικές μεροληψίες των προγραμματιστών.
Όμως δεν είναι μόνο αυτό…
Τι γίνεται με τους ανθρώπους που θέλουν να χρησιμοποιήσουν το AI για ανήθικους, εγκληματικούς ή κακόβουλους σκοπούς;
Θα μπορούν να προκαλέσουν μεγάλα προβλήματα πολύ πιο γρήγορα; Η απάντηση είναι ναι, σύμφωνα πάρα πολλούς εμπειρογνώμονες από τα Future of Humanity Institute, Centre for the Study of Existential Risk και το μη κερδοσκοπικό ινστιτούτο OpenAI του Elon Musk.
Σε μια έκθεση που δημοσιεύτηκε σήμερα με τίτλο «Η κακόβουλη χρήση της τεχνητής νοημοσύνης: πρόβλεψη, πρόληψη και μετριασμός», ή “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation,” οι ακαδημαϊκοί και οι ερευνητές αναλύουν μερικούς από τους τρόπους με τους οποίους μπορεί να χρησιμοποιηθεί το AI για να μας προκαλέσει ζημιές τα επόμενα πέντε χρόνια και τι μπορούμε να κάνουμε για να το σταματήσουμε.
Επειδή ενώ το AI μπορεί να επιτρέψει κάποιες πολύ δυσάρεστες νέες επιθέσεις, ο Miles Brundage του Ινστιτούτου για το μέλλον της ανθρωπότητας (Future of Humanity Institute) , ανέφερε στο The Verge, ότι δεν θα πρέπει να πανικοβληθούμε ή να εγκαταλείψουμε τις προσπάθειες.
Η έκθεση είναι εκτεταμένη, αλλά επικεντρώνεται σε μερικούς βασικούς τρόπους με τους οποίους θα μπορέσει το AI να επιδεινώσει τις απειλές τόσο στα ψηφιακά όσο και στα συστήματα φυσικής ασφάλειας, καθώς και να δημιουργήσει εντελώς νέους κινδύνους.
Επίσης, διατυπώνει πέντε συστάσεις για τον τρόπο αντιμετώπισης αυτών των προβλημάτων, ξεκινώντας ουσιαστικά νέους διαλόγους μεταξύ των υπευθύνων για τη χάραξη πολιτικής και των ακαδημαϊκών, που ασχολούνται και θα ασχοληθούν με το θέμα.
Ας αρχίσουμε όμως με πιθανές απειλές:
Μια από τις σημαντικότερες είναι ότι το AI θα μειώσει δραματικά το κόστος ορισμένων επιθέσεων επιτρέποντας στους κακόβουλους χρήστες να αυτοματοποιήσουν καθήκοντα που απαιτούσαν ανθρώπινη εργασία.
Πάρτε, για παράδειγμα το spear phishing, στο οποίο αποστέλλονται μηνύματα που είναι ειδικά σχεδιασμένα για να τους εξαπατήσουν τους αποδέκτες. Το AI θα μπορούσε να αυτοματοποιήσει ένα μεγάλο μέρος της εργασίας, χαρτογραφώντας το κοινωνικό και επαγγελματικό δίκτυο ατόμων βοηθώντας στην δημιουργία πολύ στοχευμένων μηνυμάτων.
Θα μπορούσαν να δημιουργηθούν πολύ ρεαλιστικά chatbots που μέσα από συζητήσεις θα μπορούν να συνθέσουν στοιχεία για να μαντέψουν τον κωδικό πρόσβασης του ηλεκτρονικού σας ταχυδρομείου.
Αυτό το είδος επίθεσης ακούγεται περίπλοκο, αλλά μόλις δημιουργηθεί ένα λογισμικό που μπορεί να κάνει όλα αυτά, θα μπορεί να χρησιμοποιηθεί ξανά και ξανά χωρίς επιπλέον κόστος.
Ένα δεύτερο σημείο που αναφέρεται στην έκθεση είναι ότι το AI θα μπορεί να προσθέσει νέες διαστάσεις στις υπάρχουσες απειλές.
Με το ίδιο παράδειγμα του spear phishing το AI θα μπορούσε να χρησιμοποιηθεί όχι μόνο για την παραγωγή μηνυμάτων ηλεκτρονικού ταχυδρομείου και μηνυμάτων κειμένου, αλλά και μηνυμάτων ήχου και βίντεο.
Έχουμε δει ήδη πως το AI μπορεί να χρησιμοποιηθεί για να μιμηθεί τη φωνή κάποιου αφού μελετήσει μόλις λίγα λεπτά μια καταγραμμένη ομιλία και πώς μπορεί να μετατρέψει τα footage των ανθρώπων που μιλάνε. Σκεφτείτε τι θα μπορεί να προκαλέσει ένα εξελιγμένο AI στους πολιτικούς, με κάποιο ψεύτικο βίντεο και ήχο.
Το AI θα μπορούσε να μετατρέψει τις κάμερες CCTV από παθητικούς σε ενεργούς παρατηρητές, επιτρέποντάς τους να κατηγοριοποιούν την ανθρώπινη συμπεριφορά αυτόματα. Αυτό θα έδινε στο AI, εκατομμύρια δείγματα ανθρώπινης συμπεριφοράς, και footages που θα μπορούσαν να χρησιμοποιηθούν για την παραγωγή ψεύτικων βίντεο.
Τέλος, η έκθεση επισημαίνει τους εντελώς νέους κινδύνους που θα φέρει το AI. Οι συγγραφείς σκιαγραφούν μια σειρά από πιθανά σενάρια, μεταξύ των οποίων και εκείνα όπου οι τρομοκράτες εμφυτεύουν μια βόμβα σε ένα ρομπότ καθαρισμού και το μεταφέρουν σε κάποιο υπουργείο.
Το ρομπότ χρησιμοποιεί την ενσωματωμένη κάμερα για να εντοπίσει έναν συγκεκριμένο πολιτικό και όταν είναι κοντά, η βόμβα εκρήγνυται.
Περιγράφουμε σενάρια όπως αυτό που φαίνεται σαν σενάριο επιστημονικής φαντασίας, αλλά έχουμε αρχίσει ήδη να βλέπουμε τις πρώτες νέες επιθέσεις που επέτρεψε το AI. Η τεχνολογία αντικατάστασης προσώπου χρησιμοποιήθηκε για να δημιουργήσει τα αποκαλούμενα “deepfakes” που χρησιμοποιούν πρόσωπα διασημοτήτων σε πορνογραφικά clips χωρίς τη συγκατάθεσή τους.
Αυτά τα παραδείγματα εμφανίζονται μόνο στο ένα μέρος της έκθεσης. Τι πρέπει να γίνει; Οι λύσεις είναι εύκολο να περιγραφούν και η έκθεση κάνει πέντε βασικές συστάσεις:
- Οι ερευνητές του AI θα πρέπει να γνωρίζουν τον τρόπο με τον οποίο μπορεί να χρησιμοποιηθεί με κακό τρόπο
- Οι υπεύθυνοι χάραξης πολιτικής θα πρέπει να μάθουν από τεχνικούς εμπειρογνώμονες για αυτές τις απειλές
- Ο κόσμος του AI θα πρέπει να μάθει από εμπειρογνώμονες στον τομέα της ασφάλειας στον κυβερνοχώρο πώς να προστατεύσει καλύτερα τα συστήματά τους
- Πρέπει να αναπτυχθούν και να ακολουθηθούν τα ηθικά πλαίσια για το AI.
- Περισσότεροι άνθρωποι θα πρέπει να συμμετέχουν σε αυτές τις συζητήσεις. Όχι μόνο επιστήμονες και υπεύθυνοι χάραξης πολιτικής, αλλά επιχειρήσεις και γενικότερα το ευρύ κοινό
Με άλλα λόγια: λίγο περισσότερη συζήτηση και περισσότερη δράση.