Κορυφαίοι ερευνητές κυβερνοασφάλειας στο DEF CON, το μεγαλύτερο συνέδριο hacker στον κόσμο, προειδοποιούν ότι οι τρέχουσες μέθοδοι για την ασφάλεια των συστημάτων τεχνητής νοημοσύνης είναι θεμελιωδώς ελαττωματικές και απαιτούν πλήρη επανεξέταση, σύμφωνα με την εναρκτήρια έκθεση του συνεδρίου “Hackers’ Almanack” [PDF].
Η έκθεση, που συντάχθηκε με την Πρωτοβουλία Κυβερνοπολιτικής του Πανεπιστημίου του Chicago, αμφισβητεί την αποτελεσματικότητα της “κόκκινης ομαδοποίησης” ή “red teaming” – όπου οι ειδικοί ασφαλείας ερευνούν συστήματα τεχνητής νοημοσύνης για τρωτά σημεία – λέγοντας ότι αυτή η προσέγγιση από μόνη της δεν μπορεί να προστατεύσει επαρκώς από αναδυόμενες απειλές.
“Η δημόσια ομαδοποίηση ενός μοντέλου AI δεν είναι δυνατή επειδή η τεκμηρίωση για το τι υποτίθεται ότι κάνουν αυτά τα μοντέλα είναι κατακερματισμένη και οι αξιολογήσεις που συμπεριλαμβάνουμε στην τεκμηρίωση είναι ανεπαρκείς”, δήλωσε ο Sven Cattell, ο οποίος ηγείται του AI Village του DEF CON.
Σχεδόν 500 συμμετέχοντες δοκίμασαν μοντέλα τεχνητής νοημοσύνης στο συνέδριο, με ακόμη και νεοφερμένους να εντοπίζουν με επιτυχία ευπάθειες.
Οι ερευνητές ζήτησαν την υιοθέτηση πλαισίων παρόμοιων με το σύστημα Common Vulnerabilities and Exposures (CVE) που χρησιμοποιείται στην παραδοσιακή ασφάλεια στον κυβερνοχώρο από το 1999.
Αυτό θα δημιουργούσε τυποποιημένους τρόπους τεκμηρίωσης και αντιμετώπισης τρωτών σημείων στην AI, αντί να βασίζεται σε περιστασιακούς ελέγχους ασφαλείας.