Το γεγονός ότι τα μοντέλα τεχνητής νοημοσύνης μπορούν να προκαλέσουν προβλήματα είχε ήδη αναγνωριστεί από την ΕΕ στον κανονισμό της για την τεχνητή νοημοσύνη – τον Νόμο περί Τεχνητής Νοημοσύνης.
Ωστόσο, η Επιτροπή, το Ευρωπαϊκό Κοινοβούλιο και τα κράτη μέλη ανέθεσαν σε μεγάλο βαθμό τον τρόπο αντιμετώπισης αυτών των προβλημάτων στους προγραμματιστές και τους οργανισμούς ανάπτυξης: η εκπαίδευση, οι δοκιμές και η αξιολόγηση θα πρέπει να τεκμηριώνονται και οι κίνδυνοι θα πρέπει να αντιμετωπίζονται επαρκώς.
Τι ακριβώς είναι αυτά και πώς θα πρέπει να αντιμετωπιστούν; Το πρώτο νομοσχέδιο κρίθηκε ακατάλληλο για όλα τα παραπάνω λόγω της ποικιλίας των μοντέλων και των πολυάριθμων προβλημάτων.
Χρειαζόταν κώδικες συμπεριφοράς ή συγκρίσιμα πρότυπα από τους παρόχους τέτοιων μοντέλων που έπρεπε να περιέχουν τις μεγαλύτερες ανησυχίες για τα μοντέλα τεχνητής νοημοσύνης. Μετά λοιπόν από έξι μήνες εντατικών συζητήσεων, ο κεντρικός “Κώδικας Πρακτικής” παρουσιάστηκε με μερικές εβδομάδες καθυστέρηση.
Ο κώδικας δεοντολογίας (General-Purpose AI -GPAI- Code of Practice) χωρίζεται σε τρεις τομείς: Διαφάνεια, Πνευματικά Δικαιώματα και, σαν τρίτο μέρος, η Ασφάλεια και Διασφαλίσεις.
Σε ένα έγγραφο Word με πεδία απαντήσεων πολλαπλής επιλογής και ελεύθερου κειμένου, οι πάροχοι θα πρέπει να εξηγούν με απλό τρόπο πώς, πότε και με ποιες μεθόδους, χρησιμοποίησαν σύνολα δεδομένων και πόρους για να δημιουργήσουν τα μοντέλα τους.
Αυτή η τεκμηρίωση θα αποτελεί υποχρεωτική απαίτηση για την λειτουργία μοντέλων τεχνητής νοημοσύνης στην ΕΕ από το δεύτερο δεκαπενθήμερο του Αυγούστου 2025.
Στον τομέα των πνευματικών δικαιωμάτων, για παράδειγμα, περιλαμβάνονται ορισμένες δεσμεύσεις στις οποίες οι φορείς εκμετάλλευσης των AI μοντέλων θα πρέπει να πληρούν πριν υποβληθούν το Word με την υπογραφή τους. Αυτό περιλαμβάνει τη μη ανίχνευση ιστότοπων πειρατείας για εκπαίδευση ή την εξέταση περιορισμών δικαιωμάτων σύμφωνα με τις οδηγίες του DSA (Digital Services Act). Αυτό περιλαμβάνει την πρόληψη εμφάνισης αποτελεσμάτων που παραβιάζουν δικαιώματα στο μέτρο του δυνατού.
Το πιο δύσκολο μέρος στην εφαρμογή ωστόσο, αφορά τον μετριασμό των αντίστοιχων συστημικών κινδύνων που εξαρτώνται από το μοντέλο, τα δεδομένα εκπαίδευσης, τις δυνατότητες και τους περιορισμούς του, όπως απαιτείται από το άρθρο 55 του κανονισμού για την τεχνητή νοημοσύνη.
Ο Κώδικας Δεοντολογίας θα πρέπει πλέον να παρέχει συγκεκριμένες οδηγίες σχετικά με το τι είδους κινδύνους θα μπορούσαν να υπάρχουν και πώς μπορούν να αντιμετωπιστούν επαγγελματικά.
Τεράστιο το εύρος όπως καταλαβαίνετε: από τις τεχνητά δημιουργημένες γυμνές εικόνες ή πορνογραφία βασισμένη σε φωτογραφίες πραγματικών ανθρώπων έως τις απειλές για την εθνική ασφάλεια, το μεροληπτικό περιεχόμενο, ανακριβείς συμβουλές υγείας, chatbots ριζοσπαστικοποίησης, και οτιδήποτε δεν έχουμε σκεφτεί μέχρι σήμερα.
Η χρήση μοντέλων για την ανάπτυξη όπλων NBC (από το nuclear, biological, chemical) ή εργαλείων ψηφιακών επιθέσεων είναι επίσης σενάρια που πρέπει να εξεταστούν. Ο Κώδικας Πρακτικής προσφέρει κυρίως ένα μοντέλο αναφοράς για την αντιμετώπιση αυτού του ζητήματος.
Ανεπάρκεια και στάχτη στα μάτια…
Ο νέος Κώδικας Πρακτικής δεν είναι δεσμευτικός για κανέναν μεμονωμένο πάροχο. Ταυτόχρονα, δεν προστατεύει αποτελεσματικά κανέναν υπογράφοντα πάροχο από το να διωχθεί κάποια μέρα εάν αποδειχθεί ότι τα μέτρα ήταν ανεπαρκή. Ο Κώδικας Πρακτικής, ο οποίος αναπτύχθηκε από ανεξάρτητους επιστήμονες για λογαριασμό της Επιτροπής της ΕΕ και σε μια εκτεταμένη διαδικασία συμμετοχής, θα συνεχίσει να αποτελεί αντικείμενο έντονης συζήτησης.
Περισσότερες λεπτομέρειες
Αν και τα δελτία τύπου θα είναι από πολύ επιλεγμένα έως και σπάνια, είπα να περάσω … γιατί καμιά φορά κρύβονται οι συντάκτες.
