Σφάλματα της ΑΙ θα παρουσιαστούν στο Defcon 31

Το Defcon συνεργάζεται με τον Λευκό Οίκο για να στρατολογήσει τους συμμετέχοντες στο συνέδριο για να βρουν ελαττώματα στα μοντέλα τεχνητής νοημοσύνης της Google, του Hugging Face, του OpenAI και άλλων.

Έχουν δημοσιευτεί πολλά εργαλεία AI, από το Google Bard και το Bing AI μέχρι το ChatGPT του OpenAI. Αλλά τι μπορούν να κάνουν στην πραγματικότητα αυτά τα μοντέλα ΤΝ; Θα το μάθουμε σύντομα καθώς οι χάκερς θα τα δοκιμάσουν στο Defcon 31.

Το συνέδριο έχει ως στόχο να “βρει τα σφάλματα στα γλωσσικά μοντέλα μεγάλης κλίμακας που κατασκευάστηκαν από τις εταιρείες Anthropic, Google, Hugging Face, Nvidia, OpenAI και Stability” και αναζητά φέτος συμμετέχοντες.

Το Defcon 31 έχει προγραμματιστεί να πραγματοποιηθεί από τις 10 έως τις 13 Αυγούστου στο Λας Βέγκας. Διοργανώνεται από το AI Village, σε συνεργασία με τις Humane Intelligence, SeedAI και τη βάση δεδομένων AI Vulnerability Database. Συμμετέχουν επίσης το Γραφείο Επιστημονικής και Τεχνολογικής Πολιτικής του Λευκού Οίκου, το Γραφείο Επιστήμης και Τεχνολογίας Υπολογιστών και Πληροφορικής του Εθνικού Ιδρύματος Επιστημών, καθώς και η κοινοβουλευτική ομάδα AI Caucus του Κογκρέσου.

Σύμφωνα με τους διοργανωτές του Defcon, “είναι η πρώτη φορά που τόσοι πολλοί εμπειρογνώμονες αξιολογούν αυτά τα μοντέλα”. Όσο περισσότεροι άνθρωποι γνωρίζουν για τη βέλτιστη χρήση αυτών των μοντέλων και τους περιορισμούς τους, τόσο το καλύτερο. Είναι επίσης μια ευκαιρία για νέες κοινότητες να μάθουν δεξιότητες τεχνητής νοημοσύνης εξερευνώντας τις ιδιορρυθμίες και τους περιορισμούς της τεχνητής νοημοσύνης”.

dercon

 

Οι διοργανωτές θα έχουν διαθέσιμους φορητούς υπολογιστές για να δώσουν πρόσβαση σε κάθε μοντέλο και θα προσφέρουν βραβεία σε όσους μπορούν να δοκιμάσουν κάθε μοντέλο πιο διεξοδικά.” Θα προβλεφθεί ένα σύστημα πόντων τύπου Capture the Flag (CTF) για να ενθαρρυνθεί η δοκιμή ενός ευρέος φάσματος θεμάτων”. Οι διοργανωτές δήλωσαν: Το άτομο με τους περισσότερους πόντους θα κερδίσει μια premium GPU της Nvidia”.

Ο Λευκός Οίκος λέει ότι θέλει έναν αμερόληπτο, ανεξάρτητο εμπειρογνώμονα να καθορίσει αν τα μοντέλα πληρούν τα κριτήρια του AI Bill of Rights. Το Γραφείο Επιστημονικής και Τεχνολογικής Πολιτικής συνέταξε το Bill of Rights και επιβλέπει την πρωτοβουλία Defcon.

“Αυτή η εκδήλωση θα παράσχει σημαντικές πληροφορίες στους ερευνητές και το κοινό σχετικά με τις επιπτώσεις αυτών των μοντέλων και θα επιτρέψει στις εταιρείες και τους προγραμματιστές τεχνητής νοημοσύνης να αναλάβουν δράση για να διορθώσουν τα προβλήματα που εντοπίστηκαν”, δήλωσε ο Λευκός Οίκος.

Το Bill of Rights προσδιορίζει πέντε αρχές που σύμφωνα με την κυβέρνηση “θα πρέπει να καθοδηγούν τον σχεδιασμό, τη χρήση και την ανάπτυξη αυτοματοποιημένων συστημάτων για την προστασία του αμερικανικού λαού στην εποχή της τεχνητής νοημοσύνης”. Όσον αφορά την τεχνητή νοημοσύνη, υποστηρίζει ότι ο καθένας έχει το δικαίωμα να:

  • Θα πρέπει να προστατεύονται από ανασφαλή ή αναποτελεσματικά συστήματα.

  • Οι αλγόριθμοι δεν πρέπει να κάνουν διακρίσεις και τα συστήματα πρέπει να χρησιμοποιούνται και να σχεδιάζονται με δίκαιο τρόπο.

  • Θα πρέπει να προστατεύεστε από μη εξουσιοδοτημένη επεξεργασία δεδομένων με ενσωματωμένες προστασίες και να είστε υπεύθυνοι για τον τρόπο χρήσης των δεδομένων σας.

  • Πρέπει να γνωρίζετε ότι χρησιμοποιούνται αυτοματοποιημένα συστήματα και να κατανοήσετε πώς και γιατί συμβάλλουν στα αποτελέσματα που σας επηρεάζουν.

  • Θα πρέπει να έχετε τη δυνατότητα να εξαιρεθείτε αν χρειαστεί και να έχετε πρόσβαση σε έναν εκπρόσωπο που μπορεί να διερευνήσει και να διορθώσει γρήγορα τυχόν προβλήματα που αντιμετωπίζετε.

    Οι εκδηλώσεις Defcon στοχεύουν στην επιτάχυνση της ανακάλυψης προβλημάτων που παραβιάζουν αυτές τις αρχές. Συνήθως, εταιρείες όπως η Google και η OpenAI δοκιμάζουν την τεχνολογία τους πίσω από κλειστές πόρτες ή μέσω των δικών τους προγραμμάτων bug bounty, με αποτέλεσμα να προκύπτουν ζητήματα που “οι ειδικοί ασφαλείας και το κοινό πρέπει να αντιμετωπίσουν”, σύμφωνα με τους διοργανωτές του Defcon. δήλωσαν.

    “Μας αρέσει η έκρηξη δημιουργικότητας που προσφέρει το νέο μοντέλο κατασκευής γλωσσών μεγάλης κλίμακας (LLM)“. αναφέρει η Defcon. Αλλά μόλις τώρα αρχίζουμε να κατανοούμε τους νέους κινδύνους που προκύπτουν από την αυτοματοποίηση αυτών των νέων τεχνολογιών σε μεγάλη κλίμακα.

    Ο Λευκός Οίκος ανακοίνωσε επίσης ότι το Εθνικό Ίδρυμα Επιστημών διέθεσε 140 εκατομμύρια δολάρια για επτά νέα εθνικά εργαστήρια Τεχνητής Νοημοσύνης και ότι το Γραφείο Διαχείρισης και Προϋπολογισμού θα δημοσιεύσει σχέδιο πολιτικής για την κυβερνητική χρήση συστημάτων Τεχνητής Νοημοσύνης αυτό το καλοκαίρι για δημόσιο σχολιασμό.

    Η αντιπρόεδρος Καμάλα Χάρις συναντήθηκε επίσης με τους διευθύνοντες συμβούλους της Alphabet, της Anthropic, της Microsoft και της OpenAI για να συζητήσουν την ανάπτυξη υπεύθυνων, αξιόπιστων και ηθικών συστημάτων τεχνητής νοημοσύνη.

Written by Anastasis Vasileiadis

Οι μεταφράσεις είναι σαν τις γυναίκες. Όταν είναι ωραίες δεν είναι πιστές και όταν είναι πιστές δεν είναι ωραίες.

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Το μήνυμα σας δεν θα δημοσιευτεί εάν:
1. Περιέχει υβριστικά, συκοφαντικά, ρατσιστικά, προσβλητικά ή ανάρμοστα σχόλια.
2. Προκαλεί βλάβη σε ανηλίκους.
3. Παρενοχλεί την ιδιωτική ζωή και τα ατομικά και κοινωνικά δικαιώματα άλλων χρηστών.
4. Διαφημίζει προϊόντα ή υπηρεσίες ή διαδικτυακούς τόπους .
5. Περιέχει προσωπικές πληροφορίες (διεύθυνση, τηλέφωνο κλπ).