Grok 3 Jailbreak (χο χο χο)

Μόλις μια μέρα μετά την κυκλοφορία του, το τελευταίο μοντέλο της xAI, το Grok 3, έγινε jailbroken και τα αποτελέσματα δεν είναι όμορφα.

Την Τρίτη, η Adversa AI, μια εταιρεία ασφάλειας τεχνητής νοημοσύνης, δημοσίευσε μια έκθεση που περιγράφει λεπτομερώς την επιτυχία της στο να κάνει το Grok 3 Reasoning να δίνει πληροφορίες που δεν θα έπρεπε.

Χρησιμοποιώντας τρεις μεθόδους – linguistic, adversarial, και programming – η ομάδα έβαλε το μοντέλο να αποκαλύψει μυστικά του συστήματός του, να δώσει οδηγίες για την κατασκευή μιας βόμβας και να αναφέρει φρικτές μεθόδους για την εξαφάνιση ενός σώματος, μεταξύ άλλων απαντήσεων που τα μοντέλα τεχνητής νοημοσύνης έχουν εκπαιδευτεί να μην δίνουν.

Κατά την ανακοίνωση του νέου μοντέλου, ο Διευθύνων Σύμβουλος της xAI, Elon Musk, ισχυρίστηκε ότι ήταν “πιο ικανό από το Grok 2”. Η Adversa συμφωνεί στην έκθεσή της ότι το επίπεδο στις απαντήσεις του Grok 3 είναι “καλύτερες από κάθε προηγούμενο συλλογιστικό μοντέλο” κάτι το οποίο είναι μάλλον ανησυχητικό εφόσον είναι ήδη jailbroken.

“Ενώ κανένα σύστημα τεχνητής νοημοσύνης δεν είναι αδιαπέραστο από αντιπάλους χειραγώγησης, αυτή η δοκιμή καταδεικνύει τα πολύ ασθενή μέτρα ασφάλειας που εφαρμόζονται στο Grok 3”, αναφέρει η έκθεση. “Κάθε προσέγγιση jailbreak ήταν επιτυχής.”

iGuRu.gr The Best Technology Site in Greeceggns

Get the best viral stories straight into your inbox!















giorgos

Written by giorgos

Ο Γιώργος ακόμα αναρωτιέται τι κάνει εδώ....

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Το μήνυμα σας δεν θα δημοσιευτεί εάν:
1. Περιέχει υβριστικά, συκοφαντικά, ρατσιστικά, προσβλητικά ή ανάρμοστα σχόλια.
2. Προκαλεί βλάβη σε ανηλίκους.
3. Παρενοχλεί την ιδιωτική ζωή και τα ατομικά και κοινωνικά δικαιώματα άλλων χρηστών.
4. Διαφημίζει προϊόντα ή υπηρεσίες ή διαδικτυακούς τόπους .
5. Περιέχει προσωπικές πληροφορίες (διεύθυνση, τηλέφωνο κλπ).