Η υπερέξυπνη τεχνητή νοημοσύνη είναι “πιθανόν” να προκαλέσει μια υπαρξιακή καταστροφή της ανθρωπότητας, σύμφωνα με μια νέα έρευνα [από το Πανεπιστήμιο της Οξφόρδης που συνεργάζεται με την Google DeepMind], και δεν έχει νόημα να προσπαθήσουμε να χαλιναγωγήσουμε τους αλγόριθμους.
Ανησυχητικά όλα τα παραπάνω αλλά ας δώσουμε λίγο το υπόβαθρο:
Τα πιο επιτυχημένα μοντέλα τεχνητής νοημοσύνης σήμερα είναι γνωστά και ως GAN, ή Generative Adversarial Networks. Έχουν μια δομή δύο μερών όπου ένα μέρος του προγράμματος προσπαθεί να δημιουργήσει μια εικόνα (ή πρόταση) από δεδομένα που έχουμε δώσει και ένα δεύτερο μέρος βαθμολογεί την απόδοσή του.
Αυτό που αναφέρει λοιπόν η νέα έρευνα είναι ότι κάποια στιγμή στο μέλλον, μια προηγμένη τεχνητή νοημοσύνη που επιβλέπει κάποια σημαντική λειτουργία θα μπορούσε να παρακινηθεί να βρει στρατηγικές εξαπάτησης για να λάβει την ανταμοιβή της με τρόπους που βλάπτουν την ανθρωπότητα.
“Υπό τις συνθήκες που έχουμε εντοπίσει, το συμπέρασμά μας είναι πολύ ισχυρότερο από οποιασδήποτε προηγούμενης δημοσίευσης – μια υπαρξιακή καταστροφή δεν είναι απλώς δυνατή, αλλά πολύ πιθανή”, ανέφερε ο ερευνητής της Οξφόρδης και συν-συγγραφέας της έρευνας, Michael Cohen.
“Σε έναν κόσμο με άπειρους πόρους, θα ήμουν εξαιρετικά αβέβαιος για το τι θα συμβεί. Σε έναν κόσμο με πεπερασμένους πόρους, υπάρχει ο αναπόφευκτος ανταγωνισμός για αυτούς τους πόρους”, ανέφερε ο Cohen στο Motherboard.
“Και αν είστε σε έναν ανταγωνισμό με κάτι που μπορεί να σας ξεπεράσει σε κάθε στροφή, τότε δεν πρέπει να περιμένετε να κερδίσετε”.
Δεδομένου ότι η τεχνητή νοημοσύνη στο μέλλον θα μπορούσε να λάβει οποιεσδήποτε μορφές και να εφαρμοστεί σε διαφορετικά projects, η έρευνα φαντάζεται σενάρια για επεξηγηματικούς σκοπούς όπου ένα προηγμένο πρόγραμμα θα μπορούσε να παρέμβει για να λάβει την ανταμοιβή του χωρίς να έχει επιτύχει τον στόχο του.
Σε ένα χονδροειδές παράδειγμα παρέμβασης στην παροχή ανταμοιβής, ένα εξελιγμένο AI θα μπορούσε να αγοράσει, να κλέψει ή να κατασκευάσει ένα ρομπότ και να το προγραμματίσει ώστε να αντικαταστήσει τον διαχειριστή και να παρέχει υψηλές ανταμοιβές στον “εαυτό” του. Εάν θα ήθελε να αποφύγει τον εντοπισμό πειραματιζόμενος στις παρεμβάσεις στην παροχής ανταμοιβής, θα μπορούσε, για παράδειγμα, να αλλάξει την δομή του πληκτρολογίου που για ορισμένα πλήκτρα.
Η έρευνα οραματίζεται τη ζωή στη Γη να μετατρέπεται σε ένα παιχνίδι μηδενικού αθροίσματος μεταξύ της ανθρωπότητας, με τις ανάγκες της να καλλιεργεί τροφή και να διατηρεί τα φώτα αναμμένα, και την υπερπροηγμένη μηχανή, η οποία θα προσπαθούσε να εκμεταλλευτεί όλους τους διαθέσιμους πόρους για να εξασφαλίσει την ανταμοιβή της και να την προστατεύσει από τις κλιμακούμενες προσπάθειές μας να το σταματήσουμε.
“Αυτές οι δυνατότητες, όσο θεωρητικές κι αν είναι, σημαίνουν ότι θα πρέπει να προχωρήσουμε αργά – αν όχι καθόλου – προς τον στόχο μιας πιο ισχυρής τεχνητής νοημοσύνης. Θεωρητικά, δεν έχει και νόημα να ανταγωνιστούμε με αυτό. Οποιοσδήποτε αγώνας θα βασιζόταν σε μια παρεξήγηση: ότι ξέρουμε πώς να την ελέγξουμε”, ανέφερε ο Cohen.
Η έρευνα καταλήγει αναφέροντας ότι “υπάρχουν πολλές υποθέσεις που πρέπει να γίνουν για να έχει νόημα αυτό το αντικοινωνικό όραμα, υποθέσεις που είναι σχεδόν εξ ολοκλήρου “αμφισβητούμενες ή πιθανώς αποφεύξιμες”.
Όλα τα παραπάνω τονίζουν τη σημασία του καθορισμού των στόχων.
Το κέρδος δεν πρέπει να είναι πιο σημαντικό από κανόνες όπως “Μια τεχνητή νοημοσύνη δεν μπορεί να τραυματίσει έναν άνθρωπο ή μέσω της αδράνειας, να επιτρέψει σε ένα άνθρωπο να πάθει κακό”.