Σε προηγούμενη δημοσίευση αναφέραμε ότι περισσότεροι από 1.100 ειδικοί της τεχνητής νοημοσύνης, ηγέτες του κλάδου και ερευνητές υπέγραψαν μια αναφορά καλώντας τους προγραμματιστές να σταματήσουν να εκπαιδεύουν μοντέλα πιο ισχυρά από το ChatGPT-4 της OpenAI για τουλάχιστον έξι μήνες.
Μεταξύ εκείνων που απέφυγαν να υπογράψουν ήταν ο Eliezer Yudkowsky, ένας θεωρητικός αποφάσεων από τις ΗΠΑ και επικεφαλής ερευνητής στο Ινστιτούτο Ερευνών Μηχανικής Ευφυΐας. Εργάζεται για την ευθυγράμμιση της Τεχνητής Γενικής Νοημοσύνης από το 2001 και θεωρείται ευρέως ως ιδρυτής του τομέα.
“Αυτό το μορατόριουμ των 6 μηνών θα ήταν καλύτερο από το μη μορατόριουμ”, γράφει ο Yudkowsky σε ένα άρθρο γνώμης για το περιοδικό Time.
“Απέφυγα να υπογράψω γιατί πιστεύω ότι η επιστολή υποτιμά τη σοβαρότητα της κατάστασης και ζητά πολύ λίγα για να λυθεί το πρόβλημα“.
Ο Yudkowsky ανεβάζει τους τόνους αναφέροντας: “Αν κάποιος κατασκευάσει ένα πολύ ισχυρό AI, υπό τις παρούσες συνθήκες, περιμένω ότι κάθε μέλος του ανθρώπινου είδους και όλη η βιολογική ζωή στη Γη θα πεθάνει λίγο αργότερα”.
Ακολουθεί ένα απόσπασμα από το άρθρο του:
Το βασικό ζήτημα δεν είναι η “ανθρώπινη-ανταγωνιστική” νοημοσύνη (όπως το θέτει η ανοιχτή επιστολή). είναι αυτό που θα συμβεί όταν η τεχνητή νοημοσύνη φτάσει να είναι πιο έξυπνη από την ανθρώπινη νοημοσύνη. Τα βασικά χαρακτηριστικά εκεί μπορεί να μην είναι προφανή, και σίγουρα δεν μπορούμε να υπολογίσουμε εκ των προτέρων τι θα συμβεί. Όμως αυτή τη στιγμή μπορεί ένα ερευνητικό εργαστήριο να ξεπεράσει κρίσιμες γραμμές χωρίς να το παρατηρήσει.
Δεν είναι ότι δεν μπορούμε, καταρχήν, να επιβιώσουμε δημιουργώντας κάτι πολύ πιο έξυπνο από εμάς. Είναι ότι θα απαιτούσε ακρίβεια, προετοιμασία και νέες επιστημονικές γνώσεις και πιθανώς να μην υπάρχουν συστήματα τεχνητής νοημοσύνης που αποτελούνται από γιγάντιες ανεξερεύνητες συστοιχίες κλασματικών αριθμών.
Χρειάστηκαν περισσότερα από 60 χρόνια από την πρώτη πρόταση για μελέτη της έννοιας της Τεχνητής Νοημοσύνης για να φτάσουμε στις σημερινές δυνατότητες. Η επίλυση της ασφάλειας της υπεράνθρωπης νοημοσύνης – όχι η τέλεια ασφάλεια, η ασφάλεια με την έννοια του “να μην τους σκοτώσουμε κυριολεκτικά όλους” – θα μπορούσε εύλογα να διαρκέσει τουλάχιστον το μισό χρόνο. Το θέμα με τις δοκιμές της υπεράνθρωπης ευφυΐας είναι ότι αν κάνετε λάθος με την πρώτη προσπάθεια, δεν θα μπορείτε να μάθετε από τα λάθη σας, γιατί θα είστε νεκροί. Η ανθρωπότητα δεν θα μάθει από το λάθη της και δεν θα προσπαθήσει ξανά, όπως σε άλλες προκλήσεις που έχουμε ξεπεράσει στην ιστορία μας, γιατί όλοι θα έχουμε φύγει.
Το να προσπαθείς να πετύχεις να είναι όλα σωστά με την πρώτη κρίσιμη προσπάθεια είναι ένα εξαιρετικό ζητούμενο, στην επιστήμη και στη μηχανική. Δεν είμαστε προετοιμασμένοι. Δεν είμαστε έτοιμοι να είμαστε προετοιμασμένοι σε οποιοδήποτε εύλογο χρονικό διάστημα. Δεν υπάρχει σχέδιο. Η πρόοδος στις ικανότητες της τεχνητής νοημοσύνης τρέχει πολύ, πολύ πιο μπροστά από την πρόοδο στην ευθυγράμμιση της τεχνητής νοημοσύνης ή ακόμα και την πρόοδο στην κατανόηση του τι διάολο συμβαίνει μέσα σε αυτά τα συστήματα. Αν το κάνουμε αυτό, θα πεθάνουμε όλοι.