Η παύση της ανάπτυξης του AI δεν είναι αρκετή. Πρέπει να σταματήσουν όλα

Σε προηγούμενη δημοσίευση αναφέραμε ότι περισσότεροι από 1.100 ειδικοί της ς νοημοσύνης, ηγέτες του κλάδου και ερευνητές υπέγραψαν μια αναφορά καλώντας τους προγραμματιστές να σταματήσουν να εκπαιδεύουν μοντέλα πιο ισχυρά από το ChatGPT-4 της για τουλάχιστον έξι μήνες.

Μεταξύ εκείνων που απέφυγαν να υπογράψουν ήταν ο Eliezer Yudkowsky, ένας θεωρητικός αποφάσεων από τις ΗΠΑ και επικεφαλής ερευνητής στο Ινστιτούτο Ερευνών Μηχανικής Ευφυΐας. Εργάζεται για την ευθυγράμμιση της Τεχνητής Γενικής Νοημοσύνης από το και θεωρείται ευρέως ως ιδρυτής του τομέα.

artificial intelligence

“Αυτό το μορατόριουμ των 6 μηνών θα ήταν καλύτερο από το μη μορατόριουμ”, γράφει ο Yudkowsky σε ένα άρθρο γνώμης για το περιοδικό Time.

“Απέφυγα να υπογράψω γιατί πιστεύω ότι η επιστολή υποτιμά τη σοβαρότητα της κατάστασης και ζητά πολύ λίγα για να λυθεί το “.

Ο Yudkowsky ανεβάζει τους τόνους αναφέροντας: “Αν κάποιος κατασκευάσει ένα πολύ ισχυρό AI, υπό τις παρούσες συνθήκες, περιμένω ότι κάθε μέλος του ανθρώπινου είδους και όλη η βιολογική ζωή στη Γη θα πεθάνει λίγο αργότερα”.

Ακολουθεί ένα απόσπασμα από το άρθρο του:

Το βασικό ζήτημα δεν είναι η “ανθρώπινη-ανταγωνιστική” νοημοσύνη (όπως το θέτει η ανοιχτή επιστολή). είναι αυτό που θα συμβεί όταν η τεχνητή νοημοσύνη φτάσει να είναι πιο έξυπνη από την ανθρώπινη νοημοσύνη. Τα βασικά χαρακτηριστικά εκεί μπορεί να μην είναι προφανή, και σίγουρα δεν μπορούμε να υπολογίσουμε εκ των προτέρων τι θα συμβεί. Όμως αυτή τη στιγμή μπορεί ένα ερευνητικό εργαστήριο να ξεπεράσει κρίσιμες γραμμές χωρίς να το παρατηρήσει.

Δεν είναι ότι δεν μπορούμε, καταρχήν, να επιβιώσουμε δημιουργώντας κάτι πολύ πιο έξυπνο από εμάς. Είναι ότι θα απαιτούσε ακρίβεια, προετοιμασία και νέες επιστημονικές γνώσεις και πιθανώς να μην υπάρχουν συστήματα τεχνητής νοημοσύνης που αποτελούνται από γιγάντιες ανεξερεύνητες συστοιχίες κλασματικών αριθμών.

Χρειάστηκαν περισσότερα από 60 χρόνια από την πρώτη πρόταση για μελέτη της έννοιας της Τεχνητής Νοημοσύνης για να φτάσουμε στις σημερινές δυνατότητες. Η επίλυση της ασφάλειας της υπεράνθρωπης νοημοσύνης – όχι η τέλεια ασφάλεια, η ασφάλεια με την έννοια του “να μην τους σκοτώσουμε κυριολεκτικά όλους” – θα μπορούσε εύλογα να διαρκέσει τουλάχιστον το μισό χρόνο. Το θέμα με τις δοκιμές της υπεράνθρωπης ευφυΐας είναι ότι αν κάνετε λάθος με την πρώτη προσπάθεια, δεν θα μπορείτε να μάθετε από τα σας, γιατί θα είστε νεκροί. Η ανθρωπότητα δεν θα μάθει από το λάθη της και δεν θα προσπαθήσει ξανά, όπως σε άλλες προκλήσεις που έχουμε ξεπεράσει στην ιστορία μας, γιατί όλοι θα έχουμε φύγει.

Το να προσπαθείς να πετύχεις να είναι όλα σωστά με την πρώτη κρίσιμη προσπάθεια είναι ένα εξαιρετικό ζητούμενο, στην επιστήμη και στη μηχανική. Δεν είμαστε προετοιμασμένοι. Δεν είμαστε έτοιμοι να είμαστε προετοιμασμένοι σε οποιοδήποτε εύλογο χρονικό διάστημα. Δεν υπάρχει σχέδιο. Η πρόοδος στις ικανότητες της τεχνητής νοημοσύνης τρέχει πολύ, πολύ πιο μπροστά από την πρόοδο στην ευθυγράμμιση της τεχνητής νοημοσύνης ή ακόμα και την πρόοδο στην κατανόηση του τι διάολο συμβαίνει μέσα σε αυτά τα συστήματα. Αν το κάνουμε αυτό, θα πεθάνουμε όλοι.

iGuRu.gr The Best Technology Site in Greeceggns

Get the best viral stories straight into your inbox!















giorgos

Written by giorgos

Ο Γιώργος ακόμα αναρωτιέται τι κάνει εδώ....

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Το μήνυμα σας δεν θα δημοσιευτεί εάν:
1. Περιέχει υβριστικά, συκοφαντικά, ρατσιστικά, προσβλητικά ή ανάρμοστα σχόλια.
2. Προκαλεί βλάβη σε ανηλίκους.
3. Παρενοχλεί την ιδιωτική ζωή και τα ατομικά και κοινωνικά δικαιώματα άλλων χρηστών.
4. Διαφημίζει προϊόντα ή υπηρεσίες ή διαδικτυακούς τόπους .
5. Περιέχει προσωπικές πληροφορίες (διεύθυνση, τηλέφωνο κλπ).