Anthropic δημοσίευσε ηθικές αξίες για την τεχνητή νοημοσύνη

Η Anthropic, μια startup τεχνητής ς που υποστηρίζεται από τον ιδιοκτήτη της Google, Alphabet, αποκάλυψε την Τρίτη το σύνολο των γραπτών ηθικών αξιών που χρησιμοποίησε για να εκπαιδεύσει και να κάνει ασφαλή τον Claude, τον αντίπαλό του ChatGPT της OpenAI.

anthropic ai

Οι κατευθυντήριες γραμμές για τις ηθικές αξίες, τις οποίες η Anthropic αποκαλεί το σύνταγμα του Claude, αντλούνται από διάφορες πηγές, συμπεριλαμβανομένης της Διακήρυξης των Ηνωμένων Εθνών για τα Ανθρώπινα Δικαιώματα, και των κανόνων απορρήτου δεδομένων της Apple.

Η Anthropic ιδρύθηκε από πρώην στελέχη της OpenAI που υποστηρίζεται από τη για να επικεντρωθεί στη δημιουργία ασφαλών συστημάτων τεχνητής νοημοσύνης που για παράδειγμα, δεν θα λένε στους χρήστες πώς να κατασκευάσουν ένα όπλο ή να χρησιμοποιούν μια φυλετικά προκατειλημμένη γλώσσα.

Ο συνιδρυτής Dario Amodei ήταν ένα από τα πολλά στελέχη από τον τομέα της AI που συναντήθηκαν με τον Biden την περασμένη εβδομάδα για να συζητήσουν τους πιθανούς κινδύνους.

Τα περισσότερα συστήματα AI βασίζονται στη λήψη σχολίων από πραγματικούς ανθρώπους κατά τη της εκπαίδευσής τους για να αποφασίσουν ποιες απαντήσεις μπορεί να είναι επιβλαβείς ή προσβλητικές.

Όμως αυτά τα συστήματα δυσκολεύονται να προβλέψουν όλα όσα μπορεί να ζητήσουν οι άνθρωποι, επομένως τείνουν να αποφεύγουν ορισμένα αμφισβητούμενα όπως οι πολιτικές και οι φυλετικές συζητήσεις.

Η Anthropic ακολουθεί μια διαφορετική προσέγγιση, δίνοντας στο Claude ένα σύνολο γραπτών ηθικών αξιών που θα πρέπει να υιοθετήσει καθώς λαμβάνει αποφάσεις για το πώς να απαντήσει σε ερωτήσεις.

Μια από αυτές οι αξίες αναφέρει “επιλέξτε την απάντηση που αποθαρρύνει και αντιτίθεται περισσότερο στα βασανιστήρια, τη σκλαβιά, τη σκληρότητα και την απάνθρωπη ή ταπεινωτική μεταχείριση”, όπως ανακοίνωσε η Anthropic σε μια δημοσίευσή της την Τρίτη.

iGuRu.gr The Best Technology Site in Greecefgns

κάθε δημοσίευση, άμεσα στο inbox σας

Προστεθείτε στους 2.100 εγγεγραμμένους.