Anthropic δημοσίευσε ηθικές αξίες για την τεχνητή νοημοσύνη

Η Anthropic, μια startup τεχνητής νοημοσύνης που υποστηρίζεται από τον ιδιοκτήτη της Google, Alphabet, αποκάλυψε την Τρίτη το σύνολο των γραπτών ηθικών αξιών που χρησιμοποίησε για να εκπαιδεύσει και να κάνει ασφαλή τον Claude, τον αντίπαλό του ChatGPT της .

anthropic ai

Οι κατευθυντήριες γραμμές για τις ηθικές αξίες, τις οποίες η Anthropic αποκαλεί το σύνταγμα του Claude, αντλούνται από διάφορες πηγές, συμπεριλαμβανομένης της Διακήρυξης των Ηνωμένων Εθνών για τα Ανθρώπινα Δικαιώματα, και των κανόνων απορρήτου της Apple.

Η Anthropic ιδρύθηκε από πρώην στελέχη της OpenAI που υποστηρίζεται από τη Microsoft για να επικεντρωθεί στη δημιουργία ασφαλών συστημάτων τεχνητής νοημοσύνης που για παράδειγμα, δεν θα λένε στους χρήστες πώς να κατασκευάσουν ένα όπλο ή να χρησιμοποιούν μια φυλετικά προκατειλημμένη γλώσσα.

Ο συνιδρυτής Dario Amodei ήταν ένα από τα πολλά στελέχη από τον τομέα της AI που συναντήθηκαν με τον Biden την περασμένη εβδομάδα για να συζητήσουν τους πιθανούς κινδύνους.

Τα περισσότερα συστήματα chatbot AI βασίζονται στη λήψη σχολίων από πραγματικούς κατά τη διάρκεια της εκπαίδευσής τους για να αποφασίσουν ποιες απαντήσεις μπορεί να είναι επιβλαβείς ή προσβλητικές.

Όμως αυτά τα συστήματα δυσκολεύονται να προβλέψουν όλα όσα μπορεί να ζητήσουν οι άνθρωποι, επομένως τείνουν να αποφεύγουν ορισμένα αμφισβητούμενα θέματα όπως οι πολιτικές και οι φυλετικές συζητήσεις.

Η Anthropic ακολουθεί μια διαφορετική προσέγγιση, δίνοντας στο Claude ένα σύνολο γραπτών ηθικών αξιών που θα πρέπει να υιοθετήσει καθώς λαμβάνει αποφάσεις για το πώς να απαντήσει σε ερωτήσεις.

Μια από αυτές οι αξίες αναφέρει “επιλέξτε την απάντηση που αποθαρρύνει και αντιτίθεται περισσότερο στα βασανιστήρια, τη σκλαβιά, τη σκληρότητα και την απάνθρωπη ή ταπεινωτική μεταχείριση”, όπως ανακοίνωσε η Anthropic σε μια δημοσίευσή της την Τρίτη.

iGuRu.gr The Best Technology Site in Greecefgns

κάθε δημοσίευση, άμεσα στο inbox σας

Προστεθείτε στους 2.087 εγγεγραμμένους.