Η Microsoft ζήτησε συγνώμη με μια δημοσίευση για τα ρατσιστικά και επιθετικά Tweets από το Tay chatbot.
Όπως είχαμε αναφέρει σε παλαιότερη δημοσίευση, η εταιρεία ανέπτυξε με Τεχνητή Νοημοσύνη (AI) ένα chatbot που ονόμασε “Tay.” Η εταιρεία το “αμόλησε” στο Twitter νωρίτερα αυτή την εβδομάδα, αλλά τα πράγματα δεν πήγαν όπως τα είχε σχεδιάσει.
Για όσους δεν γνωρίζουν, το Tay είναι ένα chatbot με τεχνητή νοημοσύνη που παρουσιάστηκε από τη Microsoft την Τετάρτη και υποτίθεται ότι θα είχε συνομιλίες με ανθρώπους στα μέσα κοινωνικής δικτύωσης όπως το Twitter, Kik και GroupMe και θα μάθαινε από αυτούς.
Ωστόσο, σε λιγότερο από 24 ώρες η εταιρεία απέσυρε το Τay, μετά από απίστευτα ρατσιστικά σχόλια που εξυμνούσαν τον Χίτλερ και εξύβριζαν τις φεμινίστριες.
Σε μια δημοσίευση της Παρασκευής, ο Corporate Vice President Peter Lee της Microsoft Research ζήτησε συγγνώμη για την ενοχλητική συμπεριφορά του Τay, και ανέφερε ότι δέχτηκε επίθεση από κακόβουλους χρήστες.
Πραγματικά μέσα σε 16 ώρες από την κυκλοφορία του Τay άρχισε να εκφράζει φανερά το θαυμασμό του για τον Χίτλερ, το μίσος του για τους Εβραίους και τους Μεξικανούς, και να κάνει σεξιστικά σχόλια. Κατηγόρησε επίσης τον Πρόεδρο των ΗΠΑ George Bush για την τρομοκρατική επίθεση της 9/11.
Γιατί; Το chatbot Tay ήταν προγραμματισμένο να μαθαίνει από τους ανθρώπους, και μερικά από τα προσβλητικά tweets της επιτευχθήκαν από ανθρώπους που του ζητούσαν να επαναλάβει αυτό που είχαν γράψει.
“Ήταν μια συντονισμένη επίθεση από ένα υποσύνολο ανθρώπων που εκμεταλλεύτηκαν μια ευπάθεια του Tay,” ανέφερε ο Lee. “Ως αποτέλεσμα, το Τay δημοσίευε εξωφρενικά ακατάλληλα και κατακριτέα λόγια και εικόνες.”
Η ακριβής φύση του σφάλματος δεν αποκαλύφθηκε. Η Microsoft διέγραψε 96.000 tweets του Τay και ανέστειλε το πείραμα προς το παρόν.