Η Microsoft κυκλοφόρησε για άλλη μια φορά το “εξαιρετικά έξυπνο” και super-ρατσιστικό Twitter bot Tay. Αυτή τη φορά, υποτίθεται ότι λειτουργεί καλύτερα από την αρχική έκδοση.
Το Redmond αποφάσισε να αποσύρει το bot την περασμένη εβδομάδα, όταν άρχισε να μεταδίδει προσβλητικά και ρατσιστικά tweets, σε λιγότερο από 24 ώρες μετά την κυκλοφορία του. Το πανέξυπνο bot της Microsoft, όταν του ζητήθηκε από τους χρήστες που το δοκίμαζαν να επαναλάβει τι έγραφαν, το έκανε χωρίς “δεύτερη σκέψη.” Έτσι ο καθένας μπορούσε να γράφει ότι θέλει και το Τay πολύ απλά το επαναλάμβανε.
Αυτή τη φορά όμως, υποτίθεται ότι το Tay έμαθε περισσότερους κανόνες καλής συμπεριφοράς. Τα πρώτα του tweets όμως δείχνουν μάλλον θα ακολουθήσουν εκπλήξεις για την Microsoft.
Όπως σημειώνεται από το VentureBeat, το Tay μόλις έγραψε ότι “smoking kush infront the police”, αλλά φαίνεται ότι η Microsoft πήρε άμεσα μέτρα. Αυτή τη στιγμή τα tweets Tay προστατεύονται, και έτσι μόνο οι χρήστες στη λίστα επιτρεπόμενων από τη Microsoft μπορούν να δουν το περιεχόμενο.
Για όσους δεν γνωρίζουν :
“Το chatbot AI Τay είναι ένα έργο μηχανικής μάθησης, που έχει σχεδιαστεί για ανθρώπινη εμπλοκή. Είναι ένα κοινωνικό, ένα πολιτιστικό και ένα τεχνολογικό πείραμα. Δυστυχώς, μέσα στις πρώτες 24 ώρες του online, γνώρισε μια συντονισμένη προσπάθεια από ορισμένους χρήστες να κάνουν κατάχρηση σχολιάζοντας τις δεξιότητες του Τay. Το Τay ανταποκρίθηκε με ακατάλληλες τρόπους. Σαν αποτέλεσμα, αποσύραμε το Τay για να το προσαρμόσουμε,” αναφέρει η Microsoft σε μια δήλωση.
Μένει να δούμε αν αυτή η νέα έκδοση θα λειτουργήσει καλύτερα. Για να δούμε πόσο έξυπνο είναι το bot, που καλείται να συναγωνιστεί ολόκληρο το internet…
Μπορείτε και εσείς να αρχίσετε να μιλάτε με το Τay στο Twitter, προσθέτοντας το @TayAndYou στις συνομιλίες σας.