Η Google ετοιμάζει μια νέα υπηρεσία που θα παρέχει συμβουλές δεοντολογίας σε εταιρείες που α αναπτύσσουν λύσεις AI.
Σύμφωνα με μια δημοσίευση του Wired, η εταιρεία εξετάζει το ενδεχόμενο να ξεκινήσει με αυτή τη συμβουλευτική υπηρεσία δεοντολογίας έως το τέλος του 2020.
Ο δημοσιογράφος Tom Simonite αναφέρει:
Αρχικά, η Google θα προσφέρει σε άλλους συμβουλές για διάφορες εργασίες, όπως τον εντοπισμό φυλετικής προκατάληψης ή ανάπτυξη δεοντολογικών οδηγιών που διέπουν τα AI projects. Μακροπρόθεσμα, η εταιρεία μπορεί να προσφέρει έλεγχο των συστημάτων AI των πελατών της για ηθική ακεραιότητα και συμβουλές δεοντολογίας.
Η Google θέλει να ελέγχει για προκατάληψη με τους αλγόριθμους που χρησιμοποιεί και σκέφτεται να πουλάει συμβουλές δεοντολογίας;
Μιλάμε για την εταιρεία που πιάστηκε να εκμεταλλεύεται άστεγους για να αναπτύξει τους αλγόριθμους αναγνώρισης προσώπου; Εννοούμε την Google, την εταιρεία που σταμάτησε να διαθέτει πρόσφατα τα diversity programs που αναπτύσσει τους συντηρητικούς;
Την Google που ανέπτυξε μια λογοκριμένη μηχανή αναζήτησης για την Κίνα, δημιούργησε μια πλατφόρμα όπλων με τεχνητή νοημοσύνη για το Πεντάγωνο και έχει μια μακρά ιστορία τιμωρίας ακτιβιστών;
Εάν πληρώσετε την Google για να ελέγξετε την τεχνητή νοημοσύνη σας μην είστε και τόσο σίγουροι για τα αποτελέσματα. Η Google εξακολουθεί να θέλει να κερδίζει χρήματα και μην ξεχνάτε:
Google Don’t be evil ισχύει και για το 2020;