Η Google ενημέρωσε τη δημόσια σελίδα των αρχών τεχνητής νοημοσύνης για να αφαιρέσει τη δέσμευση να μην κατασκευάσει τεχνητή νοημοσύνη για όπλα ή επιτήρηση.
Ερωτηθείσα για σχόλιο, η εταιρεία υπέδειξε στο TechCrunch μια νέα ανάρτηση στο blog της για την “υπεύθυνη τεχνητή νοημοσύνη” (Responsible development and deployment).
Εκεί αναφέρει, “πιστεύουμε ότι οι εταιρείες, οι κυβερνήσεις και οι οργανισμοί που μοιράζονται αυτές τις αξίες θα πρέπει να συνεργαστούν για να δημιουργήσουν τεχνητή νοημοσύνη που προστατεύει τους ανθρώπους, προωθεί την παγκόσμια ανάπτυξη και υποστηρίζει την εθνική ασφάλεια”.
Οι πρόσφατα ενημερωμένες αρχές τεχνητής νοημοσύνης της Google σημειώνουν ότι η εταιρεία θα εργαστεί για να “μετριάσει τα ακούσια ή επιβλαβή αποτελέσματα και να αποφύγει την άδικη μεροληψία”, καθώς και να ευθυγραμμίσει την εταιρεία με τις “ευρέως αποδεκτές αρχές του διεθνούς δικαίου και των ανθρωπίνων δικαιωμάτων”.
Τα τελευταία χρόνια, οι συμβάσεις της Google για την παροχή υπηρεσιών cloud στον στρατό των ΗΠΑ και του Ισραήλ έχουν πυροδοτήσει πολλές εσωτερικές διαμαρτυρίες από υπαλλήλους. Η εταιρεία υποστήριζε τότε ότι το AI της δεν χρησιμοποιείται για να βλάψει τον άνθρωπο.
Το 2018, σχεδόν 4.000 υπάλληλοι της Google υπέγραψαν μια επιστολή καλώντας την εταιρεία να τερματίσει τη σύμβασή της με το Υπουργείο Άμυνας των ΗΠΑ, γνωστό ως Project Maven, το οποίο αφορούσε τη χρήση τεχνητής νοημοσύνης για την ανάλυση βίντεο από drone.
Ομοίως, πέρυσι, υπάλληλοι της Google DeepMind υπέγραψαν μια επιστολή καλώντας την εταιρεία να τερματίσει τους δεσμούς με στρατιωτικούς οργανισμούς. Η επιστολή ανέφερε τις αρχές της τεχνητής νοημοσύνης της εταιρείας, υποστηρίζοντας ότι η εμπλοκή της με τον στρατό και την κατασκευή όπλων ήταν αντίθετη και παραβίαζε την υπόσχεσή της να μην χρησιμοποιεί τεχνητή νοημοσύνη σε όπλα.