Η Google προειδοποίησε τους υπαλλήλους της να μην αποκαλύπτουν εμπιστευτικές πληροφορίες και να μην χρησιμοποιούν κώδικα που δημιουργείται από το chatbot AI, Bard.
Η πολιτική δεν προκαλεί έκπληξη, καθώς η εταιρεία συμβούλεψε επίσης τους χρήστες να μην συμπεριλαμβάνουν ευαίσθητες πληροφορίες στις συνομιλίες τους με τον Bard λόγω απορρήτου.
Άλλες μεγάλες εταιρείες έχουν προειδοποιήσει επίσης το προσωπικό τους να μην διαρρέουν ιδιόκτητα έγγραφα ή κώδικα και τους έχουν απαγορεύσει τη χρήση άλλων chatbots AI.
Η εσωτερική προειδοποίηση της Google ωστόσο, εγείρει ανησυχίες για το ότι τα εργαλεία τεχνητής νοημοσύνης που έχουν δημιουργηθεί από ιδιωτικές εταιρείες δεν είναι αξιόπιστα – ειδικά εάν οι ίδιοι οι δημιουργοί δεν τα χρησιμοποιούν λόγω κινδύνων για το απόρρητο και την ασφάλεια.
Η προειδοποίηση των εργαζομένων της εταιρείας να μην χρησιμοποιούν απευθείας τον κώδικα που δημιουργείται από τον Bard υπονομεύει τους ισχυρισμούς της Google ότι το chatbot της μπορεί να βοηθήσει τους προγραμματιστές να γίνουν πιο παραγωγικοί.
Η Google ανέφερε στο Reuters ότι η εσωτερική απαγόρευση προτάθηκε επειδή ο Bard μπορεί να παράγει “ανεπιθύμητο κώδικα”.
Αυτό θα μπορούσε να οδηγήσει σε προγράμματα με σφάλματα ή σε κάποιο πολύπλοκο, διογκωμένο λογισμικό που θα κοστίσει περισσότερο χρόνο στους προγραμματιστές να το διορθώσουν από το να το γράψουν από την αρχή χωρίς τεχνητή νοημοσύνη.