Η εμπιστοσύνη της Microsoft στην τεχνητή νοημοσύνη φαίνεται να έχει επιφυλάξεις, τουλάχιστον στα ψιλά γράμματα που περιβάλλουν το λογισμικό Copilot. Παρά το γεγονός ότι τοποθετεί το Copilot σαν τον ακρογωνιαίο λίθο της προσπάθειάς της να ενσωματώσει την τεχνητή νοημοσύνη σε εργαλεία των Windows και επιχειρήσεων, η τεκμηρίωση της εταιρείας καθιστά σαφές ότι οι χρήστες δεν πρέπει να βασίζονται στο Copilot για κάτι σοβαρό.
Οι όροι χρήσης του Copilot, που ενημερώθηκαν τον περασμένο Οκτώβριο, θέτουν σαφή όρια για το τι προορίζεται να κάνει το λογισμικό. Το έγγραφο αναφέρει ότι το Copilot προορίζεται μόνο για ψυχαγωγικούς σκοπούς, προσθέτοντας ότι “μπορεί να κάνει λάθη και ενδέχεται να μην λειτουργεί όπως προβλέπεται”. Πιο συγκεκριμένα, η Microsoft συμβουλεύει ρητά να μην βασίζεστε σε αυτό για σημαντικές αποφάσεις, προειδοποιώντας: “Χρησιμοποιήστε το Copilot με δική σας ευθύνη”.
Αυτή η ρητορική βέβαια αλλάζει από το ευρύτερο μήνυμα της εταιρείας. Η Microsoft προωθεί σε μεγάλο βαθμό το Copilot μέσω των υπολογιστών Copilot+, με την βαθιά ενσωμάτωσή του στα Windows 11 και στις εφαρμογές παραγωγικότητας. Αν και οι αποποιήσεις ευθύνης αποτελούν συνήθη πρακτική, η διατύπωση υπογραμμίζει μια ευρύτερη ταση σε ολόκληρο τον κλάδο: Η τεχνητή νοημοσύνη διατίθεται στην αγορά σαν μια απαραίτητη λειτουργία επόμενης γενιάς, ωστόσο περιγράφεται επίσημα σαν αναξιόπιστη.
Αλλά αυτή η αντίφαση δεν υπάρχει μόνο από την Microsoft.
Άλλοι ανταγωνιστές στον τομέα της Τεχνητής Νοημοσύνης διαθέτουν παρόμοιες προειδοποιήσεις. Το xAI του Elon Musk αναφέρει ότι τα συστήματά του είναι πιθανοτικά και ενδέχεται να παράγουν αποτελέσματα που περιλαμβάνουν “παραισθήσεις”:
“Η τεχνητή νοημοσύνη εξελίσσεται ραγδαία και έχει πιθανοτική φύση. Επομένως, μερικές φορές μπορεί: α) να οδηγήσει σε απαντήσεις που περιέχουν “παραισθήσεις”, β) να είναι προσβλητική, γ) να μην αντικατοπτρίζει με ακρίβεια πραγματικούς ανθρώπους, μέρη ή γεγονότα ή δ) να είναι απαράδεκτη, ακατάλληλη ή με άλλο τρόπο ακατάλληλη για τον επιδιωκόμενο σκοπό σας”.
Τέτοιες προειδοποιήσεις μπορεί να φαίνονται περιττές σε όσους κατανοούν πώς λειτουργούν τα γενετικά μοντέλα – πιθανοτικά συστήματα που συνθέτουν κείμενο με βάση μοτίβα. Αλλά παραμένουν απαραίτητες, δεδομένου του πόσο συχνά πολλοί άνθρωποι εμπιστεύονται τις απαντήσεις των μηχανών.
Αυτή η άστοχη εμπιστοσύνη μπορεί να έχει απτές συνέπειες. Στην Amazon, για παράδειγμα, υπήρξαν τουλάχιστον δύο διακοπές λειτουργίας του AWS στις οποίες οι μηχανικοί επέτρεψαν σε ένα bot κωδικοποίησης τεχνητής νοημοσύνης να κάνει αλλαγές χωρίς επαρκή εποπτεία, αν και η εταιρεία αργότερα χαρακτήρισε τα περιστατικά σαν σφάλμα χρήστη και όχι σαν αποτυχία της τεχνητής νοημοσύνης.
Τέτοια γεγονότα υπογραμμίζουν το τεράστιο χάσμα μεταξύ υπόσχεσης και του λειτουργικού κινδύνου. Η τεχνητή νοημοσύνη μπορεί να επιταχύνει τις ροές εργασίας και να ξεκλειδώνει νέες βελτιώσεις στην αποτελεσματικότητα, αλλά τα αποτελέσματά της δεν είναι εγγυημένα σωστά και η ευθύνη για τα σφάλματα τελικά βαρύνει τους ανθρώπους και τους οργανισμούς που την αναπτύσσουν.
Αν και τα δελτία τύπου θα είναι από πολύ επιλεγμένα έως και σπάνια, είπα να περάσω … γιατί καμιά φορά κρύβονται οι συντάκτες.
