Το προηγούμενο διάστημα, κυκλοφόρησαν δημοσιεύσεις για την τάση του ChatGPT να προκαλεί σοβαρές βλάβες στην ψυχική υγεία, και η OpenAI παραδέχτηκε ότι σαρώνει τις συνομιλίες των χρηστών και αναφέρει στην αστυνομία τυχόν αλληλεπιδράσεις που ένας ανθρώπινος κριτής θεωρεί επαρκώς απειλητικές.
“Όταν εντοπίζουμε χρήστες που σχεδιάζουν να βλάψουν άλλους, δρομολογούμε τις συνομιλίες τους σε εξειδικευμένους αγωγούς όπου εξετάζονται από μια μικρή ομάδα εκπαιδευμένη στις πολιτικές χρήσης μας και η οποία είναι εξουσιοδοτημένη να αναλάβει δράση, συμπεριλαμβανομένης της απαγόρευσης λογαριασμών. Εάν οι ανθρώπινοι κριτές διαπιστώσουν ότι μια υπόθεση περιλαμβάνει άμεση απειλή σοβαρής σωματικής βλάβης σε άλλους, ενδέχεται να την παραπέμψουμε στις αρχές επιβολής του νόμου”.
Η ανακοίνωση έθεσε άμεσα σοβαρά ερωτήματα.
Για παράδειγμα, η κρίση των ανθρώπων συντονιστών δεν υπονομεύει ολόκληρη την υπόθεση ενός συστήματος Τεχνητής Νοημοσύνης που οι δημιουργοί του λένε ότι μπορεί να λύσει ευρεία, σύνθετα προβλήματα;
Πώς η OpenAI υπολογίζει τις ακριβείς τοποθεσίες των χρηστών προκειμένου να τις δώσει σε ομάδες έκτακτης ανάγκης;
Πώς προστατεύει από κάποιον που θα μπορούσε να προσποιηθεί ότι είναι κάποιος άλλος και στη συνέχεια να γράφει απειλές στο ChatGPT για να στείλει την αστυνομία σε όποιον θέλει να εκδικηθεί;
Η παραδοχή της ανακοίνωσης φαίνεται επίσης να έρχεται σε αντίθεση με τις παρατηρήσεις του Διευθύνοντος Συμβούλου της OpenAI, Sam Altman, ο οποίος πρόσφατα ζήτησε προστασία της ιδιωτικής ζωής, παρόμοια με το απόρρητο που έχουν “οι θεραπευτές, οι δικηγόροι ή οι γιατροί” για τους χρήστες που μιλάνε στο ChatGPT.
Βέβαια πολλοί είναι αυτοί που υποστηρίζουν ότι η βιομηχανία της Τεχνητής Νοημοσύνης προωθεί βιαστικά στην αγορά προϊόντα που δεν έχουν κατανοηθεί πλήρως, χρησιμοποιώντας πραγματικούς ανθρώπους σαν πειραματόζωα και υιοθετώντας ολοένα και πιο τυχαίες λύσεις σε προβλήματα του πραγματικού κόσμου όταν προκύπτουν….
Ο Γιώργος ακόμα αναρωτιέται τι κάνει εδώ….
