Το παρακάτω κείμενο το έγραψα εγώ ή κάποιο bot;
Καθώς η τεχνητή νοημοσύνη ξεκινά να καταλαμβάνει το διαδίκτυο, το παραπάνω είναι ένα από τα πιο σημαντικά ερωτήματα που θα πρέπει να απαντήσει η βιομηχανία της τεχνολογίας.
Το ChatGPT, το GPT-4, το Google Bard και άλλες νέες υπηρεσίες AI μπορούν να δημιουργήσουν πειστικό και χρήσιμο γραπτό περιεχόμενο. Όμως έχουμε δει ότι η κάθε τεχνολογία χρησιμοποιείται για καλά και κακά πράγματα. Μπορεί να γράψει κώδικα λογισμικού πιο γρήγορα και πιο εύκολα, αλλά και να αναπαράγει λάθη και ψέματα. Έτσι, η ανάπτυξη ενός τρόπου εντοπισμού του κειμένου που παράγεται από AI φαίνεται να είναι θεμελιώδης.
Η OpenAI, δημιουργός του ChatGPT και του GPT-4, το συνειδητοποίησε πριν από λίγο. Τον Ιανουάριο, παρουσίασε έναν “ταξινομητή για τη διάκριση μεταξύ κειμένου που γράφτηκε από άνθρωπο και κειμένου που γράφτηκε από πολλά διαφορετικά AI” ή “classifier to distinguish between text written by a human and text written by AIs from a variety of providers” .
Η εταιρεία προειδοποίησε ότι είναι αδύνατο να εντοπιστεί αξιόπιστα αν όλο το κείμενο έχει γραφτεί με AI. Ωστόσο, η OpenAI ανέφερε ότι οι καλοί ταξινομητές είναι σημαντικοί για την αντιμετώπιση πολλών προβληματικών καταστάσεων, που συμπεριλαμβάνουν ψευδείς ισχυρισμούς ότι ένα κείμενο που δημιουργήθηκε από τεχνητή νοημοσύνη γράφτηκε από άνθρωπο, αυτοματοποιημένες καμπάνιες παραπληροφόρησης και η χρήση εργαλείων τεχνητής νοημοσύνης για εξαπάτηση στην εργασία.
Λιγότερο από επτά μήνες μετά, το project ακυρώθηκε.
“Από τις 20 Ιουλίου του 2023, ο ταξινομητής τεχνητής νοημοσύνης δεν είναι πλέον διαθέσιμος λόγω του χαμηλού ποσοστού ακρίβειάς του”, έγραψε η OpenAI σε μια πρόσφατη δημοσίευση. “Αυτή τη στιγμή ερευνούμε πιο αποτελεσματικές τεχνικές προέλευσης για κείμενο.”
Οι επιπτώσεις
Εάν η OpenAI δεν μπορεί να εντοπίσει το κείμενο που έχει δημιουργηθεί από την τεχνητή νοημοσύνη, πώς μπορεί να κάνει κάποιος άλλος;
Αν δεν μπορούμε να διακρίνουμε τη διαφορά μεταξύ τεχνητής νοημοσύνης και ανθρώπινου κειμένου, ο κόσμος των διαδικτυακών πληροφοριών θα γίνει πολύ πιο προβληματικός. Υπάρχουν ήδη ιστότοποι που παράγουν αυτοματοποιημένο περιεχόμενο χρησιμοποιώντας νέα μοντέλα τεχνητής νοημοσύνης. Μερικοί από αυτούς έχουν έσοδα από διαφημίσεις, με ψέματα του τύπου “Ο Biden πέθανε. Η Kamala Harris σε χρέη προέδρου, ομιλία στις 9 π.μ.” σύμφωνα με το Bloomberg.
Αν τώρα οι εταιρείες τεχνολογίας χρησιμοποιούν ακούσια δεδομένα που παράγονται από AI για να εκπαιδεύσουν νέα μοντέλα, ορισμένοι ερευνητές ανησυχούν ότι τα νέα μοντέλα θα είναι πολύ χειρότερα. Θα τρέφονται με αυτοματοποιημένο περιεχόμενο και θα συμμετάσχουν στην “Κατάρρευση μοντέλου” του ΑΙ.
Οι ερευνητές έχουν μελετήσει ήδη το τι συμβαίνει όταν το κείμενο που παράγεται από ένα μοντέλο τεχνητής νοημοσύνης τύπου GPT (όπως το GPT-4) αποτελεί το μεγαλύτερο μέρος του συνόλου δεδομένων εκπαίδευσης για τα επόμενα μοντέλα.
“Βρίσκουμε ότι η χρήση περιεχομένου που δημιουργείται από μοντέλα στην εκπαίδευση προκαλεί μη αναστρέψιμα ελαττώματα στα νέα μοντέλα που προκύπτουν”, κατέληξαν σε μια πρόσφατη ερευνητική τους εργασία. Ένας από τους ερευνητές, ο Ilia Shumailov, το έθεσε καλύτερα στο Twitter.
Αφού είδαν τι θα μπορούσε να πάει στραβά, οι ερευνητές έκαναν μια έκκληση και μια ενδιαφέρουσα πρόβλεψη.
“Πρέπει να ληφθεί σοβαρά υπόψη εάν θέλουμε να διατηρήσουμε τα οφέλη της εκπαίδευσης από δεδομένα μεγάλης κλίμακας που αφαιρούνται από τον Ιστό”, έγραψαν. “Πράγματι, η αξία των δεδομένων που συλλέγονται από τις γνήσιες ανθρώπινες αλληλεπιδράσεις με τα συστήματα θα είναι ολοένα και πιο πολύτιμη από το περιεχόμενο που δημιουργείται από την ΑΙ στα δεδομένα που ανιχνεύονται στο Διαδίκτυο”.
Αυτό δεν μπορεί να αντιμετωπιστεί αν δεν είμαστε σε θέση να αναγνωρίζουμε αν ένα κείμενο έχει γραφεί από AI ή από άνθρωπο.