Σμήνη τεχνητής νοημοσύνης απειλούν τη δημοκρατία

Η εποχή των αδέξιων bots στα social media, τα οποία κατέκλυσαν το διαδίκτυο με προφανή μοτίβα αντιγραφής και επικόλλησης, πλησιάζει στο τέλος της. Μια διεθνής ερευνητική ομάδα προειδοποιεί στο περιοδικό Science για ένα νέο επίπεδο κλιμάκωσης με τη μορφή σμηνών τεχνητής νοημοσύνης.

Πρόκειται για στόλους ελεγχόμενων από την τεχνητή νοημοσύνη προσώπων που διατηρούν μια συνεπή ταυτότητα και έχουν ψηφιακή μνήμη. Αυτοί οι πράκτορες (agents) δεν ενεργούν μεμονωμένα, αλλά συντονίζουν τη συμπεριφορά τους αυτόνομα. Με αυτόν τον τρόπο, θα μπορούσαν να δημιουργήσουν μια τεχνητή πραγματικότητα που δύσκολα διακρίνεται από την ανθρώπινη αλληλεπίδραση.

Ο ερευνητής κοινωνικών δεδομένων David Garcia από το Πανεπιστήμιο της Konstanz, και συν-συγγραφέας του άρθρου, περιγράφει αυτά τα συστήματα σαν εξαιρετικά προσαρμόσιμα. Με τη συγχώνευση μεγάλων γλωσσικών μοντέλων (LLM) όπως τα GPT, Gemini ή Claude με συστήματα multi-agent, δημιουργούνται “κακόβουλα σμήνη τεχνητής νοημοσύνης” που μιμούνται αυθεντικά την κοινωνική δυναμική.

Διεισδύουν σε ομάδες, συζητούν με πραγματικούς χρήστες και αντιδρούν σε γεγονότα σε πραγματικό χρόνο. Αυτή η χορωδία των φαινομενικά ανεξάρτητων φωνών δημιουργεί την ψευδαίσθηση της ευρείας δημόσιας συναίνεσης. Στην πραγματικότητα, διαδίδει σκόπιμα παραπληροφόρηση.

Η ψευδαίσθηση της πλειοψηφίας σαν ψυχολογικό όπλο

Σύμφωνα με τους επιστήμονες, ο κίνδυνος έγκειται λιγότερο στις μεμονωμένες ψευδείς αναφορές και περισσότερο στη σταδιακή μετατόπιση των κοινωνικών κανόνων μέσω μιας “τεχνητής συναίνεσης”.

Όταν οι χρήστες συναντούν ένα πλήθος φαινομενικά ανεξάρτητων προφίλ που εκφράζουν την ίδια γνώμη, δημιουργείται κοινωνική πίεση. Αυτή η ψευδής εντύπωση ότι “όλοι το λένε” επηρεάζει μαζικά τις πεποιθήσεις του κόσμου. Ο Jonas Kunst από το BI Norwegian Business School, επίσης συν-συγγραφέας, κρούει τον κώδωνα του κινδύνου:

Η βάση του δημοκρατικού λόγου – οι ανεξάρτητες φωνές – θα μπορούσε να καταρρεύσει εάν ένας μόνο παράγοντας ελέγχει χιλιάδες προφίλ Τεχνητής Νοημοσύνης.

Σύμφωνα με την ανάλυση, η απειλή είναι εκτεταμένη:

Μακροπρόθεσμα, τέτοια σμήνη θα μπορούσαν να χειραγωγήσουν τη γλώσσα, τα σύμβολα και τις ταυτότητες των κοινοτήτων. Επιπλέον, υπάρχει η απειλή “μόλυνσης” του ψηφιακού περιβάλλοντος. Καθώς τα σμήνη Τεχνητής Νοημοσύνης κατακλύζουν το διαδίκτυο με ψευδείς ισχυρισμούς, αυτά τα χειραγωγημένα δεδομένα ρέουν στην εκπαίδευση μελλοντικών μοντέλων Τεχνητής Νοημοσύνης. Με αυτόν τον τρόπο, επεκτείνουν έμμεσα την επιρροή τους σε καθιερωμένες πλατφόρμες Τεχνητής Νοημοσύνης. Μελέτες υποδηλώνουν ότι τέτοιες τακτικές χρησιμοποιούνται ήδη σε αρχικές μορφές.

Το τεχνολογικό εμπόδιο είναι τρομακτικά χαμηλό, καθώς τα ισχυρά γλωσσικά μοντέλα είναι συχνά προσβάσιμα για όλους. Τεχνικές όπως η “προτροπή αλυσίδας σκέψης” θα μπορούσαν να χρησιμοποιηθούν λανθασμένα για την κατασκευή αλυσίδων συλλογισμού που μοιάζουν πολύ με ανθρώπινες. Άλλοι ερευνητές έχουν ήδη δείξει ότι η παραπληροφόρηση που δημιουργείται από την Τεχνητή Νοημοσύνη συχνά αξιολογείται σαν πιο αξιόπιστη από τα ανθρώπινα κείμενα. Δεδομένου ότι αυτά τα σμήνη απαιτούν ελάχιστη εποπτεία και λειτουργούν σε όλες τις πλατφόρμες, η κλασική εποπτεία μεμονωμένων αναρτήσεων είναι καταδικασμένη να αποτύχει.

Έτσι ο Garcia ζητά αλλαγές: είναι σημαντικό να διερευνηθεί η συλλογική συμπεριφορά μεγάλων ομάδων Τεχνητής Νοημοσύνης χρησιμοποιώντας μεθόδους από την επιστήμη της συμπεριφοράς. Μόνο τότε θα γίνουν εμφανείς οι κίνδυνοι που προκύπτουν από την αλληλεπίδραση πολλών φορέων Τεχνητής Νοημοσύνης.

Ο τεράστιος όγκος και η διακύμανση του περιεχομένου απλώς υπερβαίνουν τα παραδοσιακά συστήματα ελέγχου γεγονότων.

Στρατηγικές για μια ανθεκτική ψηφιακή δημοκρατία

Οι αλγόριθμοι θα πρέπει να εκπαιδευτούν ώστε να ανιχνεύουν στατιστικά απίθανα πρότυπα συντονισμού. Ένας άλλος πυλώνας θα ήταν τα κατανεμημένα κέντρα παρατήρησης που συλλέγουν στοιχεία επιρροής της Τεχνητής Νοημοσύνης.

Επιπλέον, θα πρέπει να δημιουργηθούν επιλογές επαλήθευσης για πραγματικούς χρήστες που να προστατεύουν το απόρρητο των δεδομένων αλλά διευκολύνουν τη διάκριση μεταξύ ανθρώπων και μηχανών.

Τελικά, σύμφωνα με την ομάδα, χρειάζονται και τα οικονομικά κίνητρα: θα πρέπει να αποτραπεί η δημιουργία εσόδων από ψεύτικες αλληλεπιδράσεις και να αυξηθεί η λογοδοσία για τους διαχειριστές υποδομών Τεχνητής Νοημοσύνης.

Μόνο μέσω ενός συνδυασμού τεχνικής ανίχνευσης, ανεξάρτητης παρακολούθησης και κανονιστικών προστατευτικών κιγκλιδωμάτων μπορεί να αποτραπεί η καταστολή της γνήσιας ποικιλομορφίας απόψεων από τεχνητά σμήνη.

DOI: 10.1126/science.adz1697

follow us
Previous Article

Βερολίνο νόμιμη η εισβολή σε σπίτια για εγκατάσταση Trojan

Next Article

Παρατούν το Discord για το TeamSpeak

Leave a Comment

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Το μήνυμα σας δεν θα δημοσιευτεί εάν:
1. Περιέχει υβριστικά, συκοφαντικά, ρατσιστικά, προσβλητικά ή ανάρμοστα σχόλια.
2. Προκαλεί βλάβη σε ανηλίκους.
3. Παρενοχλεί την ιδιωτική ζωή και τα ατομικά και κοινωνικά δικαιώματα άλλων χρηστών.
4. Διαφημίζει προϊόντα ή υπηρεσίες ή διαδικτυακούς τόπους .
5. Περιέχει προσωπικές πληροφορίες (διεύθυνση, τηλέφωνο κλπ).