Τα 5 χειρότερα σενάρια της AI που μπορεί να γίνουν πραγματικότητα

Έχετε φανταστεί που μπορεί να οδηγήσει η AI; Ποιος χρειάζεται τους terminators όταν έχετε τα clickbait ακριβείας και τα deepfakes; Δείτε τα πέντε χειρότερα σενάρια της AI που έχουν μεγάλη πιθανότητα να συμβούν.

robot artificial intelligence world

Το χειρότερο σενάριο του Χόλιγουντ που αφορά την τεχνητή νοημοσύνη (AI) είναι το κλασσικό θέμα μίας ταινίας επιστημονικής φαντασίας: οι μηχανές αποκτούν ανθρώπινη νοημοσύνη, επιτυγχάνουν συναισθήματα και αναπόφευκτα μετατρέπονται σε κακούς άρχοντες που προσπαθούν να καταστρέψουν την ανθρώπινη φυλή.

Αυτή η αφήγηση που ομολογουμένως “πουλάει”, αξιοποιεί τον έμφυτο φόβο μας για την τεχνολογία και την βαθιά αλλαγή, που συχνά συνοδεύει τις νέες τεχνολογικές εξελίξεις.

Όμως, όπως σοφά έχει πει ο Malcolm Murdock, συγγραφέας επιστημονικής φαντασίας : “Η AI δεν χρειάζεται να έχει συναισθήματα για να μας σκοτώσει όλους. Υπάρχουν πολλά άλλα σενάρια που θα μας εξαφανίσουν, πριν μία ευαίσθητη AI γίνει πρόβλημα”.

Υπάρχουν τουλάχιστον πέντε σενάρια του άμεσου μέλλοντος που έχουν να κάνουν με την τεχνητή νοημοσύνη του πραγματικού , και που είναι πολύ πιο λογικά να συμβούν από αυτά που απεικονίζονται στις ταινίες. Θα μπορούσαν να φέρουν μία δυστοπική κοινωνία χωρίς απαραίτητα να απαιτηθεί ένας δικτάτορας για να τα επιβάλει.

Αντίθετα, θα μπορούσαν απλώς να συμβούν σε μία καθημερινότητα, να ξεδιπλωθούν σιγά σιγά και να μην κάνει κανείς τίποτα για να τα σταματήσει. Για να αποφύγουμε τέτοιες καταστάσεις θα πρέπει να αναγνωρίσουμε τι μπορεί να συμβεί στο άμεσο μέλλον, ίσως πρέπει να ορίσουμε όρια στην τεχνητή νοημοσύνη και να λάβουμε σοβαρά υπόψη τις ακούσιες συνέπειές τους.

1. Όταν η φαντασία ορίζει την πραγματικότητά μας…

Φανταστείτε ένα κόσμο που δεν θα μπορούμε να διακρίνουμε τι είναι πραγματικό και τι είναι ψευδές.

Σε ένα τρομακτικό σενάριο, η άνοδος των deepfakes (ψευδών εικόνων, βίντεο, ήχου και κειμένου που δημιουργούνται με προηγμένα εργαλεία μηχανικής μάθησης) μπορεί κάποια μέρα να οδηγήσει τους υπεύθυνους ς αποφάσεων, και ιδιαίτερα της εθνικής ασφάλειας, να αναλάβουν δράση στον πραγματικό κόσμο με ψευδείς πληροφορίες, οδηγώντας σε μεγάλη κρίση ή ακόμα χειρότερα σε πόλεμο.

Ο Andrew Lohn, ανώτερος συνεργάτης στο Κέντρο Ασφάλειας και Αναδυόμενης Τεχνολογίας (CSET) του Πανεπιστημίου Georgetown, λέει ότι «τα συστήματα με δυνατότητα AI είναι πλέον ικανά να παράγουν παραπληροφόρηση σε μεγάλη κλίμακα». Με την παραγωγή μεγαλύτερου όγκου και ποικιλίας ψεύτικων μηνυμάτων, αυτά τα συστήματα μπορούν να θολώσουν την σωστή όραση προς τον πραγματικό κόσμο και να βελτιστοποιήσουν την επιτυχία τους με την πάροδο του χρόνου.

Η ύπαρξη των deepfakes εν μέσω κρίσης μπορεί επίσης να προκαλέσει τους ηγέτες να διστάσουν να δράσουν, εάν η εγκυρότητα των πληροφοριών δεν μπορεί να επιβεβαιωθεί εγκαίρως.

Η Marina Favaro, ερευνήτρια στο Ινστιτούτο Έρευνας και Πολιτικής Ασφάλειας στο Αμβούργο της Γερμανίας, σημειώνει ότι «τα deepfakes θέτουν σε κίνδυνο την εμπιστοσύνη μας στις ροές πληροφοριών». Τόσο η δράση όσο και η αδράνεια που προκαλούνται από deepfakes μπορούν να έχουν καταστροφικές συνέπειες για τον κόσμο.

2. Μια επικίνδυνη κούρσα προς τα κάτω
hacking

Όσον αφορά την τεχνητή νοημοσύνη και την εθνική ασφάλεια, η ταχύτητα ίσως να αποδειχθεί πρόβλημα. Δεδομένου ότι τα συστήματα με τεχνητή νοημοσύνη παρέχουν δυνατότητα ταχύτερης λήψης αποφάσεων στους χρήστες τους, οι πρώτες χώρες που θα τα αναπτύξουν σε στρατιωτικές εφαρμογές θα αποκτήσουν στρατηγικό πλεονέκτημα.

Αν όμως μιλήσουμε για κούρσα εξοπλισμού με AI τότε ίσως θεωρήσουμε ότι οι αρχές σχεδιασμού και ασφαλείας  θα μπορούσαν να θυσιαστούν για να επιταχυνθεί η διαδικασία.

Τα πράγματα θα μπορούσαν να γίνουν έτσι ευάλωτα και τα μικροσκοπικά ελαττώματα του συστήματος να τα εκμεταλλευτούν .

Ο Vincent Boulanin , ανώτερος ερευνητής στο Διεθνές Ινστιτούτο Ερευνών για την Ειρήνη στην Στοκχόλμη (SIPRI), της Σουηδίας, προειδοποιεί ότι μπορεί να συμβούν μεγάλες καταστροφές «όταν οι μεγάλες δυνάμεις αδιαφορούν για τις λεπτομέρειες για να κερδίσουν το πλεονέκτημα και να φτάσουν πρώτοι. Εάν μια χώρα δώσει προτεραιότητα στην ταχύτητα έναντι της ασφάλειας, των δοκιμών ή της ανθρώπινης επίβλεψης, θα είναι ένας επικίνδυνος αγώνας προς τα κάτω».

Για παράδειγμα, οι ηγέτες εθνικής ασφάλειας μπορεί να μπουν στον πειρασμό να αναθέσουν αποφάσεις διοίκησης και ελέγχου σε μοντέλα μηχανικής μάθησης, αφαιρώντας την ανθρώπινη επίβλεψη, προκειμένου να αποκτήσουν πλεονέκτημα ταχύτητας.

Σε ένα τέτοιο σενάριο, ακόμη και μια αυτοματοποιημένη εκτόξευση συστημάτων αντιπυραυλικής άμυνας που θα ξεκίνησε χωρίς την ανθρώπινη άδεια θα μπορούσε να προκαλέσει ακούσια κλιμάκωση και να οδηγήσει σε πυρηνικό πόλεμο.

3. Το τέλος της ιδιωτικότητας και της ελεύθερης βούλησης

Με κάθε ψηφιακή ενέργεια, παράγουμε νέα δεδομένα΄(email, μηνύματα κειμένου, λήψεις, αγορές, αναρτήσεις, selfies, τοποθεσίες GPS κλπ). Επιτρέποντας σε εταιρείες και κυβερνήσεις να έχουν απεριόριστη πρόσβαση σε αυτά τα δεδομένα, παραδίδουμε τα εργαλεία επιτήρησης και ελέγχου.

Με την προσθήκη αναγνώρισης προσώπου, βιομετρικών στοιχείων, γονιδιωματικών δεδομένων και προγνωστικής ανάλυσης με δυνατότητα τεχνητής νοημοσύνης, ο Lohn του CSET ανησυχεί ότι «εισερχόμαστε σε επικίνδυνη και αχαρτογράφητη περιοχή με την άνοδο της επιτήρησης και της παρακολούθησης μέσω δεδομένων και δεν έχουμε σχεδόν καμία κατανόηση των πιθανών επιπτώσεων».

Ο Michael C. Horowitz , διευθυντής του Perry World House , στο Πανεπιστήμιο της Πενσυλβάνια, προειδοποιεί «για τη λογική της τεχνητής νοημοσύνης και τι σημαίνει για την εγχώρια καταστολή. Στο παρελθόν, η ικανότητα των απολυταρχικών κυβερνήσεων να καταστείλουν τους πληθυσμούς τους βασιζόταν σε μια μεγάλη ομάδα στρατιωτών. Η τεχνητή νοημοσύνη θα μπορούσε να μειώσει τέτοιου είδους περιορισμούς».

Η ισχύς των δεδομένων, αφού συλλεχθούν και αναλυθούν, εκτείνεται πολύ πέρα ​​από τις λειτουργίες της παρακολούθησης και της επιτήρησης, και φτάνει μέχρι τον προγνωστικό έλεγχο. Σήμερα, συστήματα με δυνατότητα AI προβλέπουν ποια προϊόντα θα αγοράσουμε, ποια ψυχαγωγία θα παρακολουθήσουμε και σε ποιους συνδέσμους θα κάνουμε κλικ.

Όταν αυτές οι πλατφόρμες μας γνωρίζουν πολύ καλύτερα από ό,τι γνωρίζουμε τους εαυτούς μας, μπορεί να μην παρατηρήσουμε τον αργό ερπυσμό που μας στερεί την ελεύθερη βούλησή μας και μας υποβάλλει στον έλεγχο εξωτερικών δυνάμεων.

4. Το κουτί που μαγνητίζει
smartphone kinito tilefono

Η ηλεκτρονική επικοινωνία ως το μόνο μέσο επικοινωνίας, έχει ήδη διεισδύσει στην κοινωνία μας. Οι χρήστες των μέσων κοινωνικής δικτύωσης έχουν γίνει πειραματόζωα των αλγόριθμων που προσπαθούν να τους κρατήσουν όσο το δυνατόν περισσότερο κοντά τους.

Ουσιαστικά οι περισσότεροι άνθρωποι είναι κολλημένοι στις οθόνες των smartphone και αναγκασμένοι να θυσιάσουν περισσότερο πολύτιμο χρόνο σε πλατφόρμες που επωφελούνται εις βάρος τους.

Η Helen Toner της CSET λέει ότι «οι αλγόριθμοι είναι βελτιστοποιημένοι για να κρατούν τους χρήστες στην πλατφόρμα όσο το δυνατόν περισσότερο». Προσφέροντας ανταμοιβές με τη μορφή likes, σχολίων και follow, εξηγεί ο Malcolm Murdock, «οι αλγόριθμοι βραχυκυκλώνουν τον τρόπο με τον οποίο λειτουργεί ο εγκέφαλός μας, και προδίδοντας μας μία διαρκή ακαταμάχητη έλξη να συνεχίσουμε την περιήγησή μας».

Για να μεγιστοποιήσουν το διαφημιστικό κέρδος, οι εταιρείες κλέβουν την προσοχή μας μακριά από τις δουλειές, τις οικογένειες και τους φίλους, τις ευθύνες, ακόμη και τα χόμπι μας. Όσο περισσότερο χρόνο αφιερώνουμε σε αυτές τις πλατφόρμες, τόσο λιγότερο χρόνο αφιερώνουμε στην επιδίωξη μιας θετικής, παραγωγικής και ικανοποιητικής ζωής.

5. Η τυραννία του AI Design

Κάθε μέρα, παραδίδουμε περισσότερη από την καθημερινότητά μας σε μηχανήματα με δυνατότητα AI. Αυτό μπορεί να αποδειχθεί αρκετά προβληματικό δεδομένου ότι, δεν έχουμε ξεπεράσει ακόμη το πρόβλημα της μεροληψίας στην τεχνητή νοημοσύνη.

Ακόμη και με τις καλύτερες προθέσεις, ο σχεδιασμός συστημάτων με δυνατότητα τεχνητής νοημοσύνης, τόσο των δεδομένων εκπαίδευσης όσο και των μαθηματικών μοντέλων, αντικατοπτρίζει τις στενές εμπειρίες και τα ενδιαφέροντα των προκατειλημμένων ανθρώπων που τα προγραμματίζουν. Και όλοι έχουμε τις προκαταλήψεις μας.

Επί αυτού, η Λυδία Κωστοπούλου, αντιπρόεδρος αναδυόμενων τεχνολογικών γνώσεων στην εταιρεία ασφάλειας πληροφορικής KnowBe4 με έδρα το Clearwater της Φλόριντα, υποστηρίζει ότι «πολλά συστήματα με δυνατότητα τεχνητής νοημοσύνης δεν λαμβάνουν υπόψη την διαφορετικότητα των ανθρώπων». Εφόσον η τεχνητή νοημοσύνη επιλύει προβλήματα με βάση μεροληπτικές προοπτικές και δεδομένα και όχι με γνώμονα τις μοναδικές ανάγκες κάθε ατόμου, τέτοια συστήματα παράγουν ένα επίπεδο συμμόρφωσης που δεν υπάρχει στην ανθρώπινη κοινωνία.

Ακόμη και πριν από την άνοδο της τεχνητής νοημοσύνης, ο σχεδιασμός κοινών αντικειμένων στην καθημερινή μας ζωή συχνά εξυπηρετούσε έναν συγκεκριμένο τύπο ανθρώπου. Για παράδειγμα, μελέτες έχουν δείξει ότι τα αυτοκίνητα, τα εργαλεία χειρός, συμπεριλαμβανομένων των κινητών τηλεφώνων, ακόμη και οι ρυθμίσεις θερμοκρασίας σε περιβάλλοντα γραφείου έχουν καθιερωθεί ώστε να ταιριάζουν σε άνδρες μεσαίου μεγέθους, βάζοντας ανθρώπους διαφορετικών μεγεθών και σωματικών τύπων, συμπεριλαμβανομένων των γυναικών, σε μειονεκτική θέση και μερικές φορές σε  κίνδυνο για τη ζωή τους.

Όταν τα άτομα που βρίσκονται εκτός του προκατειλημμένου κανόνα παραμελούνται, περιθωριοποιούνται και αποκλείονται, η τεχνητή νοημοσύνη μετατρέπεται σε καφκικό φύλακα. Οι αποφάσεις της τεχνητής νοημοσύνης βάση του σχεδιασμού της,  μπορούν να περιορίσουν τους ανθρώπους αντί να τους απελευθερώσουν από τις καθημερινές ανησυχίες.

Και αυτές οι επιλογές μπορούν επίσης να μετατρέψουν μερικές από τις χειρότερες ανθρώπινες προκαταλήψεις σε ρατσιστικές και σεξιστικές πρακτικές.

———
Αυτό το άρθρο βασίστηκε στο έντυπο τεύχος Ιανουαρίου 2022  του Spectrum “AI’s Real Worst-Case Scenarios”.

iGuRu.gr The Best Technology Site in Greeceggns

Get the best viral stories straight into your inbox!















Written by Δημήτρης

O Δημήτρης μισεί τις Δευτέρες.....

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Το μήνυμα σας δεν θα δημοσιευτεί εάν:
1. Περιέχει υβριστικά, συκοφαντικά, ρατσιστικά, προσβλητικά ή ανάρμοστα σχόλια.
2. Προκαλεί βλάβη σε ανηλίκους.
3. Παρενοχλεί την ιδιωτική ζωή και τα ατομικά και κοινωνικά δικαιώματα άλλων χρηστών.
4. Διαφημίζει προϊόντα ή υπηρεσίες ή διαδικτυακούς τόπους .
5. Περιέχει προσωπικές πληροφορίες (διεύθυνση, τηλέφωνο κλπ).