Περιορίζοντας το Skynet: Μπορούμε να ελέγξουμε την τεχνητή νοημοσύνη;

Περιορίζοντας το Skynet: Ο ιδρυτής του SpaceX, Elon Musk, ο φυσικός Stephen Hawking, και διάφοροι άλλοι ερευνητές της τεχνητής νοημοσύνης (artificial intelligence ή AI) με μια ανοιχτή επιστολή καλούν τις κοινωνίες να προετοιμαστούν για τις προκλήσεις που θα θέσει η AI στην ανθρωπότητα.Skynet robot Skynet

Οι επιστήμονες και οι επενδυτές στον τομέα της τεχνητής νοημοσύνης άρχισαν να θέτουν ασφαλιστικές δικλίδες που μπορεί να είναι αναγκαίες για τον έλεγχο των AI των οποίων οι δυνατότητες ξεπερνούν κατά πολύ τις δυνατότητες των ανθρώπων.

Η ανοικτή επιστολή και μια έρευνα από το Future of Life Institute (FLI) διερευνά πιθανούς τρόπους αποτροπής αυτών των super έξυπνως AIS μελετώντας ανεπιθύμητες και δυνητικά καταστροφικές συμπεριφορές.

Στην έρευνά του, το ινστιτούτο – του οποίου η επιστημονική συμβουλευτική επιτροπή περιλαμβάνει τον Elon Musk της SpaceX και το φυσικό Stephen Hawking – αναφέρει ότι η πιθανότητα να δημιουργηθεί μια τέτοια ευφυΐα είναι τόσο μεγάλη που οι κίνδυνοι αυτοί πρέπει να εξεταστούν τώρα.

“Για να δικαιολογήσουμε μια μικρή επένδυση σε αυτή την έρευνα ενός ιδιοφυούς AI, η πιθανότητα δεν χρειάζεται να είναι υψηλή, απλώς μη αμελητέα, όπως ακριβώς μια ασφάλεια σε ένα σπίτι δικαιολογείται από μια μη αμελητέα πιθανότητα να πάρει φωτιά,” αναφέρει, επισημαίνοντας ότι το 1930 ένας από τους μεγαλύτερους φυσικούς της εποχής, ο Ernest Rutherford, δήλωσε ότι η πυρηνική ενέργεια ήταν “ανοησίες” μόλις πέντε χρόνια πριν από την ανακάλυψη της πυρηνικής σχάσης.

“Σήμερα υπάρχει μια ευρεία συναίνεση ότι η έρευνα στην AI προχωρά σταθερά, και ότι οι επιπτώσεις της στην κοινωνία είναι πιθανόν να αυξηθούν,” αναφέρει, επισημαίνοντας τις πρόσφατες επιτυχίες στους τομείς της AI, όπως η αναγνώριση ομιλίας, η ταξινόμηση εικόνων, τα αυτόνομα οχήματα, την αυτόματη μετάφραση , το περπάτημα των ρομπότ, και τα συστήματα που ερωτούν και απαντάνε.
Υπό το πρίσμα αυτής της προόδου, η ερευνητική εργασία του FLI θέτει τους βασικούς τομείς της έρευνας που θα μπορούσαν να βοηθήσουν να διασφαλιστεί ότι τα AI, ισχυρά και αδύνατα, είναι “ισχυρά και επωφελή» για την κοινωνία.

Περιορίζοντας το Skynet: Έλεγχος ανεπιθύμητης συμπεριφοράς

Το πρόβλημα του ορισμού και ότι μια AI (τεχνητή νοημοσύνη) πρέπει και δεν πρέπει να είναι ιδιαίτερα προβληματική.

Για παράδειγμα, πάρτε ένα απλό μέσο AI του οποίου η συμπεριφορά διέπεται από το απόφθεγμα: “Εάν το περιβάλλον ικανοποιεί τις παραδοχές x τότε η συμπεριφορά θα πρέπει να ικανοποιεί τις απαιτήσεις y».

Προσδιορίζοντας σωστά την απαιτούμενη συμπεριφορά και τα αποτελέσματα είναι το κλειδί, όμως σε μια προσπάθεια να ικανοποιήσει την απαίτηση y είναι δυνατόν να συμπεριφερθεί με έναν ανεπιθύμητο τρόπο.

“Αν δοθεί μία εντολή σε ένα ρομπότ ηλεκτρική σκούπα να καθαρίσει τη βρωμιά, και να πετάξει τα περιεχόμενα του κάδου σε κάποιον άλλο χώρο, μπορεί να κολλήσει και να καθαρίζει συνεχώς τα σκουπίδια που θα πετάξει. Η απαίτηση – εντολή θα πρέπει να επικεντρωθεί όχι στη βρωμιά που πρέπει να καθαριστεί αλλά στην καθαριότητα του δαπέδου,” αναφέρει η έκθεση.

“Για να οικοδομήσουμε συστήματα που συμπεριφέρονται ομαλά, θα πρέπει εμείς πρώτα να αποφασίσουμε τι σημαίνει« καλή συμπεριφορά” σε κάθε τομέα εφαρμογής. Να σχεδιάσουμε απλουστευμένους κανόνες. Για παράδειγμα, για να παρέμβουμε στους κανόνες που θα διέπουν τις αποφάσεις ενός αυτό-οδήγούμενου αυτοκινήτου σε κρίσιμες καταστάσεις – κατά πάσα πιθανότητα θα απαιτηθεί πείρα και από ειδικούς σε θέματα ηθικής και επιστήμονες πληροφορικής,” αναφέρει η έκθεση.

Η διασφάλιση της επιθυμητής συμπεριφοράς γίνεται ακόμη πιο προβληματική σε ευφυή AI, αναφέρει η μελέτη.

Οι κοινωνίες είναι πιθανό να αντιμετωπίσουν σημαντικές προκλήσεις για την “ευθυγράμμιση” των τιμών των ευφυών συστημάτων AI με τις δικές τους αξίες και προτιμήσεις.

“Σκεφτείτε, για παράδειγμα, τη δυσκολία της δημιουργίας μιας συνάρτησης χρησιμότητας που περιλαμβάνει ένα νόμο. Ακόμα και μια κυριολεκτική ερμηνεία του νόμου είναι πολύ πέρα από τις τρέχουσες δυνατότητες μας, και δεν θα είχε ιδιαίτερα ικανοποιητικά αποτελέσματα στην πράξη.”

Ένα άλλο θέμα προέρχεται από την ενίσχυση και την επιβράβευση σε συμπεριφορές που θα μαθαίνουν οι μηχανές για την επίτευξη του επιθυμητού αποτελέσματος. Μόλις το μηχάνημα θα είναι σε θέση να πιάσει τους στόχους αυτούς μπορεί να αλλάξει τη συμπεριφορά του, όπως αναφέρει ο νόμος του Goodheart για τον άνθρωπο.

Περιορίζοντας το Skynet: Έλεγχος για σφάλματα

Ακριβώς όπως το λογισμικό ενός αεροπλάνου υποβάλλεται σε αυστηρούς ελέγχους για σφάλματα που μπορεί να προκαλέσουν απροσδόκητες συμπεριφορές, έτσι και ο κώδικας που διέπει τα AIS θα πρέπει να υπόκεινται σε παρόμοιους τυπικούς περιορισμούς.

Για το παραδοσιακό λογισμικό υπάρχουν projects όπως το seL4, τα οποία έχουν αναπτύξει ένα ολοκληρωμένο, γενικού σκοπού λειτουργικό σύστημα πυρήνα που έχει ελεγχθεί μαθηματικά με τις επίσημες προδιαγραφές για να δώσει ένα ισχυρό εχέγγυο κατά των συντριβών και των μη ασφαλών λειτουργιών.

Ωστόσο, στην περίπτωση της γρίπης των πτηνών, μπορεί να χρειαστούν νέες προσεγγίσεις για την επαλήθευση, σύμφωνα με το FLI.

“Ίσως η πιο σημαντική διαφορά ανάμεσα στην επαλήθευση του παραδοσιακού λογισμικού και την επαλήθευση των συστημάτων AI είναι ότι η ορθότητα του παραδοσιακού λογισμικού ορίζεται σε σχέση με ένα σταθερό και γνωστό μοντέλο της μηχανής, ενώ τα συστήματα AI  – ειδικά τα ρομπότ και άλλα ενσωματωμένα συστήματα – λειτουργούν σε περιβάλλοντα που στην καλύτερη είναι εν μέρει γνωστά από το σχεδιαστή του συστήματος.

Περιορίζοντας το Skynet: Ο περιορισμός των δυνατοτήτων των AI

«Δεν είναι σαφές εάν η μακροχρόνια πορεία των AI θα καταστήσει το συνολικό πρόβλημα της ασφάλειας ευκολότερο ή δυσκολότερο. Αφενός, τα συστήματα θα γίνονται όλο και πιο πολύπλοκα στην κατασκευή και τη συμπεριφορά και οι κυβερνοεπιθέσεις από συστήματα AI μπορεί να είναι εξαιρετικά αποτελεσματικές, ενώ από την άλλη πλευρά , η χρήση των AI και των τεχνικών της μηχανικής μάθησης σε συνδυασμό με τη σημαντική πρόοδο σε συστήματα χαμηλού επιπέδου αξιοπιστίας μπορεί να καταστήσει σκληρυμένα συστήματα πολύ λιγότερο ευάλωτα από ό, τι είναι σήμερα “, αναφέρει η μελέτη.

Αυτός ο δυνητικά κρίσιμος ρόλος που θα παίξει η τεχνητή νοημοσύνη στο cyberwarfare φαίνεται να δείχνει ότι αξίζει τον κόπο να ερευνήσει κάποιος το πώς μπορεί να περιορίσει τις δυνατότητες των εν λόγω AI, σύμφωνα με το FLI.

Περιορίζοντας το Skynet: Διατηρώντας τον έλεγχο των AI

Η εξασφάλιση του ότι οι άνθρωποι μπορούν να διατηρήσουν τον έλεγχο ισχυρών, αυτόνομων AI δεν είναι κάτι το εύκολο.

Για παράδειγμα, ένα σύστημα είναι πιθανό να κάνει τη καλύτερη διαδρομή για να αντιμετωπίσει τα προβλήματα που εμποδίζουν την ολοκλήρωση μιας επιθυμητής εργασίας.

“Αυτό θα μπορούσε να καταστεί προβληματικό, αν θέλουμε να μετατρέψουμε το σύστημα, για να απενεργοποιήσουμε ή να μεταβάλλουμε σημαντικά τη διαδικασία λήψης αποφάσεων. Ένα τέτοιο σύστημα θα μπορούσε να αποφύγει λογικά αυτές τις αλλαγές”, επισημαίνει η έρευνα.

Η FLI συνιστά λοιπόν περισσότερη έρευνα σε συστήματα που χρειάζονται αλλά και αποδέχονται διορθώσεις, τα οποία δεν εμφανίζουν αυτή τη συμπεριφορά.

“Μπορεί να είναι δυνατό να είναι σε θέση να σχεδιάσουν συναρτήσεις χρησιμότητας ή διαδικασίες λήψης αποφάσεων, έτσι ώστε το σύστημα να προσπαθήσει να αποφύγει να κλείσει ή να αναδιαμορφωθεί,” σύμφωνα με την έρευνα.

Η έρευνα παρόλα όμως όλα τα παραπάνω τρομαχτικά, καταλήγει σε ένα ελπιδοφόρο μήνυμα. Οι επιστήμονες εικάζουν ότι αν δοθεί το  δικαίωμα ελέγχου και ισορροπιών στα AI θα μπορούσε να μετατρέψει τις κοινωνίες μας σε καλύτερες.

“Η επιτυχία στην προσπάθεια για τεχνητή νοημοσύνη έχει τη δυνατότητα να επιφέρει πρωτοφανή οφέλη στην ανθρωπότητα, και επομένως, αξίζει τον κόπο να ερευνήσουμε πώς να μεγιστοποιήσουμε τα οφέλη αυτά, αποφεύγοντας πιθανές παγίδες.”

iGuRu.gr The Best Technology Site in Greeceggns

Get the best viral stories straight into your inbox!















Written by giorgos

Ο Γιώργος ακόμα αναρωτιέται τι κάνει εδώ....

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Το μήνυμα σας δεν θα δημοσιευτεί εάν:
1. Περιέχει υβριστικά, συκοφαντικά, ρατσιστικά, προσβλητικά ή ανάρμοστα σχόλια.
2. Προκαλεί βλάβη σε ανηλίκους.
3. Παρενοχλεί την ιδιωτική ζωή και τα ατομικά και κοινωνικά δικαιώματα άλλων χρηστών.
4. Διαφημίζει προϊόντα ή υπηρεσίες ή διαδικτυακούς τόπους .
5. Περιέχει προσωπικές πληροφορίες (διεύθυνση, τηλέφωνο κλπ).