“Το τελικό σημείο αυτής της τεχνολογικής τροχιάς είναι προφανής: τα αυτόνομα όπλα θα γίνουν τα Kalashnikov του αύριο. Το βασικό ερώτημα για την ανθρωπότητα σήμερα είναι να ξεκινήσει μια παγκόσμια κούρσα εξοπλισμών AI (από το Artificial Intelligence) ή να μην ξεκινήσει.”
– Autonomous Weapons: An Open Letter from AI & Robotics Researchers
– Αυτόνομα Όπλα: Μια Ανοικτή Επιστολή από Ερευνητές AI & Ρομποτικής
Ο Elon Musk, o καθηγητής Stephen Hawking μαζί με 1000 άλλους ερευνητές υπογράφουν τη σημερινή ανοιχτή προειδοποιητική επιστολή για τα αυτόνομα όπλα.
Έχουν δίκιο;
Ο εμβολιασμός των σημερινών οπλικών συστημάτων με τεχνολογία τεχνητής νοημοσύνης έρχεται. Πειράματα με νευρωνικά δίκτυα και άλλες δομές AI έχουν ήδη απίστευτα αποτελέσματα. Εταιρείες όπως η Google και το Facebook, άντλησαν τεράστια ποσά πόρων για την έρευνα στο συγκεκριμένο αντικείμενο. Οι μυστικές υπηρεσίες και ο στρατός φυσικά κάνει ακριβώς το ίδιο.
Ο Phillip Killicoat σε ένα έγγραφο προς την Παγκόσμια Τράπεζα [pdf], που δημοσιεύθηκε το 2007, υπολόγισε ότι υπήρχαν 500 εκατομμύρια πυροβόλων όπλων σε όλο τον κόσμο το 2004, από τα οποία περίπου 100 εκατομμύρια ήταν απόγονοι των Kalashnikov. Τα τρία τέταρτα αυτών ήταν ΑΚ-47.
Το πρώτο εύκολα αναπαραγόμενο AI όπλο θα εξαπλωθεί ακριβώς όπως και τα ευρέως διαδεομένα Kalashnikov και θα είναι ακόμη πιο καταστροφικά.
Οι επιστήμονες αναφέρουν:
“Ακριβώς όπως οι περισσότεροι χημικοί και βιολόγοι δεν ενδιαφέρονται για την κατασκευή χημικών ή βιολογικών όπλων, οι περισσότεροι ερευνητές AI δεν ενδιαφέρονται καθόλου για την δημιουρ΄για όπλων AI – και δεν θέλουν να αμαυρώσουν τον τομέα τους με αυτόν τον τρόπο, δημιουργώντας πιθανώς μια σημαντική δημόσια αντίδραση κατά της τεχνητής νοημοσύνης που θα την περιορίζει μελλοντικά. Πράγματι, οι χημικοί και οι βιολόγοι έχουν υποστηρίξει σε μεγάλο βαθμό διεθνείς συμφωνίες που έχουν απαγορεύσει με επιτυχία χημικά και βιολογικά όπλα, όπως ακριβώς και οι περισσότεροι φυσικοί υποστήριξαν τις συνθήκες για την απαγόρευση των διαστημικών πυρηνικών όπλων και τα εκτυφλωτικά όπλα λέιζερ.
Εν κατακλείδι, πιστεύουμε ότι η Τεχνητή Νοημοσύνη έχει μεγάλες δυνατότητες και μπορεί να ωφελήσει την ανθρωπότητα με πολλούς τρόπους. Ξεκινώντας μια στρατιωτική κούρσα εξοπλισμών τεχνητής νοημοσύνης είναι κακή ιδέα, και θα πρέπει να σταματήσει με την απαγόρευση των επιθετικών αυτόνομων όπλων.”
Αυτή η ανοιχτή επιστολή ανακοινώθηκε επισήμως στην έναρξη του συνεδρίου IJCAI 2015 σήμερα 28 Ιουλίου.
Με πληροφορίες από το TNW