Ανοιχτή επιστολή κατά των όπλων τεχνητής νοημοσύνης (AI)

“Το τελικό σημείο αυτής της τεχνολογικής τροχιάς είναι προφανής: τα αυτόνομα όπλα θα γίνουν τα Kalashnikov του αύριο. Το βασικό ερώτημα για την ανθρωπότητα σήμερα είναι να ξεκινήσει μια παγκόσμια κούρσα εξοπλισμών AI (από το Intelligence) ή να μην ξεκινήσει.”

– Autonomous Weapons: An Open Letter from AI & Robotics Researchers
– Αυτόνομα Όπλα: Μια Ανοικτή Επιστολή από Ερευνητές AI & Ρομποτικής

Ο Elon Musk, o καθηγητής Stephen Hawking μαζί με 1000 άλλους υπογράφουν τη σημερινή ανοιχτή προειδοποιητική επιστολή για τα αυτόνομα όπλα.ai Autonomous weapons

Έχουν δίκιο;

Ο εμβολιασμός των σημερινών οπλικών συστημάτων με τεχνολογία ς νοημοσύνης έρχεται. Πειράματα με νευρωνικά δίκτυα και άλλες δομές AI έχουν ήδη απίστευτα αποτελέσματα. Εταιρείες όπως η Google και το Facebook, άντλησαν τεράστια ποσά πόρων για την έρευνα στο συγκεκριμένο αντικείμενο. Οι μυστικές και ο στρατός φυσικά κάνει ακριβώς το ίδιο.

Ο Phillip Killicoat σε ένα έγγραφο προς την Παγκόσμια Τράπεζα [pdf], που δημοσιεύθηκε το 2007, υπολόγισε ότι υπήρχαν 500 εκατομμύρια πυροβόλων όπλων σε όλο τον κόσμο το 2004, από τα οποία περίπου 100 εκατομμύρια ήταν απόγονοι των Kalashnikov. Τα τρία τέταρτα αυτών ήταν ΑΚ-47.

Το πρώτο εύκολα αναπαραγόμενο AI όπλο θα εξαπλωθεί ακριβώς όπως και τα ευρέως διαδεομένα Kalashnikov και θα είναι ακόμη πιο καταστροφικά.

Οι επιστήμονες αναφέρουν:

“Ακριβώς όπως οι περισσότεροι χημικοί και βιολόγοι δεν ενδιαφέρονται για την κατασκευή χημικών ή βιολογικών όπλων, οι περισσότεροι ερευνητές AI δεν ενδιαφέρονται καθόλου για την δημιουρ΄για όπλων AI – και δεν θέλουν να αμαυρώσουν τον τομέα τους με αυτόν τον τρόπο, δημιουργώντας πιθανώς μια σημαντική δημόσια αντίδραση κατά της τεχνητής νοημοσύνης που θα την περιορίζει μελλοντικά. Πράγματι, οι χημικοί και οι βιολόγοι έχουν υποστηρίξει σε μεγάλο βαθμό διεθνείς συμφωνίες που έχουν απαγορεύσει με επιτυχία χημικά και βιολογικά όπλα, όπως ακριβώς και οι περισσότεροι φυσικοί υποστήριξαν τις συνθήκες για την απαγόρευση των διαστημικών πυρηνικών όπλων και τα εκτυφλωτικά όπλα .

Εν κατακλείδι, πιστεύουμε ότι η Τεχνητή Νοημοσύνη έχει μεγάλες δυνατότητες και μπορεί να ωφελήσει την ανθρωπότητα με πολλούς τρόπους. Ξεκινώντας μια στρατιωτική κούρσα εξοπλισμών τεχνητής νοημοσύνης είναι κακή ιδέα, και θα πρέπει να σταματήσει με την απαγόρευση των επιθετικών αυτόνομων όπλων.”

Αυτή η ανοιχτή επιστολή ανακοινώθηκε επισήμως στην έναρξη του συνεδρίου IJCAI 2015 σήμερα 28 Ιουλίου.

Με πληροφορίες από το TNW

iGuRu.gr The Best Technology Site in Greecefgns

κάθε δημοσίευση, άμεσα στο inbox σας

Προστεθείτε στους 2.100 εγγεγραμμένους.

Written by Δημήτρης

O Δημήτρης μισεί τις Δευτέρες.....

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Το μήνυμα σας δεν θα δημοσιευτεί εάν:
1. Περιέχει υβριστικά, συκοφαντικά, ρατσιστικά, προσβλητικά ή ανάρμοστα σχόλια.
2. Προκαλεί βλάβη σε ανηλίκους.
3. Παρενοχλεί την ιδιωτική ζωή και τα ατομικά και κοινωνικά δικαιώματα άλλων χρηστών.
4. Διαφημίζει προϊόντα ή υπηρεσίες ή διαδικτυακούς τόπους .
5. Περιέχει προσωπικές πληροφορίες (διεύθυνση, τηλέφωνο κλπ).