Ανοιχτή επιστολή κατά των όπλων τεχνητής νοημοσύνης (AI)

“Το τελικό σημείο αυτής της τεχνολογικής τροχιάς είναι προφανής: τα αυτόνομα όπλα θα γίνουν τα Kalashnikov του αύριο. Το βασικό ερώτημα για την ανθρωπότητα σήμερα είναι να ξεκινήσει μια παγκόσμια κούρσα εξοπλισμών AI (από το Artificial Intelligence) ή να μην ξεκινήσει.”

– Autonomous Weapons: An Open Letter from AI & Robotics Researchers
– Αυτόνομα Όπλα: Μια Ανοικτή Επιστολή από Ερευνητές AI & Ρομποτικής

Ο Elon , o καθηγητής Stephen Hawking μαζί με 1000 άλλους ερευνητές υπογράφουν τη σημερινή ανοιχτή προειδοποιητική επιστολή για τα αυτόνομα όπλα.ai Autonomous weapons

Έχουν δίκιο;

Ο εμβολιασμός των σημερινών οπλικών συστημάτων με τεχνητής νοημοσύνης έρχεται. Πειράματα με νευρωνικά και άλλες δομές AI έχουν ήδη απίστευτα αποτελέσματα. Εταιρείες όπως η και το Facebook, άντλησαν τεράστια ποσά πόρων για την έρευνα στο συγκεκριμένο αντικείμενο. Οι μυστικές υπηρεσίες και ο στρατός φυσικά κάνει ακριβώς το ίδιο.

Ο Phillip Killicoat σε ένα έγγραφο προς την Παγκόσμια Τράπεζα [pdf], που δημοσιεύθηκε το 2007, υπολόγισε ότι υπήρχαν 500 εκατομμύρια πυροβόλων όπλων σε όλο τον κόσμο το 2004, από τα οποία περίπου 100 εκατομμύρια ήταν απόγονοι των Kalashnikov. Τα τρία τέταρτα αυτών ήταν ΑΚ-47.

Το πρώτο εύκολα αναπαραγόμενο AI όπλο θα εξαπλωθεί ακριβώς όπως και τα ευρέως διαδεομένα Kalashnikov και θα είναι ακόμη πιο καταστροφικά.

Οι επιστήμονες αναφέρουν:

“Ακριβώς όπως οι περισσότεροι χημικοί και βιολόγοι δεν ενδιαφέρονται για την κατασκευή χημικών ή βιολογικών όπλων, οι περισσότεροι ερευνητές AI δεν ενδιαφέρονται καθόλου για την δημιουρ΄για όπλων AI – και δεν θέλουν να αμαυρώσουν τον τομέα τους με αυτόν τον τρόπο, δημιουργώντας πιθανώς μια σημαντική δημόσια αντίδραση κατά της τεχνητής νοημοσύνης που θα την περιορίζει μελλοντικά. Πράγματι, οι χημικοί και οι βιολόγοι έχουν υποστηρίξει σε μεγάλο βαθμό διεθνείς συμφωνίες που έχουν απαγορεύσει με επιτυχία χημικά και βιολογικά όπλα, όπως ακριβώς και οι περισσότεροι φυσικοί υποστήριξαν τις συνθήκες για την απαγόρευση των διαστημικών πυρηνικών όπλων και τα εκτυφλωτικά όπλα .

Εν κατακλείδι, πιστεύουμε ότι η Τεχνητή Νοημοσύνη έχει μεγάλες δυνατότητες και μπορεί να ωφελήσει την ανθρωπότητα με πολλούς τρόπους. Ξεκινώντας μια στρατιωτική κούρσα εξοπλισμών τεχνητής νοημοσύνης είναι κακή ιδέα, και θα πρέπει να σταματήσει με την απαγόρευση των επιθετικών αυτόνομων όπλων.”

Αυτή η ανοιχτή επιστολή ανακοινώθηκε επισήμως στην έναρξη του συνεδρίου IJCAI 2015 σήμερα 28 Ιουλίου.

Με πληροφορίες από το TNW

iGuRu.gr The Best Technology Site in Greeceggns

Get the best viral stories straight into your inbox!















Written by Δημήτρης

O Δημήτρης μισεί τις Δευτέρες.....

Αφήστε μια απάντηση

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *

Το μήνυμα σας δεν θα δημοσιευτεί εάν:
1. Περιέχει υβριστικά, συκοφαντικά, ρατσιστικά, προσβλητικά ή ανάρμοστα σχόλια.
2. Προκαλεί βλάβη σε ανηλίκους.
3. Παρενοχλεί την ιδιωτική ζωή και τα ατομικά και κοινωνικά δικαιώματα άλλων χρηστών.
4. Διαφημίζει προϊόντα ή υπηρεσίες ή διαδικτυακούς τόπους .
5. Περιέχει προσωπικές πληροφορίες (διεύθυνση, τηλέφωνο κλπ).