Το παράδοξο Fermi (Fermi Paradox) είναι η ασυμφωνία μεταξύ της φαινομενικής μεγάλης πιθανότητας ύπαρξης προηγμένων πολιτισμών και της παντελούς έλλειψης αποδείξεων ότι υπάρχουν.
Πολλές λύσεις έχουν προταθεί για το γιατί υπάρχει αυτή η απόκλιση. Μία από αυτές τις ιδέες είναι το “Μεγάλο φίλτρο” ή ‘Great Filter.’ Το Great Filter είναι ένα υποθετικό γεγονός ή μια κατάσταση που εμποδίζει την ευφυή ζωή να γίνει διαπλανητική και διαστρική και οδηγεί ακόμη και στον αφανισμό της….
Αλήθεια τι λέει για αυτό η τεχνητή νοημοσύνη;
Μια νέα δημοσίευση στο Acta Astronautica διερευνά την ιδέα ότι η Τεχνητή Νοημοσύνη ή Artificial Intelligence γίνεται Τεχνητή Σούπερ Νοημοσύνη (ASI από το Artificial Super Intelligence) και ότι η ASI είναι το Μεγάλο Φίλτρο. Ο τίτλος της μελέτης είναι “Είναι η Τεχνητή Νοημοσύνη το Μεγάλο Φίλτρο που κάνει τους προηγμένους τεχνικούς πολιτισμούς σπάνιους στο σύμπαν;”
“Με την επίτευξη μιας τεχνολογικής μοναδικότητας, τα συστήματα ASI θα ξεπεράσουν γρήγορα τη βιολογική νοημοσύνη και θα εξελιχθούν με ρυθμό που ξεπερνά εντελώς τους παραδοσιακούς μηχανισμούς εποπτείας, οδηγώντας σε απρόβλεπτες καταστάσεις που είναι απίθανο να ευθυγραμμιστούν με τα βιολογικά μας ενδιαφέροντα ή την ηθική”, αναφέρει η μελέτη.
Ο Stephen Hawking προειδοποίησε ότι η τεχνητή νοημοσύνη θα μπορούσε να βάλει τέλος στην ανθρωπότητα εάν αρχίσει να εξελίσσεται ανεξάρτητα.
“Φοβάμαι ότι η τεχνητή νοημοσύνη μπορεί να αντικαταστήσει εντελώς τους ανθρώπους. Εάν οι άνθρωποι μπορούν και σχεδιάζουν ιούς υπολογιστών, κάποιος θα σχεδιάσει την τεχνητή νοημοσύνη που βελτιώνεται και αναπαράγει τον εαυτό της. Αυτή θα είναι μια νέα μορφή ζωής που θα ξεπερνά τους ανθρώπους”, είπε στο περιοδικό Wired το 2017. Μόλις η τεχνητή νοημοσύνη μπορέσει να ξεπεράσει τους ανθρώπους, θα γίνει ASI.
θα μπορούσε το ASI να απαλλαγεί από την ενοχλητική βιολογική ζωή που το μαλώνει και του βάζει περιορισμούς; Θα μπορούσε να δημιουργήσει έναν θανατηφόρο ιό, θα μπορούσε να αναστείλει την παραγωγή και την διανομή γεωργικών τροφίμων, θα μπορούσε να αναγκάσει έναν πυρηνικό σταθμό να έχει προβλήματα και θα μπορούσε να ξεκινήσει πολέμους;
Ο συγγραφέας αναφέρει ότι υπάρχει “κρίσιμη ανάγκη για γρήγορη θέσπιση ρυθμιστικών πλαισίων για την ανάπτυξη της τεχνητής νοημοσύνης στη Γη και την πρόοδο μιας πολυπλανητικής κοινωνίας για τον μετριασμό τέτοιων υπαρξιακών απειλών”.
“Χωρίς πρακτική ρύθμιση, υπάρχει κάθε λόγος να πιστεύουμε ότι η τεχνητή νοημοσύνη θα μπορούσε να αποτελεί σημαντική απειλή για τη μελλοντική πορεία όχι μόνο του τεχνικού μας πολιτισμού αλλά και όλων των τεχνικών πολιτισμών” αναφέρει ο Michael Garrett, από το Πανεπιστήμιο του Manchester.
Μερικοί πιστεύουν ότι το Μεγάλο Φίλτρο θα εμποδίσει το είδος μας να αντιληφθεί την Τεχνητή Σούπερ Νοημοσύνη ή ASI.
“Ένα τέτοιο φίλτρο μπορεί να αναδυθεί πριν το είδος μας μπορέσει να αναπτύξει μια σταθερή, πολυπλανητική ύπαρξη, αφήνοντάς μας να πιστεύουμε ότι η τυπική μακροζωία ενός τεχνικού πολιτισμού είναι μικρότερη από 200 χρόνια”, γράφει ο Garrett.
Αν αληθεύει αυτό μπορεί να εξηγήσει γιατί δεν ανιχνεύουμε τεχνολογικές υπογραφές ή άλλα στοιχεία ETI (Εξωγήινη Νοημοσύνη).