Σε μια νέα επιστημονική έρευνα, ένας Άγγλος ραδιοαστρονόμος αναρωτιέται αν η τεχνητή νοημοσύνη αποτελεί ένας από τους λόγους για τους οποίους δεν έχουμε βρει ποτέ άλλα νοήμονα όντα στο σύμπαν, ενώ μελετά το χρονικό διάστημα που θα χρειαζόταν ένας πολιτισμός για να εξαλειφθεί από την «ανεξέλεγκτη» τεχνητή νοημοσύνη. Το «Παράδοξο του Φέρμι» αποτυπώνει αυτή την ιδέα: σε ένα άπειρο σύμπαν, πώς είναι δυνατόν να μην υπάρχουν άλλοι πολιτισμοί που να μας στέλνουν ραδιοσήματα; Θα μπορούσε να ισχύει ότι, μόλις οι πολιτισμοί αναπτύξουν τεχνητή νοημοσύνη, είναι μια σύντομη διαδρομή προς τη λήθη για τους περισσότερους από αυτούς; Αυτού του είδους τα γεγονότα μεγάλης κλίμακας ονομάζονται «Μεγάλα Φίλτρα», και η τεχνητή νοημοσύνη είναι ένα από τα πιο δημοφιλή θέματα εικασιών σχετικά με αυτά. Θα μπορούσε η αναπόφευκτη ανάπτυξη της τεχνητής νοημοσύνης (AI) να δημιουργήσει την απίθανη «Μεγάλη Σιωπή» που ακούμε από το σύμπαν;
Η θεωρία του «Μεγάλου Φίλτρου» υποστηρίζει ότι άλλοι πολιτισμοί, δυνητικά πολλοί, υπήρξαν κατά τη διάρκεια της ιστορίας του σύμπαντος, αλλά όλοι εξαφανίστηκαν πριν τους δοθεί η ευκαιρία να έρθουν σε επαφή με τη Γη. Το 1998 ο οικονομολόγος Ρόμπιν Χάνσον υποστήριξε πως η εμφάνιση ζωής, νοημοσύνης και εξελιγμένου πολιτισμού είναι φαινόμενο πολύ σπανιότερο από ό,τι λένε οι στατιστικές.
Ο Michael Garrett είναι ραδιοαστρονόμος στο Πανεπιστήμιο του Μάντσεστερ και διευθυντής του Κέντρου Αστροφυσικής Jodrell Bank, με εκτεταμένη συμμετοχή στην αναζήτηση εξωγήινης νοημοσύνης (SETI). Ουσιαστικά, ενώ τα ερευνητικά του ενδιαφέροντα είναι εκλεκτικά, είναι μια άκρως εξειδικευμένη και διαπιστευμένη εκδοχή των ανθρώπων σε τηλεοπτικές σειρές ή ταινίες που αφουγκράζονται το σύμπαν για να ακούσουν σημάδια άλλων πολιτισμών. Σε αυτή την εργασία, η οποία αξιολογήθηκε από ομότιτλους καθηγητές και δημοσιεύθηκε στο περιοδικό της Διεθνούς Ακαδημίας Αστροναυτικής, συγκρίνει τις θεωρίες για την τεχνητή υπερ-νοημοσύνη με συγκεκριμένες παρατηρήσεις με τη χρήση της ραδιοαστρονομίας.
Ο Garrett εξηγεί στην εργασία του ότι οι επιστήμονες γίνονται όλο και πιο ανήσυχοι όσο περνάει ο καιρός χωρίς να ακούσουμε κανένα σημάδι άλλης νοήμονος ζωής. «Αυτή η “Μεγάλη Σιωπή” παρουσιάζει κάτι σαν παράδοξο όταν αντιπαραβάλλεται με άλλα αστρονομικά ευρήματα που υποδηλώνουν ότι το σύμπαν είναι φιλόξενο για την εμφάνιση νοήμονος ζωής», γράφει. «Συχνά χρησιμοποιείται η έννοια του “μεγάλου φίλτρου” – πρόκειται για ένα παγκόσμιο εμπόδιο και μια ανυπέρβλητη πρόκληση που εμποδίζει την ευρεία εμφάνιση νοήμονος ζωής» σημειώνει.
Υπάρχουν αμέτρητα πιθανά «Μεγάλα Φίλτρα», από την κλιματική εξαφάνιση μέχρι μια ολέθρια παγκόσμια πανδημία. Οποιοσδήποτε αριθμός γεγονότων θα μπορούσε να σταματήσει έναν παγκόσμιο πολιτισμό από το να γίνει πολυπλανητικός. Για τους ανθρώπους που ακολουθούν και πιστεύουν στις θεωρίες των Μεγάλων Φίλτρων περισσότερο ιδεολογικά, η εγκατάσταση ανθρώπων στον Άρη ή στο φεγγάρι αποτελεί έναν τρόπο μείωσης του κινδύνου. «Όσο περισσότερο μένουμε μόνο στη Γη, τόσο πιο πιθανό είναι να μας αφανίσει ένα γεγονός Μεγάλου Φίλτρου», λέει η θεωρία.
Σήμερα, η τεχνητή νοημοσύνη δεν είναι ικανή να πλησιάσει την ανθρώπινη νοημοσύνη. Αλλά, γράφει ο Garrett, η Τεχνητή Νοημοσύνη κάνει εργασίες που οι άνθρωποι προηγουμένως δεν πίστευαν ότι οι υπολογιστές θα μπορούσαν να κάνουν. Αν αυτή η πορεία οδηγήσει σε μια λεγόμενη γενική τεχνητή νοημοσύνη (GAI) -μια βασική διάκριση που σημαίνει έναν αλγόριθμο που μπορεί να σκεφτεί και να συνθέσει ιδέες με πραγματικά ανθρώπινο τρόπο, σε συνδυασμό με απίστευτη υπολογιστική ισχύ- θα μπορούσαμε πραγματικά να έχουμε πρόβλημα. Και σε αυτό το έγγραφο, ο Garrett ακολουθεί μια αλυσίδα υποθετικών ιδεών μέχρι ένα πιθανό συμπέρασμα. Πόσο καιρό θα χρειαζόταν ένας πολιτισμός για να εξαλειφθεί από την ανεξέλεγκτη τεχνητή νοημοσύνη;
Δυστυχώς, στο σενάριο του Garrett, χρειάζονται μόλις 100-200 χρόνια. Η κωδικοποίηση και η ανάπτυξη της τεχνητής νοημοσύνης είναι ένα μονοσήμαντο έργο που περιλαμβάνει και επιταχύνεται από τα δεδομένα και την επεξεργαστική ισχύ, εξηγεί, σε σύγκριση με το ακατάστατο και πολυδιάστατο έργο του διαστημικού ταξιδιού και του εποικισμού.
«Βλέπουμε αυτή τη διάσπαση σήμερα με τη ροή ερευνητών σε τομείς της πληροφορικής σε σύγκριση με την έλλειψη στις επιστήμες της ζωής. Κάθε μέρα στο Twitter, φωνακλάδες δισεκατομμυριούχοι μιλούν για το πόσο σπουδαίο και σημαντικό είναι να εποικίσουμε τον Άρη, αλλά ακόμα δεν ξέρουμε πώς οι άνθρωποι θα επιβιώσουν καν στο ταξίδι χωρίς να τεμαχιστούν από την κοσμική ακτινοβολία. Μην δίνετε σημασία σε αυτόν τον άνθρωπο πίσω από την κουρτίνα» λέει ο ραδιοαστρονόμος. Ο Garrett εξετάζει μια σειρά από συγκεκριμένα υποθετικά σενάρια και χρησιμοποιεί τεράστιες υποθέσεις. Υποθέτει ότι υπάρχει ζωή στον Γαλαξία μας και ότι η τεχνητή νοημοσύνη και η GAI είναι «φυσικές εξελίξεις» αυτών των πολιτισμών. Χρησιμοποιεί την ήδη υποθετική εξίσωση Drake, έναν τρόπο ποσοτικοποίησης του πιθανού αριθμού άλλων πλανητικών πολιτισμών, η οποία έχει αρκετές μεταβλητές για τις οποίες δεν έχουμε καμία συγκεκριμένη ιδέα.
Το μικτό υποθετικό επιχείρημα καταλήγει πάντως σε ένα ισχυρό συμπέρασμα: την ανάγκη για βαριά και συνεχή ρύθμιση της τεχνητής νοημοσύνης. Ο Garrett επισημαίνει ότι υπάρχει φόβος στο να τεθεί ρυθμιστικό πλαίσιο στην τεχνητή νοημοσύνη ως προς την απώλεια παραγωγικότητας. Στο μοντέλο του Garrett, οι πολιτισμοί έχουν μόλις μερικές εκατοντάδες χρόνια στην εποχή της τεχνητής νοημοσύνης πριν εξαφανιστούν από τον χάρτη. Σε σχέση με την απόσταση και την πολύ μακρά πορεία του κοσμικού χρόνου, τέτοια μικροσκοπικά χρονικά περιθώρια δεν σημαίνουν σχεδόν τίποτα. Μειώνονται στο μηδέν, το οποίο, λέει, ταιριάζει με το σημερινό ποσοστό επιτυχίας του SETI που είναι 0 τοις εκατό. «Χωρίς πρακτική ρύθμιση, υπάρχει κάθε λόγος να πιστεύουμε ότι η Τεχνητή Νοημοσύνη θα μπορούσε να αποτελέσει σημαντική απειλή για τη μελλοντική πορεία όχι μόνο του δικού μας τεχνικού πολιτισμού αλλά όλων των τεχνικών πολιτισμών», εξηγεί ο Garrett.
Με πληροφορίες από Popular Mechanics