icon zoom-in

Μεγέθυνση κειμένου

Α Α Α

Υπάρχει αρκετός χρόνος για προετοιμασία...

Σε μια νέα προβοκατόρικη μελέτη, ένας Άγγλος επιστήμονας αναρωτιέται αν η Τεχνητή Νοημοσύνη (AI) είναι ένας λόγος για τον οποίο δεν έχουμε βρει ποτέ άλλα ευφυή όντα στο σύμπαν.

Το παράδοξο του Fermi αποτυπώνει αυτήν την ιδέα: Σε ένα άπειρο σύμπαν, πώς είναι δυνατόν να μην υπάρχουν άλλοι πολιτισμοί που να μας στέλνουν ραδιοσήματα; Θα μπορούσε μια εξήγηση να είναι το γεγονός ότι, μόλις οι πολιτισμοί αναπτύξουν Τεχνητή Νοημοσύνη, ακολουθούν μια σύντομη διαδρομή προς τη λήθη-τουλάχιστον οι περισσότεροι από αυτούς;

Αυτού του είδους τα γεγονότα μεγάλης κλίμακας ονομάζονται Μεγάλα Φίλτρα, και η Τεχνητή Νοημοσύνη είναι ένα από τα πιο δημοφιλή θέματα των σχετικών εικασιών.

Θα μπορούσε η αναπόφευκτη ανάπτυξη της Τεχνητής Νοημοσύνης από τους τεχνολογικούς πολιτισμούς να δημιουργήσει την απίθανη Μεγάλη Σιωπή που ακούμε από το σύμπαν;

Ο Michael Garrett είναι ραδιοαστρονόμος στο Πανεπιστήμιο του Μάντσεστερ και διευθυντής του Κέντρου Αστροφυσικής Jodrell Bank, με εκτεταμένη συμμετοχή στην αναζήτηση εξωγήινης νοημοσύνης (SETI).

Ουσιαστικά, ενώ τα ερευνητικά του ενδιαφέροντα είναι εκλεκτικά, είναι μια άκρως εξειδικευμένη και διαπιστευμένη εκδοχή των ανθρώπων σε τηλεοπτικές σειρές ή ταινίες που αφουγκράζονται το σύμπαν για να ακούσουν σημάδια άλλων πολιτισμών.

Σε αυτή την εργασία, η οποία δημοσιεύθηκε στο περιοδικό της Διεθνούς Ακαδημίας Αστροναυτικής, συγκρίνει τις θεωρίες για την τεχνητή υπερ-νοημοσύνη με συγκεκριμένες παρατηρήσεις με τη χρήση της ραδιοαστρονομίας.

Ο Garrett εξηγεί στην εργασία του ότι οι επιστήμονες γίνονται όλο και πιο ανήσυχοι όσο περνάει ο καιρός χωρίς να ακούσουμε κανένα σημάδι άλλης νοήμονος ζωής.

Αυτή η Μεγάλη Σιωπή παρουσιάζει κάτι σαν παράδοξο όταν αντιπαραβάλλεται με άλλα αστρονομικά ευρήματα που υποδηλώνουν ότι το σύμπαν είναι φιλόξενο για την εμφάνιση νοήμονος ζωής, γράφει.

Συχνά χρησιμοποιείται η έννοια του μεγάλου φίλτρου – πρόκειται για ένα παγκόσμιο εμπόδιο και μια ανυπέρβλητη πρόκληση που εμποδίζει την ευρεία εμφάνιση νοήμονος ζωής.

Υπάρχουν αμέτρητα πιθανά Μεγάλα Φίλτρα, από την κλιματική εξαφάνιση μέχρι (φευ!) μια ολέθρια παγκόσμια πανδημία.

Οποιοσδήποτε αριθμός γεγονότων θα μπορούσε να σταματήσει έναν παγκόσμιο πολιτισμό από το να γίνει πολυπλανητικός.

Για τους ανθρώπους που ακολουθούν και πιστεύουν στις θεωρίες των Μεγάλων Φίλτρων περισσότερο ιδεολογικά, η εγκατάσταση ανθρώπων στον Άρη ή στη Σελήνη αποτελεί έναν τρόπο μείωσης του κινδύνου.

(Θα περάσει πολύς καιρός, αν ποτέ, μέχρι να αποκτήσουμε την τεχνολογία που θα καταστήσει αυτές τις εγκαταστάσεις βιώσιμες και ανεξάρτητες).

Όσο περισσότερο μένουμε μόνο στη Γη, τόσο πιο πιθανό είναι να μας αφανίσει ένα γεγονός Μεγάλου Φίλτρου, λέει η λογική.

Σήμερα, η Τεχνητή Νοημοσύνη δεν είναι ικανή να προσεγγίσει την ανθρώπινη νοημοσύνη. Αλλά, γράφει ο Garrett, κάνει εργασίες που οι άνθρωποι προηγουμένως δεν πίστευαν ότι οι υπολογιστές θα μπορούσαν να κάνουν.

Αν αυτή η πορεία οδηγήσει σε μια λεγόμενη γενική Τεχνητή Νοημοσύνη (GAI) – μια βασική διάκριση που σημαίνει έναν αλγόριθμο που μπορεί να σκεφτεί και να συνθέσει ιδέες με πραγματικά ανθρώπινο τρόπο σε συνδυασμό με απίστευτη υπολογιστική ισχύ – θα μπορούσαμε πραγματικά να έχουμε πρόβλημα.

Και σε αυτό το έγγραφο, ο Garrett ακολουθεί μια αλυσίδα υποθετικών ιδεών μέχρι ένα πιθανό συμπέρασμα. Πόσο καιρό θα χρειαζόταν ένας πολιτισμός για να εξαλειφθεί από τον δικό του ανεξέλεγκτο GAI;

Δυστυχώς, στο σενάριο του Garrett, αυτό διαρκεί μόλις 100-200 χρόνια. Η κωδικοποίηση και η ανάπτυξη της Τεχνητής Νοημοσύνης είναι ένα μονοσήμαντο έργο που περιλαμβάνει και επιταχύνεται από τα δεδομένα και την επεξεργαστική ισχύ, εξηγεί, σε σύγκριση με το ακατάστατο και πολυδιάστατο έργο του διαστημικού ταξιδιού και του οικισμού.

Βλέπουμε αυτή τη διάσπαση σήμερα με τη ροή ερευνητών σε τομείς της πληροφορικής σε σύγκριση με την έλλειψη στις επιστήμες της ζωής.

Κάθε μέρα στο Twitter, φωνακλάδες δισεκατομμυριούχοι μιλούν για το πόσο σπουδαίο και σημαντικό είναι να εποικίσουμε τον Άρη, αλλά ακόμα δεν ξέρουμε πώς οι άνθρωποι θα επιβιώσουν καν στο ταξίδι χωρίς να τεμαχιστούν από την κοσμική ακτινοβολία.

Υπάρχουν κάποιες μεγάλες επιφυλάξεις, ή απλά πράγματα που πρέπει να έχετε κατά νου, σχετικά με αυτή την έρευνα. Ο Garrett περνάει μέσα από μια σειρά συγκεκριμένων υποθετικών σεναρίων και χρησιμοποιεί τεράστιες υποθέσεις.

Υποθέτει ότι υπάρχει ζωή στον Γαλαξία μας και ότι η Τεχνητή Νοημοσύνη και η GAI είναι φυσικές εξελίξεις αυτών των πολιτισμών.

Χρησιμοποιεί την ήδη υποθετική εξίσωση Drake, έναν τρόπο ποσοτικοποίησης του πιθανού αριθμού άλλων πλανητικών πολιτισμών, η οποία έχει αρκετές μεταβλητές για τις οποίες δεν έχουμε καμία συγκεκριμένη ιδέα.

Το μικτό υποθετικό επιχείρημα καταλήγει όμως σε ένα ισχυρό συμπέρασμα: Την ανάγκη για αυστηρή και συνεχή ρύθμιση της Τεχνητής Νοημοσύνης.

Ο Garrett επισημαίνει ότι τα έθνη της Γης βρίσκονται ήδη σε μια κούρσα παραγωγικότητας, φοβούμενα ότι θα χάσουν αν διστάσουν προκειμένου να κάνουν περισσότερη ρύθμιση.

Ορισμένοι παραπλανημένοι μελλοντολόγοι έχουν επίσης την περίεργη ιδέα ότι μπορούν να ανατρέψουν τη GAI αναπτύσσοντας απλώς μια ηθικά καλή, πιο γρήγορη και πιο ευέλικτη τεχνολογία.

Στο μοντέλο του Garrett, αυτοί οι πολιτισμοί έχουν μόλις μερικές εκατοντάδες χρόνια στην εποχή της Τεχνητής Νοημοσύνης τους πριν εξαφανιστούν από τον χάρτη.

Σε σχέση με την απόσταση και την πολύ μακρά πορεία του κοσμικού χρόνου, τέτοια μικροσκοπικά χρονικά πλαίσια δεν σημαίνουν σχεδόν τίποτα.

Μειώνονται στο μηδέν, το οποίο, λέει, ταιριάζει με το σημερινό ποσοστό επιτυχίας του SETI που είναι 0 τοις εκατό.

Χωρίς πρακτική ρύθμιση, υπάρχει κάθε λόγος να πιστεύουμε ότι η Τεχνητή Νοημοσύνη θα μπορούσε να αποτελέσει σημαντική απειλή για τη μελλοντική πορεία όχι μόνο του δικού μας τεχνικού πολιτισμού αλλά όλων των τεχνικών πολιτισμών, εξηγεί ο Garrett.

Με πληροφορίες από Popular Mechanics