Στις 16 Μαΐου 2023, ο Σαμ Άλτμαν, ο γοητευτικός, ήπιος και αιώνια αισιόδοξος δισεκατομμυριούχος διευθύνων σύμβουλος της OpenAI, και ο επιστήμονας Gary Marcus βρέθηκαν μπροστά στην υποεπιτροπή της Γερουσίας των ΗΠΑ για την εποπτεία της Τεχνητής Νοημοσύνης. Βρέθηκαν στην Ουάσινγκτον και στο απόγειο της μανίας της Τεχνητής Νοημοσύνης. Ο Άλτμαν, 38 ετών τότε, ήταν ο άνθρωπος που συγκέντρωνε τα φώτα της δημοσιότητας, ακριβώς γι’ αυτόν τον λόγο.

Μεγαλωμένος στο Σεντ Λούις του Μιζούρι, ο Άλτμαν ήταν ο απόφοιτος του Στάνφορντ που είχε γίνει πρόεδρος του μαζικά επιτυχημένου «φυτώριου» νεοφυών επιχειρήσεων Y Combinator πριν κλείσει τα 30 του χρόνια. Λίγους μήνες πριν από την ακρόαση, το προϊόν της εταιρείας του ChatGPT είχε κατακλύσει τον κόσμο. Όλο το καλοκαίρι του 2023, ο Άλτμαν αντιμετωπιζόταν σαν Beatle, περνώντας από την Ουάσινγκτον στο πλαίσιο μιας παγκόσμιας περιοδείας, συναντώντας πρωθυπουργούς και προέδρους σε όλο τον κόσμο.

Η γερουσιαστής των ΗΠΑ Kyrsten Sinema ξετρελάθηκε: «Δεν έχω γνωρίσει ποτέ κανέναν τόσο έξυπνο όσο ο Σαμ… Είναι εσωστρεφής, ντροπαλός και ταπεινός… Αλλά… πολύ καλός στο να δημιουργεί σχέσεις με ανθρώπους στην εξουσία και… μπορεί να βοηθήσει τους ανθρώπους στην κυβέρνηση να κατανοήσουν την Τεχνητή Νοημοσύνη». Τα λαμπερά πορτρέτα της εποχής περιέγραφαν τον νεαρό Altman ως ειλικρινή, ταλαντούχο, πλούσιο και ενδιαφερόμενο για τίποτα περισσότερο από την προώθηση της ανθρωπότητας. Οι συχνές προτάσεις του ότι η Τεχνητή Νοημοσύνη θα μπορούσε να μεταμορφώσει την παγκόσμια οικονομία έκαναν τους παγκόσμιους ηγέτες να τρέχουν τα σάλια τους.

Ο γερουσιαστής Richard Blumenthal είχε καλέσει αυτούς τους δύο (και την Christina Montgomery της IBM) στην Ουάσινγκτον για να συζητήσουν τι πρέπει να γίνει με την Τεχνητή Νοημοσύνη, μια τεχνολογία «διπλής χρήσης» που υπόσχεται πολλά, αλλά έχει επίσης τη δυνατότητα να προκαλέσει τεράστια ζημιά – από τσουνάμι παραπληροφόρησης μέχρι τη δυνατότητα διάδοσης νέων βιολογικών όπλων. Η ημερήσια διάταξη αφορούσε την πολιτική και τη ρύθμιση της Τεχνητής Νοημοσύνης. Ορκίστηκαν να πουν όλη την αλήθεια και μόνο την αλήθεια.

Ο Άλτμαν εκπροσωπούσε μια από τις κορυφαίες εταιρείες Τεχνητής Νοημοσύνης- ο Marcus ήταν εκεί ως επιστήμονας και συγγραφέας, γνωστός για τον σκεπτικισμό του σε πολλά πράγματα που σχετίζονται με την Τεχνητή Νοημοσύνη. Βρήκε τον Altman εκπληκτικά ελκυστικό, όπως ο ίδιος παραδέχεται σε άρθρο του στον Guardian.

Υπήρχαν στιγμές που απέφευγε τις ερωτήσεις, θυμάται ο Marcus (κυρίως την ερώτηση του Blumenthal: Για ποιο πράγμα ανησυχείτε περισσότερο;, την οποία πίεσε τον Άλτμαν να απαντήσει με μεγαλύτερη ειλικρίνεια), αλλά σε γενικές γραμμές φαινόταν γνήσιος, και σημειώνει ότι το ίδιο είπε και στους γερουσιαστές τότε. «Ήμασταν και οι δύο σθεναρά υπέρ της ρύθμισης της Τεχνητής Νοημοσύνης. Σιγά-σιγά, όμως, συνειδητοποίησα ότι εγώ, η Γερουσία και τελικά ο αμερικανικός λαός, μάλλον είχαμε ξεγελαστεί», τονίζει.

Η αλήθεια είναι ότι πάντα είχα κάποιες επιφυλάξεις για το OpenAI, παραδέχεται κι εξηγεί: Οι καμπάνιες της εταιρείας στον Τύπο, για παράδειγμα, ήταν συχνά υπερβολικές και ακόμη και παραπλανητικές, όπως το φανταχτερό demo ενός ρομπότ που “έλυνε” έναν κύβο του Ρούμπικ, ο οποίος τελικά είχε ειδικούς αισθητήρες στο εσωτερικό του. Έλαβε τόνους δημοσιευμάτων, αλλά τελικά δεν πήγε πουθενά.

Για χρόνια, το όνομα OpenAI – το οποίο υπονοούσε ένα είδος διαφάνειας σχετικά με την επιστήμη πίσω από αυτό που έκανε η εταιρεία – είχε φανεί σαν ψέμα, αφού στην πραγματικότητα γινόταν όλο και λιγότερο διαφανής με την πάροδο του χρόνου. Οι συχνές νύξεις της εταιρείας ότι η AGI (τεχνητή γενική νοημοσύνη, τεχνητή νοημοσύνη που μπορεί τουλάχιστον να φτάσει τις γνωστικές ικανότητες οποιουδήποτε ανθρώπου) ήταν προ των πυλών, φαινόταν πάντα σαν αδικαιολόγητη υπερβολή. Αλλά από κοντά, συνεχίζει ο Marcus, «ο Άλτμαν ήταν εκθαμβωτικός- αναρωτήθηκα αν ήμουν πολύ σκληρός μαζί του προηγουμένως. Εκ των υστέρων, ήμουν πολύ μαλακός».

Παραδέχεται πως άρχισε να το ξανασκέφτεται αφού κάποιος του έστειλε μια συμβουλή, για κάτι μικρό αλλά χαρακτηριστικό. Στη Γερουσία, ο Άλτμαν παρουσιάστηκε ως πολύ πιο αλτρουιστής από ό,τι ήταν στην πραγματικότητα. Ο γερουσιαστής Τζον Κένεντι είχε ρωτήσει: «Εντάξει. Βγάζεις πολλά λεφτά. Αλήθεια;» Ο Άλτμαν απάντησε: «Δεν βγάζω τίποτα… Πληρώνομαι αρκετά για την ασφάλιση υγείας. Δεν έχω καμία συμμετοχή στην OpenAI», διευκρινίζοντας ότι: «Το κάνω αυτό επειδή το αγαπώ».

Οι γερουσιαστές το πίστεψαν.

Ο Άλτμαν δεν έλεγε όλη την αλήθεια. Δεν είχε μετοχές στο OpenAI, αλλά είχε μετοχές στο Y Combinator, και το Y Combinator είχε μετοχές στο OpenAI. Αυτό σήμαινε ότι ο Σαμ είχε έμμεση συμμετοχή στο OpenAI, γεγονός που αναγνωρίζεται στην ιστοσελίδα του OpenAI. Αν αυτό το έμμεσο μερίδιο άξιζε μόλις το 0,1% της αξίας της εταιρείας, κάτι που φαίνεται πιθανό, θα άξιζε σχεδόν 100 εκατ. δολάρια.

Αυτή η παράλειψη ήταν ένα προειδοποιητικό σημάδι. Και όταν επανήλθε το θέμα, θα μπορούσε να το είχε διορθώσει. Αλλά δεν το έκανε. Ο κόσμος λάτρευε τον ανιδιοτελή μύθο του. (Επανέλαβε την άποψή του, σε ένα άρθρο του στο Fortune, υποστηρίζοντας ότι δεν χρειαζόταν μετοχές με το OpenAI επειδή είχε αρκετά χρήματα). Λίγο καιρό μετά από αυτό, ο Marcus ανακάλυψε ότι η OpenAI είχε συνάψει συμφωνία με μια εταιρεία τσιπ στην οποία ο Άλτμαν κατείχε ένα μερίδιο. Το ανιδιοτελές κομμάτι άρχισε να ακούγεται κούφιο.

Η συζήτηση για τα χρήματα δεν ήταν, εκ των υστέρων, το μόνο πράγμα από την παρουσία τους στη Γερουσία που δεν του φάνηκε εντελώς ειλικρινές. Πολύ πιο σημαντική ήταν η στάση του OpenAI σχετικά με τη ρύθμιση γύρω από την Τεχνητή Νοημοσύνη. Δημόσια, ο Άλτμαν είπε στη Γερουσία ότι την υποστήριζε. Η πραγματικότητα είναι πολύ πιο περίπλοκη.

Από τη μία πλευρά, ίσως ένα μικρό μέρος του Άλτμαν επιθυμεί πραγματικά τη ρύθμιση της Τεχνητής Νοημοσύνης. Του αρέσει να παραφράζει τον Οπενχάιμερ (και γνωρίζει πολύ καλά ότι έχει τα ίδια γενέθλια με τον ηγέτη του προγράμματος Μανχάταν) και αναγνωρίζει ότι, όπως και τα πυρηνικά όπλα, η Τεχνητή Νοημοσύνη ενέχει σοβαρούς κινδύνους για την ανθρωπότητα. Με τα δικά του λόγια, που ειπώθηκαν στη Γερουσία (αν και μετά από κάποια προτροπή του Markus): «Κοιτάξτε, προσπαθήσαμε να είμαστε πολύ σαφείς σχετικά με το μέγεθος των κινδύνων εδώ… Οι χειρότεροι φόβοι μου είναι ότι προκαλούμε σημαντική – εμείς, ο τομέας, η τεχνολογία, η βιομηχανία – προκαλούμε σημαντική ζημιά στον κόσμο».

Προφανώς ο Άλτμαν δεν θέλει να ζήσει με τύψεις και διασυρμό. Αλλά πίσω από τις κλειστές πόρτες, οι λομπίστες του συνεχίζουν να πιέζουν για ασθενέστερη ρύθμιση ή για καθόλου ρύθμιση. Ένα μήνα μετά την ακρόαση στη Γερουσία, αποκαλύφθηκε ότι το OpenAI εργαζόταν για να αποδυναμώσει την πράξη της ΕΕ για την Τεχνητή Νοημοσύνη. Μέχρι τη στιγμή που απολύθηκε από την OpenAI τον Νοέμβριο του 2023 επειδή δεν ήταν σταθερά ειλικρινής με το διοικητικό συμβούλιο, ο Marcus δεν εξεπλάγην και τόσο πολύ.

Εκείνη την εποχή, λίγοι άνθρωποι υποστήριξαν την απόφαση του διοικητικού συμβουλίου να απολύσει τον Άλτμαν. Ένας τεράστιος αριθμός υποστηρικτών ήρθε να τον βοηθήσει- πολλοί τον αντιμετώπισαν σαν άγιο. Η γνωστή δημοσιογράφος Kara Swisher (γνωστή ως αρκετά φιλική με τον Άλτμαν) μπλόκαρε τον Marcus στο X (πρώην Twitter) επειδή απλώς υπέδειξε ότι το διοικητικό συμβούλιο μπορεί να είχε δίκιο. Ο Άλτμαν έπαιξε καλά με τα μέσα μαζικής ενημέρωσης. Πέντε ημέρες αργότερα επανήλθε στη θέση του, με τη βοήθεια του κύριου επενδυτή του OpenAI, της Microsoft, και ενός αιτήματος υποστήριξης του Άλτμαν από τους εργαζόμενους.

Από τότε όμως έχουν αλλάξει πολλά. Τους τελευταίους μήνες, οι ανησυχίες σχετικά με την ειλικρίνεια του Άλτμαν έχουν γίνει από αιρετικές, στη μόδα. Ο δημοσιογράφος Edward Zitron έγραψε ότι ο Άλτμαν ήταν «ένας ψευδοπροφήτης – ένας άθλιος απατεώνας που χρησιμοποιεί την αξιοσημείωτη ικανότητά του για να εντυπωσιάσει και να χειραγωγήσει την ελίτ της Silicon Valley». Η Ellen Huet του Bloomberg News, στο podcast Foundering, κατέληξε στο συμπέρασμα ότι «όταν [ο Άλτμαν] λέει κάτι, δεν μπορείς να είσαι σίγουρος ότι το εννοεί πραγματικά». Ο Paris Marx προειδοποίησε για «το αυτοεξυπηρετούμενο όραμα του Σαμ Άλτμαν».

Ο πρωτοπόρος της Τεχνητής Νοημοσύνης Geoffrey Hinton αμφισβήτησε πρόσφατα τα κίνητρα του Altman. Ο ίδιος ο Marcus έγραψς ένα δοκίμιο με τίτλο «The Sam Altman Playbook», αναλύοντας πώς είχε καταφέρει να ξεγελάσει τόσους πολλούς ανθρώπους για τόσο πολύ καιρό, με ένα μείγμα διαφημιστικής εκστρατείας και φαινομενικής ταπεινότητας.

Πολλά πράγματα οδήγησαν σε αυτή την κατάρρευση της εμπιστοσύνης. Για ορισμένους, η στιγμή που πυροδότησε την αντίδραση του Άλτμαν νωρίτερα φέτος με τη Σκάρλετ Γιόχανσον, η οποία του ζήτησε ρητά να μην φτιάξει ένα chatbot με τη φωνή της. Ο Άλτμαν προχώρησε στη χρήση μιας διαφορετικής ηθοποιού φωνής, η οποία όμως προφανώς έμοιαζε στη φωνή της, και έγραψε στο Twitter «Her» (αναφορά σε μια ταινία στην οποία η Γιόχανσον παρείχε τη φωνή για μια Τεχνητή Νοημοσύνη). Η Γιόχανσον εξοργίστηκε. Και το φιάσκο της ScarJo ήταν εμβληματικό ενός ευρύτερου ζητήματος: Μεγάλες εταιρείες όπως η OpenAI επιμένουν ότι τα μοντέλα τους δεν θα λειτουργήσουν αν δεν εκπαιδευτούν σε όλη την πνευματική ιδιοκτησία του κόσμου, αλλά οι εταιρείες έχουν δώσει ελάχιστη ή καθόλου αποζημίωση σε πολλούς από τους καλλιτέχνες, συγγραφείς και άλλους που την έχουν δημιουργήσει. Η ηθοποιός Justine Bateman το χαρακτήρισε ως τη μεγαλύτερη κλοπή στην [ιστορία των] Ηνωμένων Πολιτειών, τελεία και παύλα.

Εν τω μεταξύ, η OpenAI έχει παράσχει εδώ και καιρό υποσχέσεις για την αξία της ανάπτυξης μέτρων για την ασφάλεια της Τεχνητής Νοημοσύνης, αλλά αρκετοί βασικοί υπάλληλοι που σχετίζονται με την ασφάλεια αποχώρησαν πρόσφατα, ισχυριζόμενοι ότι οι υποσχέσεις δεν τηρήθηκαν. Ο πρώην ερευνητής ασφάλειας της OpenAI, Jan Leike, δήλωσε ότι η εταιρεία έδινε προτεραιότητα στα φανταχτερά πράγματα έναντι της ασφάλειας, όπως και ένας άλλος πρόσφατα αποχωρήσας υπάλληλος, ο William Saunders. Ο συνιδρυτής Ilya Sutskever αποχώρησε και ονόμασε το νέο του εγχείρημα Safe Superintelligence, ενώ ο πρώην υπάλληλος της OpenAI Daniel Kokotajlo, επίσης, προειδοποίησε ότι οι υποσχέσεις σχετικά με την ασφάλεια δεν τηρήθηκαν. Όσο άσχημα και αν ήταν τα μέσα κοινωνικής δικτύωσης για την κοινωνία, η παρεκκλίνουσα Τεχνητή Νοημοσύνη, την οποία θα μπορούσε να αναπτύξει τυχαία η OpenAI, θα μπορούσε (όπως είπε ο ίδιος ο Άλτμαν) να είναι πολύ χειρότερη.

Η αδιαφορία που έχει επιδείξει η OpenAI για την ασφάλεια επιδεινώνεται από το γεγονός ότι η εταιρεία φαίνεται να βρίσκεται σε μια εκστρατεία για να κρατήσει τους υπαλλήλους της ήσυχους. Τον Μάιο, η δημοσιογράφος Kelsey Piper αποκάλυψε έγγραφα που επέτρεπαν στην εταιρεία να πάρει πίσω τις μετοχές που είχαν κατοχυρωθεί από πρώην υπαλλήλους που δεν συμφωνούσαν να μην μιλούν άσχημα για την εταιρεία, μια πρακτική που πολλοί γνώστες του κλάδου βρήκαν σοκαριστική. Αμέσως μετά, πολλοί πρώην εργαζόμενοι της OpenAI υπέγραψαν στη συνέχεια μια επιστολή στο righttowarn.ai απαιτώντας προστασία των πληροφοριοδοτών, με αποτέλεσμα η εταιρεία να υποχωρήσει, δηλώνοντας ότι δεν θα επιβάλει αυτές τις συμβάσεις.

Ακόμη και το διοικητικό συμβούλιο της εταιρείας αισθάνθηκε παραπλανημένο. Τον Μάιο, το πρώην μέλος του διοικητικού συμβουλίου της OpenAI Helen Toner δήλωσε στο podcast Ted AI Show: «Για χρόνια, ο Σαμ δυσκόλευε πραγματικά το διοικητικό συμβούλιο… με το να αποκρύπτει πληροφορίες, να παραποιεί πράγματα που συνέβαιναν στην εταιρεία, σε ορισμένες περιπτώσεις λέγοντας ευθέως ψέματα στο διοικητικό συμβούλιο».

Μέχρι τα τέλη Μαΐου, ο κακός Τύπος για την OpenAI και τον διευθύνοντα σύμβουλό της είχε συσσωρευτεί τόσο σταθερά, ώστε ο venture capitalist Matt Turck δημοσίευσε ένα σκίτσο στο X: «Ημέρες πριν αποφευχθεί εύκολα η τελευταία διαμάχη της OpenAI: 0».

Ωστόσο, ο Άλτμαν είναι ακόμα εκεί, και ακόμα απίστευτα δυνατός. Εξακολουθεί να διευθύνει το OpenAI, και σε μεγάλο βαθμό εξακολουθεί να είναι το δημόσιο πρόσωπο της Τεχνητής Νοημοσύνης. Έχει ανακατασκευάσει το διοικητικό συμβούλιο του OpenAI σε μεγάλο βαθμό σύμφωνα με τις προτιμήσεις του. Ακόμη και πρόσφατα, τον Απρίλιο του 2024, ο υπουργός Εσωτερικής Ασφάλειας Alejandro Mayorkas ταξίδεψε για να επισκεφθεί τον Άλτμαν, για να τον στρατολογήσει για το συμβούλιο ασφάλειας και προστασίας της Τεχνητής Νοημοσύνης της Εσωτερικής Ασφάλειας.

Πολλά διακυβεύονται. Ο τρόπος με τον οποίο αναπτύσσεται τώρα η Τεχνητή Νοημοσύνη θα έχει μακροχρόνιες συνέπειες. Οι επιλογές του Άλτμαν θα μπορούσαν εύκολα να επηρεάσουν όλη την ανθρωπότητα – όχι μόνο μεμονωμένους χρήστες – με μόνιμους τρόπους. Ήδη, όπως έχει αναγνωρίσει η OpenAI, τα εργαλεία της έχουν χρησιμοποιηθεί από τη Ρωσία και την Κίνα για τη δημιουργία παραπληροφόρησης, πιθανώς με σκοπό να επηρεάσουν τις εκλογές. Οι πιο προηγμένες μορφές Τεχνητής Νοημοσύνης, εάν αναπτυχθούν, θα μπορούσαν να προκαλέσουν ακόμη πιο σοβαρούς κινδύνους. Ό,τι έχουν κάνει τα μέσα κοινωνικής δικτύωσης, όσον αφορά την πόλωση της κοινωνίας και την διακριτική επιρροή των πεποιθήσεων των ανθρώπων, οι εταιρείες μαζικής Τεχνητής Νοημοσύνης θα μπορούσαν να το κάνουν χειρότερο.

Επιπλέον, η παραγωγική Τεχνητή Νοημοσύνη, που έγινε δημοφιλής από το OpenAI, έχει τεράστιο περιβαλλοντικό αντίκτυπο, μετρούμενο από την άποψη της χρήσης ηλεκτρικής ενέργειας, των εκπομπών και της χρήσης νερού. Όπως το έθεσε πρόσφατα το Bloomberg: Η Τεχνητή Νοημοσύνη προκαλεί ήδη χάος στα παγκόσμια συστήματα ηλεκτρικής ενέργειας. Ο αντίκτυπος αυτός θα μπορούσε να αυξηθεί, ίσως και σημαντικά, καθώς τα ίδια τα μοντέλα γίνονται μεγαλύτερα (στόχος όλων των μεγαλύτερων παικτών). Σε μεγάλο βαθμό, οι κυβερνήσεις βασίζονται στα λεγόμενα του Άλτμαν ότι η Τεχνητή Νοημοσύνη θα αποδώσει στο τέλος (σίγουρα δεν έχει αποδώσει μέχρι στιγμής), δικαιολογώντας το περιβαλλοντικό κόστος.

Εν τω μεταξύ, το OpenAI έχει αναλάβει ηγετική θέση και ο Άλτμαν συμμετέχει στο συμβούλιο ασφάλειας της εσωτερικής ασφάλειας. Οι συμβουλές του θα πρέπει να λαμβάνονται με σκεπτικισμό. Ο Άλτμαν προσπαθούσε, τουλάχιστον για λίγο, να προσελκύσει επενδυτές σε μια επένδυση 7 τρις δολαρίων σε υποδομές γύρω από τη γεννητική Τεχνητή Νοημοσύνη, η οποία θα μπορούσε να αποδειχθεί μια τεράστια σπατάλη πόρων που θα μπορούσαν ίσως να δαπανηθούν καλύτερα αλλού, αν (όπως υποψιάζεται ο Marcus και πολλοί άλλοι) η γεννητική Τεχνητή Νοημοσύνη δεν είναι ο σωστός δρόμος προς την AGI [“Τεχνητή Γενική Νοημοσύνη”].

Τέλος, η υπερεκτίμηση της σημερινής Τεχνητής Νοημοσύνης θα μπορούσε να οδηγήσει σε πόλεμο. Ο πόλεμος των τσιπ μεταξύ ΗΠΑ και Κίνας για τους ελέγχους των εξαγωγών, για παράδειγμα – κατά τον οποίο οι ΗΠΑ περιορίζουν την εξαγωγή κρίσιμων τσιπ GPU που σχεδιάστηκαν από την Nvidia, τα οποία κατασκευάζονται στην Ταϊβάν – επηρεάζει την ικανότητα της Κίνας να προχωρήσει στην Τεχνητή Νοημοσύνη και κλιμακώνει τις εντάσεις μεταξύ των δύο εθνών. Η μάχη για τα τσιπ βασίζεται σε μεγάλο βαθμό στην αντίληψη ότι η Τεχνητή Νοημοσύνη θα συνεχίσει να βελτιώνεται εκθετικά, παρόλο που τα δεδομένα υποδηλώνουν ότι οι τρέχουσες προσεγγίσεις μπορεί πρόσφατα να έχουν φτάσει σε ένα σημείο μειωμένων αποδόσεων.

Ο Άλτμαν μπορεί κάλλιστα να ξεκίνησε με καλές προθέσεις. Ίσως ήθελε πραγματικά να σώσει τον κόσμο από τις απειλές της Τεχνητής Νοημοσύνης και να καθοδηγήσει την Τεχνητή Νοημοσύνη για καλό σκοπό. Ίσως η απληστία τον κυρίευσε, όπως συμβαίνει συχνά.

Δυστυχώς, πολλές άλλες εταιρείες Τεχνητής Νοημοσύνης φαίνεται να ακολουθούν το δρόμο της διαφημιστικής εκστρατείας που κατέγραψε ο Άλτμαν. Η Anthropic – η οποία σχηματίστηκε από μια ομάδα προσφύγων του OpenAI που ανησυχούσαν ότι η ασφάλεια της Τεχνητής Νοημοσύνης δεν λαμβανόταν αρκετά σοβαρά υπόψη – φαίνεται όλο και περισσότερο να ανταγωνίζεται απευθείας το μητρικό σκάφος, με ό,τι αυτό συνεπάγεται. Η νεοφυής επιχείρηση Perplexity, η οποία έχει κερδίσει δισεκατομμύρια δολάρια, φαίνεται να είναι ένα άλλο μάθημα απληστίας, καθώς εκπαιδεύεται σε δεδομένα που υποτίθεται ότι δεν πρέπει να χρησιμοποιεί. Η Microsoft, εν τω μεταξύ, από το να υποστηρίζει την «υπεύθυνη Τεχνητή Νοημοσύνη» έφτασε στο να βγάζει βιαστικά προϊόντα με σοβαρά προβλήματα, πιέζοντας την Google να κάνει το ίδιο. Το χρήμα και η εξουσία διαφθείρουν την Τεχνητή Νοημοσύνη, όπως διέφθειραν τα μέσα κοινωνικής δικτύωσης.

Απλώς δεν μπορούμε να εμπιστευτούμε τις γιγαντιαίες, ιδιωτικές νεοσύστατες επιχειρήσεις Τεχνητής Νοημοσύνης ότι θα διοικούνται με ηθικούς και διαφανείς τρόπους. Και αν δεν μπορούμε να τις εμπιστευτούμε να αυτοκυβερνηθούν, σίγουρα δεν θα πρέπει να τις αφήσουμε να κυβερνήσουν τον κόσμο.

«Ειλικρινά, δεν νομίζω ότι θα φτάσουμε σε μια Τεχνητή Νοημοσύνη την οποία θα μπορούμε να εμπιστευτούμε, αν παραμείνουμε στον τρέχοντα δρόμο. Πέρα από τη διαφθορά της εξουσίας και του χρήματος, υπάρχει και ένα βαθύ τεχνικό ζήτημα: Τα μεγάλα γλωσσικά μοντέλα (η βασική τεχνική της δημιουργικής Τεχνητής Νοημοσύνης) που εφευρέθηκαν από την Google και έγιναν διάσημα από την εταιρεία του Άλτμαν, είναι απίθανο να είναι ποτέ ασφαλή. Είναι απρόθυμα και αδιαφανή από τη φύση τους – τα λεγόμενα “μαύρα κουτιά” που δεν μπορούμε ποτέ να χαλιναγωγήσουμε πλήρως. Οι στατιστικές τεχνικές που τις καθοδηγούν μπορούν να κάνουν μερικά εκπληκτικά πράγματα, όπως να επιταχύνουν τον προγραμματισμό υπολογιστών και να δημιουργήσουν αληθοφανείς διαδραστικούς χαρακτήρες στο ύφος αποθανόντων αγαπημένων προσώπων ή ιστορικών προσωπικοτήτων. Αλλά τέτοια “μαύρα κουτιά” δεν ήταν ποτέ αξιόπιστα, και ως εκ τούτου αποτελούν μια φτωχή βάση για Τεχνητή Νοημοσύνη που θα μπορούσαμε να εμπιστευτούμε τη ζωή μας και τις υποδομές μας», σημειώνει ο Marcus.

Τούτου λεχθέντος, συνεχίζει «δεν νομίζω ότι πρέπει να εγκαταλείψουμε την Τεχνητή Νοημοσύνη». Η δημιουργία καλύτερης Τεχνητής Νοημοσύνης – για την ιατρική, την επιστήμη των υλικών, την επιστήμη του κλίματος κ.ο.κ. – θα μπορούσε πραγματικά να μεταμορφώσει τον κόσμο. Η γεννητική Τεχνητή Νοημοσύνη είναι απίθανο να κάνει το κόλπο, αλλά κάποια μελλοντική, ακόμη ανεπτυγμένη μορφή Τεχνητής Νοημοσύνης μπορεί να το κάνει.

Η ειρωνεία είναι ότι η μεγαλύτερη απειλή για την Τεχνητή Νοημοσύνη σήμερα μπορεί να είναι οι ίδιες οι εταιρείες Τεχνητής Νοημοσύνης– η κακή συμπεριφορά τους και οι υπερβολικές υποσχέσεις τους απομακρύνουν πολλούς ανθρώπους. Πολλοί είναι έτοιμοι να αναλάβουν ισχυρότερη δράση από την κυβέρνηση. Σύμφωνα με δημοσκόπηση του Ιουνίου από το Artificial Intelligence Policy Institute, το 80% των Αμερικανών ψηφοφόρων προτιμά ρύθμιση της Τεχνητής Νοημοσύνης που επιβάλλει μέτρα ασφαλείας και κυβερνητική εποπτεία των εργαστηρίων Τεχνητής Νοημοσύνης αντί να επιτρέπει στις εταιρείες Τεχνητής Νοημοσύνης να αυτορυθμίζονται.

«Για να φτάσουμε σε μια Τεχνητή Νοημοσύνη που μπορούμε να εμπιστευτούμε, πιέζω εδώ και καιρό για μια διακρατική προσπάθεια, παρόμοια με την κοινοπραξία φυσικής υψηλών ενεργειών του Cern. Η ώρα γι’ αυτό είναι τώρα. Μια τέτοια προσπάθεια, επικεντρωμένη στην ασφάλεια και την αξιοπιστία της Τεχνητής Νοημοσύνης και όχι στο κέρδος, και στην ανάπτυξη ενός νέου συνόλου τεχνικών Τεχνητής Νοημοσύνης που ανήκουν στην ανθρωπότητα – και όχι σε μια χούφτα άπληστων εταιρειών – θα μπορούσε να είναι μετασχηματιστική», λέει ο Marcus και καταλήγει:

«Περισσότερο από αυτό, οι πολίτες πρέπει να μιλήσουν και να απαιτήσουν μια Τεχνητή Νοημοσύνη που να είναι καλή για τους πολλούς και όχι μόνο για τους λίγους. Ένα πράγμα που μπορώ να εγγυηθώ είναι ότι δεν θα φτάσουμε στη γη της επαγγελίας της Τεχνητής Νοημοσύνης αν αφήσουμε τα πάντα στα χέρια της Silicon Valley. Τα αφεντικά της τεχνολογίας σκιάζουν την αλήθεια εδώ και δεκαετίες. Γιατί να περιμένουμε ότι ο Σαμ Άλτμαν, που τελευταία εθεάθη να κάνει βόλτες στη Napa Valley με ένα supercar Koenigsegg αξίας 4 εκατομμυρίων δολαρίων, θα είναι διαφορετικός;»

Με πληροφορίες από Guardian