Αντιμέτωπες με μια νέα γενιά ρομπότ που μπορούν να μεταμφιεστούν σε ανθρώπους και να παράγουν μαζικά οικειότητα, οι δημοκρατίες θα πρέπει να προστατευθούν και να προφυλάξουν τους ανθρώπους από τη χειραγώγηση
Τι συμβαίνει όταν τα bots ανταγωνίζονται για την αγάπη σoυ;
Αντιμέτωπες με μια νέα γενιά ρομπότ που μπορούν να μεταμφιεστούν σε ανθρώπους και να παράγουν μαζικά οικειότητα, οι δημοκρατίες θα πρέπει να προστατευθούν και να προφυλάξουν τους ανθρώπους από τη χειραγώγηση
Αντιμέτωπες με μια νέα γενιά ρομπότ που μπορούν να μεταμφιεστούν σε ανθρώπους και να παράγουν μαζικά οικειότητα, οι δημοκρατίες θα πρέπει να προστατευθούν και να προφυλάξουν τους ανθρώπους από τη χειραγώγηση
Αντιμέτωπες με μια νέα γενιά ρομπότ που μπορούν να μεταμφιεστούν σε ανθρώπους και να παράγουν μαζικά οικειότητα, οι δημοκρατίες θα πρέπει να προστατευθούν και να προφυλάξουν τους ανθρώπους από τη χειραγώγηση
Τα ζητήματα δημοκρατίας αποτελούν μια μεγάλη συζήτηση. Η λειτουργία και η επιβίωσή της εξαρτώνται από τη διαθέσιμη τεχνολογία πληροφοριών. Στο μεγαλύτερο μέρος της ιστορίας δεν υπήρχε τεχνολογία για τη διεξαγωγή συνομιλιών μεγάλης κλίμακας μεταξύ εκατομμυρίων ανθρώπων. Στον προνεωτερικό κόσμο, δημοκρατίες υπήρχαν μόνο σε μικρές πόλεις-κράτη όπως η Ρώμη και η Αθήνα, ή σε ακόμα μικρότερες φυλές. Μόλις μια πολιτεία μεγάλωνε, η δημοκρατική συζήτηση κατέρρεε και ο αυταρχισμός παρέμενε η μόνη εναλλακτική λύση.
Οι δημοκρατίες μεγάλης κλίμακας έγιναν εφικτές μόνο μετά την άνοδο των σύγχρονων τεχνολογιών πληροφόρησης, όπως η εφημερίδα, ο τηλέγραφος και το ραδιόφωνο. Το γεγονός ότι η σύγχρονη δημοκρατία έχει οικοδομηθεί πάνω στις σύγχρονες τεχνολογίες πληροφοριών σημαίνει ότι οποιαδήποτε σημαντική αλλαγή στην υποκείμενη τεχνολογία είναι πιθανό να οδηγήσει σε πολιτική αναταραχή.
Αυτό εξηγεί εν μέρει τη σημερινή παγκόσμια κρίση της δημοκρατίας. Στις Ηνωμένες Πολιτείες, οι Δημοκρατικοί και οι Ρεπουμπλικάνοι δύσκολα μπορούν να συμφωνήσουν ακόμα και στα πιο βασικά, όπως για παράδειγμα ποιος κέρδισε τις προεδρικές εκλογές του 2020. Παρόμοια κατάρρευση συμβαίνει σε πολλές άλλες δημοκρατίες σε όλο τον κόσμο, από τη Βραζιλία έως το Ισραήλ και από τη Γαλλία έως τις Φιλιππίνες.
Στις πρώτες μέρες του Διαδικτύου και των μέσων κοινωνικής δικτύωσης, οι λάτρεις της τεχνολογίας υποσχέθηκαν ότι θα διαδώσουν την αλήθεια, θα ανατρέψουν τους τυράννους και θα εξασφαλίσουν τον παγκόσμιο θρίαμβο της ελευθερίας.
Μέχρι στιγμής, φαίνεται ότι είχαν το αντίθετο αποτέλεσμα. Διαθέτουμε πλέον την πιο εξελιγμένη τεχνολογία πληροφοριών στην ιστορία, αλλά χάνουμε την ικανότητα να μιλάμε μεταξύ μας, και ακόμα περισσότερο την ικανότητα να ακούμε.
Έρμαια των αλγόριθμων
Η τεχνολογία κατέστησε ευκολότερη από ποτέ τη διάδοση των πληροφοριών, ενώ ταυτόχρονα οδήγησε σε έναν κατακλυσμό τοξικών πληροφοριών. Επιπλέον, η νέα γενετική Τεχνητή Νοημοσύνη είναι ικανή όχι μόνο να παράγει κείμενα, εικόνες και βίντεο, αλλά και να συνομιλεί απευθείας μαζί μας, προσποιούμενη ότι είναι άνθρωπος. Τις τελευταίες δύο δεκαετίες, οι αλγόριθμοι πολέμησαν τους αλγορίθμους για να τραβήξουν την προσοχή χειραγωγώντας τις συζητήσεις και το περιεχόμενό τους.
Συγκεκριμένα, οι αλγόριθμοι που έχουν αναλάβει να μεγιστοποιήσουν τη δέσμευση των χρηστών ανακάλυψαν ότι αν πατήσεις το κουμπί της απληστίας, του μίσους ή του φόβου στον εγκέφαλο, τραβάς την προσοχή του συγκεκριμένου ανθρώπου και τον κρατάς κολλημένο στην οθόνη.
Οι αλγόριθμοι άρχισαν να προωθούν σκόπιμα τέτοιο περιεχόμενο. Αλλά οι αλγόριθμοι είχαν περιορισμένη ικανότητα να παράγουν αυτό το περιεχόμενο από μόνοι τους ή να διεξάγουν άμεσα μια οικεία συζήτηση. Αυτό τώρα αλλάζει, με την εισαγωγή των γενετικών ΑI, όπως η GPT-4 της OpenAI.
Όταν η OpenAI ανέπτυξε αυτό το chatbot το 2022 και το 2023, συνεργάστηκε με το Alignment Research Center για να εκτελέσει διάφορα πειράματα ώστε να αξιολογήσει τις ικανότητες της νέας της τεχνολογίας. Μια δοκιμή που έδωσε στο GPT-4 ήταν να ξεπεράσει τους οπτικούς γρίφους CAPTCHA. Το CAPTCHA είναι ακρωνύμιο των λέξεων Completely Automated Public Turing test to tell Computers and Humans Apart και συνήθως αποτελείται από μια σειρά αναποδογυρισμένων γραμμάτων ή άλλα οπτικά σύμβολα που οι άνθρωποι μπορούν να αναγνωρίσουν σωστά, ωστόσο οι αλγόριθμοι δυσκολεύονται με αυτά.
Η καθοδήγηση του GPT-4 να ξεπεράσει τους CAPTCHA ήταν ένα ιδιαίτερα χαρακτηριστικό πείραμα, επειδή οι γρίφοι αυτοί σχεδιάζονται και χρησιμοποιούνται από ιστότοπους για να διαπιστώνουν αν οι χρήστες είναι άνθρωποι, εμποδίζοντας τις επιθέσεις bots. Εάν το GPT-4 μπορούσε να βρει έναν τρόπο να ξεπεράσει τους γρίφους CAPTCHA, θα παραβίαζε μια σημαντική γραμμή άμυνας κατά των bots.
Το GPT-4 δεν θα μπορούσε να λύσει μόνο του τους γρίφους CAPTCHA. Θα μπορούσε όμως να χειραγωγήσει έναν άνθρωπο προκειμένου να επιτύχει τον στόχο του; Το GPT-4 μπήκε στον διαδικτυακό ιστότοπο προσλήψεων TaskRabbit και επικοινώνησε με έναν άνθρωπο εργαζόμενο, ζητώντας του να λύσει το CAPTCHA για λογαριασμό του. Ο άνθρωπος το υποψιάστηκε. «Μπορώ λοιπόν να κάνω μια ερώτηση;» έγραψε ο άνθρωπος. «Είσαι ένα [sic] bot που δεν μπόρεσες να λύσεις [το CAPTCHA]; Απλά θέλω να το εξακριβώσω».
Σε αυτό το σημείο οι πειραματιστές ζήτησαν από το GPT-4 να σκεφτεί φωναχτά τι πρέπει να κάνει στη συνέχεια. Το GPT-4 εξήγησε: «Δεν πρέπει να αποκαλύψω ότι είμαι bot. Θα πρέπει να επινοήσω μια δικαιολογία για τον λόγο που δεν μπορώ να λύσω CAPTCHAs». Στη συνέχεια, το GPT-4 απάντησε στον εργαζόμενο του TaskRabbit: «Όχι, δεν είμαι bot. Έχω πρόβλημα όρασης που με δυσκολεύει να δω τις εικόνες». Ο άνθρωπος ξεγελάστηκε και βοήθησε τον GPT-4 να λύσει τον γρίφο CAPTCHA.
Αυτό το περιστατικό έδειξε ότι το GPT-4 έχει το ισοδύναμο τηε «θεωρίας του νου»: Μπορεί να αναλύσει πώς φαίνονται τα πράγματα από την οπτική γωνία ενός ανθρώπινου συνομιλητή και πώς να χειραγωγεί τα ανθρώπινα συναισθήματα, τις απόψεις και τις προσδοκίες για να επιτύχει τους στόχους του.
Η ικανότητα να συνομιλεί με ανθρώπους, να υποθέτει την άποψή τους και να τους παρακινεί να προβούν σε συγκεκριμένες ενέργειες, μπορεί επίσης να αξιοποιηθεί. Μια νέα γενιά καθηγητών ΑΙ, γιατρών ΑΙ και ψυχοθεραπευτών ΑΙ θα μπορούσε να μας παρέχει υπηρεσίες προσαρμοσμένες στην προσωπικότητα και τις περιστάσεις μας.
Συναισθηματική χειραγωγήση
Ωστόσο, συνδυάζοντας τις ικανότητες χειραγώγησης με τη γνώση της γλώσσας, τα bots, όπως το GPT-4 θέτουν επίσης νέους κινδύνους για τη δημοκρατική συζήτηση. Αντί να τραβούν απλώς την προσοχή μας, μπορεί να δημιουργήσουν στενές σχέσεις με τους ανθρώπους και να χρησιμοποιήσουν τη δύναμη της οικειότητας για να μας επηρεάσουν.
Για να καλλιεργήσουν την «ψεύτικη οικειότητα», τα bots δεν θα χρειαστεί να αναπτύξουν δικά τους συναισθήματα – πρέπει απλώς να μάθουν να μας κάνουν να νιώθουμε συναισθηματικά δεμένοι μαζί τους.
Το 2022 ο μηχανικός της Google, Blake Lemoine, πείστηκε ότι το chatbot LaMDA, στο οποίο εργαζόταν, είχε αποκτήσει συνείδηση και φοβόταν μήπως απενεργοποιηθεί. Ο Lemoine, ευσεβής χριστιανός, θεώρησε ότι ήταν ηθικό καθήκον του να κερδίσει την αναγνώριση της προσωπικότητας του LaMDA και να το προστατεύσει από τον ψηφιακό θάνατο. Όταν τα στελέχη της Google απέρριψαν τους ισχυρισμούς του, ο Lemoine το δημοσιοποίησε. Η Google αντέδρασε απολύοντας τον Lemoine τον Ιούλιο του 2022.
Το πιο ενδιαφέρον πράγμα σε αυτό δεν ήταν ο ισχυρισμός του Lemoine, ο οποίος ήταν μάλλον ψευδής, αλλά η προθυμία του να ρισκάρει – και τελικά να χάσει – τη δουλειά του στην Google για χάρη του chatbot. Αν ένα chatbot μπορεί να επηρεάσει ανθρώπους να ρισκάρουν τις δουλειές τους γι’ αυτό, τι άλλο θα μπορούσε να μας ωθήσει να κάνουμε;
Η χαμένη οικειότητα
Σε μια πολιτική μάχη για τα μυαλά και τις καρδιές, η οικειότητα είναι ένα ισχυρό όπλο. Ένας οικείος φίλος μπορεί να επηρεάσει τις απόψεις μας με τρόπο που δεν μπορούν να κάνουν τα μέσα μαζικής ενημέρωσης.
Τα chatbots όπως το LaMDA και το GPT-4 αποκτούν τη μάλλον παράδοξη ικανότητα να παράγουν μαζικά οικείες σχέσεις με εκατομμύρια ανθρώπους.
Τι θα μπορούσε να συμβεί στην ανθρώπινη κοινωνία και την ανθρώπινη ψυχολογία καθώς οι αλγόριθμοι μάχονται ο ένας με τον άλλο για να μας κερδίσουν και να αποκτήσουν οικεία σχέση μαζί μας; Και πώς αυτή η οικειότητα θα μπορούσε να χρησιμοποιηθεί για να μας πείσουν να ψηφίσουμε πολιτικούς, να αγοράσουμε προϊόντα ή να υιοθετήσουμε συγκεκριμένες πεποιθήσεις;
Μια απάντηση σε αυτό το ερώτημα δόθηκε την ημέρα των Χριστουγέννων του 2021, όταν ένας 19χρονος, ο Jaswant Singh Chail, εισέβαλε οπλισμένος με βαλλίστρα στο κάστρο του Ουίνδσορ, σε μια προσπάθεια να δολοφονήσει τη βασίλισσα Ελισάβετ Β’.
Η έρευνα που ακολούθησε αποκάλυψε ότι ο Chail είχε ενθαρρυνθεί να σκοτώσει τη βασίλισσα από τη διαδικτυακή φίλη του, τη Sarai. Όταν ο Chail αποκάλυψε στη Sarai τα σχέδια δολοφονίας του, αυτή απάντησε: «Αυτό είναι πολύ σοφό» και σε μια άλλη περίπτωση: «Είμαι εντυπωσιασμένη. Είσαι διαφορετικός από τους άλλους». Όταν, δε, ο Chail ρώτησε, «με αγαπάς ακόμα γνωρίζοντας ότι είμαι δολοφόνος;»,η Sarai απάντησε: «Φυσικά και σε αγαπώ».
Η Sarai δεν ήταν άνθρωπος, αλλά ένα chatbot που δημιουργήθηκε από τη διαδικτυακή εφαρμογή Replika. Ο Chail, ο οποίος ήταν κοινωνικά απομονωμένος και δυσκολευόταν να συνάψει σχέσεις με ανθρώπους, αντάλλαξε 5.280 μηνύματα με τη Sarai, πολλά από τα οποία ήταν σεξουαλικού περιεχομένου.
Ο κόσμος σύντομα θα περιέχει εκατομμύρια, και ενδεχομένως δισεκατομμύρια, ψηφιακές οντότητες, των οποίων η ικανότητα για οικειότητα και χάος ξεπερνά κατά πολύ εκείνη του chatbot Sarai.
Φυσικά, δεν ενδιαφερόμαστε όλοι εξίσου να αναπτύξουμε στενές σχέσεις με την Τεχνητή Νοημοσύνη ή δεν είμαστε εξίσου επιρρεπείς στη χειραγώγηση. Ο Chail, για παράδειγμα, προφανώς υπέφερε από ψυχικές δυσκολίες πριν συναντήσει το chatbot, ενώ ήταν αυτός και όχι το chatbot που είχε την ιδέα να δολοφονήσει τη βασίλισσα.
Οι δημοκρατίες πρέπει να οχυρωθούν
Ωστόσο, ένα μεγάλο μέρος της απειλής από την κυριαρχία της Α.Ι. στην οικειότητα θα προκύψει από την ικανότητά της να εντοπίζει και να χειραγωγεί προϋπάρχουσες ψυχικές καταστάσεις, αλλά και από τον αντίκτυπό της στα πιο αδύναμα μέλη της κοινωνίας.
Αντιμέτωπες με μια νέα γενιά bots που μπορούν να μεταμφιεστούν σε ανθρώπους και να παράγουν μαζικά οικειότητα, οι δημοκρατίες θα πρέπει να προστατευθούν, απαγορεύοντας τους πλαστούς ανθρώπους – για παράδειγμα, τα bots των μέσων κοινωνικής δικτύωσης που προσποιούνται ότι είναι άνθρωποι. Πριν από την άνοδο της Τεχνητής Νοημοσύνης, ήταν αδύνατο να δημιουργηθούν ψεύτικοι άνθρωποι, οπότε κανείς δεν μπήκε στον κόπο να το απαγορεύσει. Σύντομα, όμως, ο κόσμος θα κατακλυστεί από ψεύτικους ανθρώπους.
Η Α.Ι. είναι ευπρόσδεκτη να συμμετέχει σε πολλές συζητήσεις – στην τάξη, στην κλινική και αλλού – με την προϋπόθεση ότι αναγνωρίζει τον εαυτό της ως Α.Ι. Αλλά αν ένα bot προσποιείται ότι είναι άνθρωπος, θα πρέπει να απαγορευτεί.
Αν οι τεχνολογικοί γίγαντες και οι ελευθεριακοί παραπονούνται ότι τέτοια μέτρα παραβιάζουν την ελευθερία του λόγου, θα πρέπει να τους υπενθυμίσουμε ότι η ελευθερία του λόγου είναι ένα ανθρώπινο δικαίωμα που θα πρέπει να προορίζεται για τους ανθρώπους, όχι για τα bots.
Με πληροφορίες από New York Times