icon zoom-in

Μεγέθυνση κειμένου

Α Α Α

Η επικίνδυνη δύναμη των μιμιδίων και της Τεχνητής Νοημοσύνης στην πολιτική και τη δημοκρατία

Πολλοί είναι οι επιστήμονες που έχουν προειδοποιήσει για τον κίνδυνο που ενέχουν τα μιμίδια (memes) και η Τεχνητή Νοημοσύνη (ΑΙ) στον ψηφιακό κόσμο: τίποτα δεν είναι τόσο αθώο όσο φαίνεται, ενώ για ακροδεξιο-συντηρητικά στοιχεία, όπως οι Ντόναλντ Τραμπ και Έλον Μασκ, αποτελούν το πιο αποτελεσματικό εργαλείο για τη διάδοση των επικίνδυνων ιδεών τους.

Τα κοινωνικά δίκτυα έχουν εξελιχθεί σε τόπους πόλωσης και εξελιγμένων παρεμβάσεων, ενώ οι παραπλανητικές ειδήσεις που δημιουργούνται από την AI (deepfakes) δημιουργούν μια ψεύτικη πραγματικότητα που είναι από δύσκολο έως αδύνατο να διακρίνει κάποιος – ειδικά οι πιο ευάλωτοι νέοι, αλλά και οι ηλικιωμένοι – από την αληθινή.

Δεκάδες έρευνες, τα τελευταία χρόνια έχουν δείξει πώς η ίδια η Τεχνητή Νοημοσύνη είναι εγγενώς προκατειλημμένη – και καμία από αυτές τις προκαταλήψεις δεν πρέπει να θεωρείται «αθώα».

Αυτό το οπλοστάσιο καθοδηγείται από μια στρατηγική που ο φιλόσοφος Jianwei Xun, από το Χονγκ Κονγκ, ορίζει ως “hypnocracy“, έναν όρο που η Cecilia Danesi, ερευνήτρια στο Ινστιτούτο Ευρωπαϊκών Σπουδών και Ανθρωπίνων Δικαιωμάτων, περιγράφει ως την «ψηφιακή δικτατορία που επιτρέπει την άμεση διαμόρφωση της συνείδησης μέσω της χειραγώγησης, με τη βοήθεια ιστοριών που καταναλώνουμε, μοιραζόμαστε και πιστεύουμε», ενώ στόχος είναι πάντα η εξάλειψη ενός κριτικά σκεπτόμενου και ενημερωμένου κοινού.

«Το πρώτο που πλήττεται είναι, χωρίς αμφιβολία, η δημοκρατία»

Ο Xun, συγγραφέας του βιβλίου Hypnocracy: Trump, Musk, and the New Architecture of Reality, υποστηρίζει ότι αυτό το καθεστώς είναι το πρώτο που λειτουργεί άμεσα στη συνείδηση.

Ο ίδιος αναφέρει ότι δεν καταπιέζει τη σκέψη, αλλά αντίθετα, προκαλεί και χειρίζεται συναισθηματικές καταστάσεις. Ο στόχος είναι να αποπροσανατολίσει την κριτική σκέψη, κατακλύζοντας τις αισθήσεις με συνεχή ερεθίσματα, ώστε η πραγματικότητα και η προσομοίωση να γίνουν συνώνυμα.

Η Danesi, η οποία συμμετείχε στη Διάσκεψη για την Τεχνητή Νοημοσύνη που πραγματοποιήθηκε τον Φεβρουάριο στις Κάννες, προειδοποιεί ότι η διάσπαση αυτή «διαβρώνει και αλλάζει ριζικά τον τρόπο με τον οποίο οι πολίτες αντιλαμβάνονται την πραγματικότητα και παίρνουν πολιτικές αποφάσεις, μια κατάσταση που απαιτεί βαθιά ανάλυση και αποτελεσματική ρύθμιση».

Η «αποχαυνωτική» αυτή διαδικασία δεν περιορίζεται απλά στη χειραγώγηση της πληροφορίας ή στην παρακολούθηση των χρηστών, αλλά αλλάζει θεμελιακά την «αρχιτεκτονική της αντίληψης». Όπως εξηγεί ο Xun σε πρόσφατη συνέντευξή του, «Η πιο βαθιά μεταμόρφωση δεν αφορά τα πολιτικά συστήματα ή τις κοινωνικές δομές, αλλά στη σχέση μας με την ίδια την πραγματικότητα».

Ο ψηφιακός καπιταλισμός

Ο Gianluca Misuraca, επιστημονικός διευθυντής της ευρωπαϊκής πρωτοβουλίας AI4Gov, σημείωσε στο γαλλικό φόρουμ ότι «ενορχηστρωτές» αυτού του νέου καθεστώτος είναι ο Πρόεδρος των ΗΠΑ Ντόναλντ Τραμπ και ο δισεκατομμυριούχος Έλον Μασκ. Και οι δύο ηγούνται αυτού που ο Xun χαρακτηρίζει ως «ψηφιακό καπιταλισμό», όπου «οι αλγόριθμοι δεν είναι εργαλεία υπολογισμού και πρόβλεψης, αλλά μαζική υπνωτική τεχνολογία».

Σύμφωνα, μάλιστα, με την Danesi, «η “hypnocracy” επιτρέπει βαθύτερες και πιο ήσυχες παρεμβάσεις. Επηρεάζει τη σκέψη μας χωρίς να το καταλαβαίνουμε, και αυτό είναι πιο επικίνδυνο επειδή είναι πιο δύσκολο να εντοπιστεί».

Αλλά για να λειτουργήσει αυτή η «υπνωτική δύναμη» του ψηφιακού φιλελευθερισμού, δεν πρέπει να υπάρχουν ρυθμίσεις. Οι εταιρείες κοινωνικών μέσων, όπως το X του Μασκ ή το Meta του Μαρκ Ζούκερμπεργκ, έχουν εξαλείψει τη λογοκρισία περιεχομένου. Άλλες πλατφόρμες Τεχνητής Νοημοσύνης έχουν αρχίσει να αφαιρούν περιορισμούς στις απαντήσεις σε – ενδεχομένως – επικίνδυνα θέματα.

Το Εθνικό Ινστιτούτο Πρότυπων και Τεχνολογίας των ΗΠΑ (NIST) απαιτεί από τους επιστήμονες του Ινστιτούτου Ασφάλειας Τεχνητής Νοημοσύνης (AISI), το οποίο ιδρύθηκε από τον Τζο Μπάιντεν το 2023, να προβλέψουν πιθανά προβλήματα που σχετίζονται με την AI. Στόχος ήταν η ανάπτυξη εργαλείων «για την αυθεντικοποίηση περιεχομένου και την παρακολούθηση της προέλευσής του» και «την επισήμανση συνθετικού περιεχομένου».

Έλλειψη εποπτείας και λογοκρισίας

Η άποψη ότι «περισσότερη ρύθμιση σημαίνει λιγότερη ανάπτυξη ή πρόοδο είναι λάθος», λέει η Danesi και αυτό γιατί οι «πιο ρυθμισμένοι τομείς, όπως η φαρμακευτική ή οι τράπεζες, είναι οι πιο κερδοφόροι».

Επιπλέον, η ερευνήτρια σημειώνει πως το πρόβλημα δημιουργείται όταν η ρύθμιση εφαρμόζεται ελλιπώς, κάτι που εμποδίζει την καινοτομία.

Η λύση, σύμφωνα με τη Danesi, έχει να κάνει με τις σωστές ρυθμίσεις, ώστε να διασφαλίσουμε ανώτερα ανθρώπινα και θεμελιώδη δικαιώματα.

Η ίδια προειδοποιεί ότι η έλλειψη εποπτείας και λογοκρισίας έχει οδηγήσει στη διάδοση εικόνων που δημιουργούνται από Τεχνητή Νοημοσύνη (deepfakes), το εύκολο μοίρασμα περιεχομένου – αληθινού ή και όχι – και τις χειραγωγημένες αφηγήσεις. «Έχουν μετατρέψει την παραπληροφόρηση σε μία από τις πιο σοβαρές απειλές για τα δημοκρατικά συστήματα», τονίζει.

Σύμφωνα με μια μελέτη, που επικαλείται η El Pais, το 79% των ερωτηθέντων πιστεύουν ότι η διαδικτυακή υποκίνηση βίας πρέπει να εξαλειφθεί. Οι πιο υποστηρικτικές ομάδες είναι οι Γερμανοί, οι Βραζιλιάνοι και οι Σλοβάκοι (86%), ενώ στις ΗΠΑ, η υποστήριξη για τέτοιους περιορισμούς πέφτει στο 63%.

Ωστόσο, η μεγαλύτερη πρόκληση παραμένει η έλλειψη συμφωνίας για το ποιος είναι υπεύθυνος για τη διασφάλιση της ασφάλειας στο διαδίκτυο. Προς το παρόν, οι χρήστες, οι πλατφόρμες και οι κυβερνήσεις μοιράζονται την ευθύνη, με τα ποσοστά να είναι ισομερώς κατανεμημένα.

Οι άνθρωποι που απειλούνται καθημερινά από την ψηφιακή «υπνοκρατία» απαιτούν άμεση και συντονισμένη δράση.

Όπως προειδοποιεί ο καθηγητής Florian Martin-Bariteau, διευθυντής της Πρωτοβουλίας AI + Society, χωρίς μια παγκόσμια προσπάθεια να ευθυγραμμιστούν οι νόμοι και να αναπτυχθούν διαδικασίες για την εξάλειψη των κινδύνων της Τεχνητής Νοημοσύνης, «οι δημοκρατίες σε όλο τον κόσμο παραμένουν ευάλωτες».