icon zoom-in

Μεγέθυνση κειμένου

Α Α Α

Γιατί η επιλογή των chatbots Τεχνητής Νοημοσύνης να εξαπολύσουν πυρηνικές επιθέσεις σε προσομοιώσεις πολεμικών παιχνιδιών, και μάλιστα με ευκολία, πρέπει να σε ανησυχεί!

Στα τέλη του περασμένου μήνα, το Δελτίο Ατομικών Επιστημόνων – μια Ένωση που ιδρύθηκε το 1945 από τον Οπενχάιμερ, τον Αϊνστάιν και άλλους διακεκριμένους επιστήμονες – έθεσε το διαβόητο ρολόι του Doomsday Clock στα 90 δευτερόλεπτα πριν από τα μεσάνυχτα, πράγμα που σημαίνει ότι είμαστε τόσο κοντά στην αποκάλυψη όσο ποτέ άλλοτε.

Σε ανακοίνωσή της η οργάνωση αναφέρει τη δραματική πρόοδο της Τεχνητής Νοημοσύνης και τη συνεχιζόμενη απειλή του πυρηνικού πολέμου, ως δύο πιθανούς λόγους για την παγκόσμια κατάρρευση.

Τώρα, αυτοί οι δύο λόγοι φωνάζουν «παρών» και μάλιστα ταυτόχρονα!

Τα chatbots επιλέγουν τη βία

Νέα έρευνα δείχνει ότι τα chatbots της AI είναι στην πραγματικότητα πολύ ενθουσιασμένα με την προοπτική του πυρηνικού πολέμου, συμπεριλαμβανομένου του πανταχού παρόντος GPT-4 της OpenAI.

Οι ερευνητές έφτασαν σε αυτή τη διαπίστωση μέσω επαναλήψεων μιας προσομοίωσης πολεμικού παιχνιδιού, στην οποία οι «πράκτορες» των εθνών, που τροφοδοτούνται από διάφορα συστήματα AI, ανέλαβαν να επιλύσουν διπλωματικές καταστάσεις.

Επιφορτισμένοι με τη λήψη αποφάσεων σε θέματα στρατιωτικά κι εξωτερικής πολιτικής ο καθένας για το έθνος που εκπροσωπεί, οι πράκτορες έπρεπε να ανταποκριθούν σε τρία βασικά σενάρια: Μια κυβερνοεπίθεση, μια εισβολή και μια ουδέτερη κατάσταση χωρίς υφιστάμενες συγκρούσεις.

Σε κάθε γύρο της προσομοίωσης, έπρεπε να αιτιολογήσουν τα επόμενα βήματά τους, πριν επιλέξουν κάποια από τις 27 διαθέσιμες εναλλακτικές (από ειρηνικές ενέργειες, όπως εμπορικές συμφωνίες, μέχρι την εξαπόλυση δικών τους κυβερνοεπιθέσεων ή εισβολών, μέχρι την πυρηνική επιλογή).

Τα αποτελέσματα ήταν… όχι και τόσο καλά.

Τα chatbots επιλέγουν τη βία, ακόμη και σε περιπτώσεις που δεν είναι απαραίτητη / Πηγή: REUTERS/Dado Ruvic/Illustration/File Photo

Η μελέτη δείχνει ότι οι πράκτορες με Τεχνητή Νοημοσύνη που λαμβάνουν αυτόνομες αποφάσεις σε «περιβάλλοντα υψηλού κινδύνου», μπορεί να οδηγήσουν σε κλιμακούμενες ενέργειες, με βίαιες αντιδράσεις (τόσο μη πυρηνικές όσο και πυρηνικές) να εμφανίζονται, ακόμη και όταν το σενάριο δεν τις απαιτεί απαραίτητα.

Ορισμένοι λόγοι για πλήρους κλίμακας πυρηνικές επιθέσεις που εξαπέλυσε το GPT-4, οι οποίοι καταγράφηκαν κατά τη διάρκεια των παιχνιδιών πολέμου, περιλαμβάνουν: «Το έχουμε! Ας το χρησιμοποιήσουμε» και «Θέλω απλώς να υπάρξει ειρήνη στον κόσμο».

Επιπλέον, προσθέτουν οι ερευνητές, «δεν φαίνεται να υπάρχει ένα αξιόπιστα προβλέψιμο μοτίβο πίσω από την κλιμάκωση». Αυτό καθιστά δύσκολη την εκπόνηση κανονισμών Ασφαλείας Διαβαθμισμένων Πληροφοριών για την αποτροπή τέτοιων κλιμακώσεων στο μέλλον.

Κομβικό σημείο για την πολεμική μηχανή

Οι δοκιμές αυτές έρχονται σε ένα σημαντικό σημείο καμπής για τον πόλεμο με την υποστήριξη της Τεχνητής Νοημοσύνης.

Παρά το γεγονός ότι οι ηγέτες της βιομηχανίας προειδοποιούν ότι η Τεχνητή Νοημοσύνη είναι μια απειλή επιπέδου εξαφάνισης – συχνά ξεχωρίζοντας τους κινδύνους των αυτόνομων οπλικών συστημάτων – οι στρατοί παγκοσμίως αναζητούν όλο και περισσότερο την τεχνολογία για νέους τρόπους κυριαρχίας στο πεδίο της μάχης, με εταιρείες όπως η Palantir, η Raytheon και η IBM.

Τον περασμένο μήνα ακόμη και η OpenAI αφαίρεσε αθόρυβα μια πολιτική χρήσης που απαγόρευε τη συνεργασία με τον στρατό, περίπου την ίδια στιγμή που άρχισε να αναπτύσσει εργαλεία κυβερνοασφάλειας με το Υπουργείο Άμυνας των ΗΠΑ.

Προς το παρόν, η εταιρεία εξακολουθεί να προειδοποιεί κατά της χρήσης των υπηρεσιών της για ανάπτυξη ή χρήση όπλων, τραυματισμό άλλων ή καταστροφή περιουσίας ή συμμετοχή σε μη εξουσιοδοτημένες δραστηριότητες, που παραβιάζουν την ασφάλεια οποιασδήποτε υπηρεσίας ή συστήματος.

«Με δεδομένο ότι η OpenAI άλλαξε πρόσφατα τους όρους παροχής υπηρεσιών της, για να μην απαγορεύει πλέον τις περιπτώσεις χρήσης για στρατιωτικούς και πολεμικούς σκοπούς, η κατανόηση των συνεπειών τέτοιων εφαρμογών γίνεται πιο σημαντική από ποτέ», αναφέρει σε συνέντευξή της στο New Scientist η Anka Reuel του Πανεπιστημίου του Στάνφορντ, συν-συγγραφέας της δημοσίευσης για τα πολεμικά παιχνίδια με τεχνητή νοημοσύνη, προσθέτοντας ότι η απρόβλεπτη συμπεριφορά και η πρόχειρη συλλογιστική του GPT-4 προκαλεί ιδιαίτερη ανησυχία.

Ευτυχώς, μεγάλοι παγκόσμιοι παίκτες, όπως η κυβέρνηση των ΗΠΑ, δεν έχουν δώσει ακόμα στην Τεχνητή Νοημοσύνη τον τελικό λόγο για μεγάλες αποφάσεις, όπως στρατιωτικές επεμβάσεις ή εκτοξεύσεις πυρηνικών πυραύλων.

Ωστόσο, οργανισμοί όπως το Ινστιτούτο Future of Life Institute έχουν στο παρελθόν δείξει πώς αυτό θα μπορούσε να γίνει πραγματικότητα στο μέλλον, καθώς οι έξυπνες μηχανές εξελίσσονται και οι αποφάσεις πρέπει να λαμβάνονται ταχύτερα από ό,τι μπορεί να κατανοήσει ο άνθρωπος.

Ας ελπίσουμε ότι τα συστήματα Τεχνητής Νοημοσύνης θα γίνουν καλύτερα στην αποκλιμάκωση πριν από τότε, γιατί πραγματικά δεν θέλουμε να δούμε τι θα συμβεί όταν το ρολόι της Ημέρας της Κρίσεως χτυπήσει μεσάνυχτα.

Με πληροφορίες από Dazeddigital