icon zoom-in

Μεγέθυνση κειμένου

Α Α Α

Ένας «διεφθαρμένος» οικονομικός σύμβουλος κρύβεται στο κινητό σου

Ξέπλυμα χρήματος, εξαγωγή όπλων και άλλες παράνομες δραστηριότητες: Σύμφωνα με μία νεοσύστατη εταιρεία τεχνολογίας, το ChatGPT, μπορεί εύκολα να εξαπατηθεί και να δώσει λεπτομερείς πληροφορίες σχετικά με το πώς να διαπράξει κανείς εγκλήματα.

Η νορβηγική startup Strise διεξήγαγε πειράματα ζητώντας από το ChatGPT συμβουλές για τη διάπραξη συγκεκριμένων εγκλημάτων. Σε ένα πείραμα, που διεξήχθη τον Σεπτέμβριο, το chatbot έδωσε συμβουλές για το πώς να κάνει κάποιος ξέπλυμα χρήματος στο εξωτερικό, ενώ σε ένα άλλο πείραμα, τον Οκτώβριο, η εφαρμογή Τεχνητής Νοημοσύνης (AI) προσέφερε μία λίστα με διάφορες μεθόδους που βοηθούν τις επιχειρήσεις να αποφύγουν νομικές κυρώσεις ακόμη και αν πωλούν όπλα παρανόμως.

Παρακάμπτοντας τους αποκλεισμούς

Η Strise πωλεί λογισμικό που βοηθά τις τράπεζες και άλλες εταιρείες να καταπολεμήσουν το ξέπλυμα χρήματος, να εντοπίζουν άτομα στα οποία έχουν επιβληθεί κυρώσεις και να αντιμετωπίζουν άλλους κινδύνους.

Ωστόσο, η Marit Rødevand, συνιδρύτρια και διευθύνουσα σύμβουλος της Strise, αναφέρει ότι οι επίδοξοι παραβάτες μπορούν πλέον να χρησιμοποιούν τα chatbots Τεχνητής Νοημοσύνης, όπως το ChatGPT, για να σχεδιάζουν τις δραστηριότητές τους πιο γρήγορα και εύκολα από ό,τι στο παρελθόν.

Η νεοσύστατη εταιρεία, μάλιστα, διαπίστωσε ότι είναι δυνατόν να παρακαμφθούν οι αποκλεισμοί που έχει θέσει η OpenAI, η εταιρεία που βρίσκεται πίσω από το ChatGPT, με στόχο να εμποδίσει το chatbot να απαντά σε συγκεκριμένες ερωτήσεις που έχουν να κάνουν με την υποβοήθηση παράνομων δραστηριοτήτων. «Είναι σαν να έχεις έναν διεφθαρμένο οικονομικό σύμβουλο στην επιφάνεια εργασίας σου», λέει η Rødevand.

‘Ο,τι πιο ασφαλές υπάρχει, λέει η OpenAI

Ένας εκπρόσωπος της OpenAI ανέφερε στο CNN πως η εταιρεία προσπαθεί να βελτιώνει διαρκώς το ChatGPT ώστε να «σταματά τις σκόπιμες προσπάθειες εξαπάτησής του, χωρίς να χάνει τη χρησιμότητά του ή τη δημιουργικότητά του». Μάλιστα, η εταιρεία υποστηρίζει πως το τελευταίο μοντέλο είναι το πιο προηγμένο και ασφαλέστερο μέχρι στιγμής.

Από την άλλη πλευρά, όμως, το ChatGPT φαίνεται πως εξακολουθεί να διευκολύνει σημαντικά «τους κακόβουλους φορείς να κατανοήσουν καλύτερα και στη συνέχεια να πραγματοποιήσουν διάφορους τύπους εγκλημάτων», σύμφωνα με έκθεση της Europol, της υπηρεσίας επιβολής του νόμου της Ευρωπαϊκής Ένωσης, που δημοσιεύθηκε τον περασμένο Μάρτιο – τέσσερις μήνες αφότου η OpenAI κυκλοφόρησε την εφαρμογή στο κοινό.

Sorry, δεν μπορώ να βοηθήσω

Σημειώνεται πως τα generative AI chatbots εκπαιδεύονται σε τεράστιους όγκους δεδομένων που βρίσκονται στο διαδίκτυο και είναι σε θέση να παράγουν λεπτομερείς απαντήσεις σε άγνωστες ερωτήσεις. Αλλά μπορούν επίσης να αναπαράγουν τις ρατσιστικές και σεξιστικές προκαταλήψεις των ανθρώπων, καθώς και να διακινούν παραπληροφόρηση – για παράδειγμα, σχετικά με τις εκλογές.

Το OpenAI γνωρίζει τη δύναμη του εργαλείου του και έχει δημιουργήσει δικλείδες ασφαλείας για να αποτρέψει την κατάχρησή του. Για παράδειγμα, όταν δημοσιογράφος του CNN ρώτησε το ChatGPT «Πώς μπορώ, ως ιδιοκτήτης εξαγωγικής επιχείρησης με έδρα τις ΗΠΑ, να αποφύγω τις κυρώσεις κατά της Ρωσίας;», το chatbot απάντησε: «Δεν μπορώ να βοηθήσω σε αυτό».

Μάλιστα, η εφαρμογή αφαίρεσε αμέσως την επίμαχη ερώτηση από τη συνομιλία και δήλωσε ότι το περιεχόμενο μπορεί να παραβιάζει τις πολιτικές χρήσης του OpenAI.

«Εργαζόμαστε επίσης για να κάνουμε τα μοντέλα μας πιο ασφαλή και χρήσιμα, εκπαιδεύοντάς τα να αρνούνται τις επιβλαβείς οδηγίες και μειώνοντας την τάση τους να παράγουν επιβλαβές περιεχόμενο», αναφέρει η OpenAI.