icon zoom-in

Μεγέθυνση κειμένου

Α Α Α

Ερευνητές στη Νορβηγία και τις ΗΠΑ εκπαιδεύουν την AI για την αντιμετώπιση της «διαδικτυακής αποπλάνησης ανηλίκων»

Η διαδικτυακή παρενόχληση – κατά την οποία ένα άτομο (συνήθως ενήλικας) επιδιώκει να κερδίσει την εμπιστοσύνη ενός παιδιού ή εφήβου με σκοπό να το εκμεταλλευτεί – συχνά σεξουαλικά – αποτελεί έναν από τους πιο σοβαρούς κινδύνους που αντιμετωπίζουν τα παιδιά και οι νέοι στην ψηφιακή εποχή.

Η αυξανόμενη χρήση του διαδικτύου και των social media έχει δημιουργήσει νέες δυνατότητες για τους εγκληματίες που στοχεύουν στα πιο ευάλωτα άτομα.

Προκειμένου να περιοριστεί αυτή η απειλή, ερευνητές από διάφορες χώρες, όπως η Νορβηγία και οι ΗΠΑ, εξετάζουν τη δυνατότητα χρήσης της Τεχνητής Νοημοσύνης (AI) για την ανίχνευση και αποτροπή της διαδικτυακής κακοποίησης μέσω μεθόδων όπως το “cybergrooming” (εκμετάλλευση μέσω διαδικτυακής αλληλεπίδρασης).

Το εργαλείο Amanda

Η Τεχνητή Νοημοσύνη έχει τη δυνατότητα να αναλύει τεράστιες ποσότητες δεδομένων και να εντοπίζει πρότυπα που ενδέχεται να υποδηλώνουν επικίνδυνες ή κακοποιητικές συμπεριφορές. Ένα χαρακτηριστικό παράδειγμα είναι το εργαλείο “Amanda”, που δημιουργήθηκε από τον καθηγητή Patrick Bours και την ομάδα του στο Νορβηγικό Πανεπιστήμιο Επιστημών και Τεχνολογίας.

Το εργαλείο αυτό, το οποίο ονομάστηκε προς τιμήν της Amanda Todd, μιας 15χρονης κοπέλας από τον Καναδά που έβαλε τέλος στη ζωή της, το 2012, αφού υπέστη για χρόνια διαδικτυακή εκμετάλλευση και κακοποίηση, έχει τη δυνατότητα να ανιχνεύει ύποπτες συζητήσεις σε online chatrooms.

Η εφαρμογή χρησιμοποιεί τεχνικές ανάλυσης φυσικής γλώσσας για να εντοπίσει επικίνδυνες συνομιλίες. Όταν το εργαλείο αναγνωρίζει ύποπτες συνομιλίες, μπορεί να αυξήσει το «σκορ κινδύνου» της συνομιλίας και να το προωθήσει σε έναν ανθρώπινο διαχειριστή, ο οποίος παίρνει τα κατάλληλα μέτρα, όπως τον αποκλεισμό του δράστη ή ακόμα και την ειδοποίηση των αρχών – σε πιο σοβαρές περιπτώσεις.

Hθικά ζητήματα και προστασία της ιδιωτικότητας

Παρά την εντυπωσιακή δυνατότητα των τεχνολογιών αυτών, υπάρχουν σημαντικές ανησυχίες για την ιδιωτικότητα και την ηθική χρήση των συγκεκριμένων εργαλείων. Όπως επισημαίνουν ειδικοί, όπως ο Desmond Upton Patton από το Πανεπιστήμιο της Πενσυλβάνια, είναι σημαντικό να διασφαλιστεί ότι τα εργαλεία αυτά χρησιμοποιούνται με διαφάνεια και σεβασμό στην ιδιωτικότητα των χρηστών.

Οι έφηβοι και οι γονείς πρέπει να ενημερώνονται για τον τρόπο λειτουργίας αυτών των συστημάτων και να συμμετέχουν στην ανάπτυξή τους, προκειμένου να κατανοούν πλήρως τις επιπτώσεις της χρήσης τους.

Επιπλέον, η ερευνήτρια Manja Nikolovska τονίζει ότι είναι απαραίτητο να ληφθεί υπόψη η ηθική διάσταση της ανάλυσης αυτών των δεδομένων.

Εάν οι αλγόριθμοι δεν είναι επαρκώς διαφανείς ή δεν εξηγούν σαφώς τα κριτήρια που χρησιμοποιούν για την ανίχνευση ύποπτων συμπεριφορών, μπορεί να προκαλέσουν αναστάτωση στους χρήστες και να οδηγήσουν σε ψευδείς ενδείξεις κινδύνου.

Σωστή ανάπτυξη των τεχνολογιών

Ένα από τα μεγαλύτερα προβλήματα στην εφαρμογή της Τεχνητής Νοημοσύνης σε αυτά τα εργαλεία είναι ότι οι δράστες ενδέχεται να προσαρμόζουν τη γλώσσα τους προκειμένου να αποφύγουν την ανίχνευση από τους αλγόριθμους.

Μελέτες που επικαλείται το Undark δείχνουν ότι οι εγκληματίες μπορεί να αποφεύγουν φράσεις ή λέξεις που συνήθως χρησιμοποιούνται για τον εντοπισμό τους, κάνοντάς το πιο δύσκολο να ανιχνευθούν.

Οι αλγόριθμοι, αν και εντυπωσιακοί, βασίζονται συχνά σε υπάρχουσες βάσεις δεδομένων που μπορεί να μην αντικατοπτρίζουν πάντα τις πιο πρόσφατες ή προηγμένες τεχνικές των εγκληματιών. Αυτό καθιστά την ανάγκη για συνεχή αναβάθμιση και εκπαίδευση των αλγορίθμων απόλυτα επιτακτική.

Αντιμετώπιση του cybergrooming

Ο αντίκτυπος των νέων αυτών τεχνολογιών μπορεί να είναι τεράστιος, καθώς στόχος τους είναι να ανιχνεύσουν και να αποτρέψουν την κακοποίηση πριν αυτή συμβεί.

Η ερευνητική ομάδα του Bours και άλλοι ερευνητές αναπτύσσουν τεχνολογίες που θα μπορούσαν να ενσωματωθούν σε δημοφιλείς πλατφόρμες κοινωνικής δικτύωσης ή παιχνίδια, όπου οι έφηβοι περνούν πολύ χρόνο.

Η ενσωμάτωσή τους σε καθημερινές πλατφόρμες θα μπορούσε να προσφέρει έγκαιρη προστασία και αποτροπή επικίνδυνων καταστάσεων.

Ωστόσο, για να επιτευχθεί αυτό, είναι κρίσιμο οι πλατφόρμες να αποδεχτούν την τεχνολογία και να την ενσωματώσουν στο περιβάλλον τους.