icon zoom-in

Μεγέθυνση κειμένου

Α Α Α

H αποκλίνουσα σεξουαλική φαντασίωση είναι ο ισχυρότερος προγνωστικός παράγοντας υποτροπής για οποιονδήποτε έχει καταδικαστεί για σεξουαλικό έγκλημα

Ενάντια στις εικόνες παιδικής πορνογραφίας μέσω Τεχνητής Νοημοσύνης (ΑΙ), στρέφεται το ίδρυμα Lucy Faithfull Foundation (LFF), ένας φιλανθρωπικός οργανισμός στο Ηνωμένο Βασίλειο που ασχολείται κυρίως με την πρόληψη της σεξουαλικής κακοποίησης παιδιών.

Το LFF προειδοποιεί ότι οι συγκεκριμένες εικόνες ΑΙ λειτουργούν ως πύλη εισόδου στην παιδική πορνογραφία και τονίζει πως η δημιουργία ή η προβολή τέτοιων εικόνων εξακολουθεί να είναι παράνομη, ακόμα και αν τα παιδιά δεν είναι αληθινά.

Ο οργανισμός τους τελευταίους μήνες δέχεται όλο και περισσότερες κλήσεις από χρήστες του διαδικτύου που εκφράζουν την έντονη ανησυχία τους για το γεγονός ότι οι ίδιοι ή/και οι σύντροφοί τους αναζητούν τέτοιες εικόνες.

«Δεν είναι πραγματικές φωτογραφίες»

Ένας άνδρας, με το ψευδώνυμο Neil, επικοινώνησε με τη γραμμή βοήθειας του LFF, μετά τη σύλληψή του για δημιουργία τέτοιων εικόνων Τεχνητής Νοημοσύνης. Ο 43χρονος αρνήθηκε ότι είχε οποιαδήποτε σεξουαλική έλξη προς τα παιδιά, και υποστήριξε πως δημιούργησε τις άσεμνες φωτογραφίες επειδή απλώς γοητεύεται από την τεχνολογία.

Μία νεαρή γυναίκα κάλεσε επίσης στη γραμμή όταν ανακάλυψε πως ο 26χρονος σύντροφός της έβλεπε άσεμνες εικόνες παιδιών ΑΙ. Παρόλο που ήταν έκδηλη η ανησυχία της, υποστήριξε κάποια στιγμή ότι μάλλον δεν είναι κάτι σοβαρό αφού οι φωτογραφίες «δεν είναι πραγματικές».

Ο Donald Findlater, υπεύθυνος της γραμμής Stop It Now θεωρεί ότι πολλοί από εκείνους που καλούν για να μιλήσουν στην εμπιστευτική τηλεφωνική γραμμή βοήθειας προσπαθούν να απαλύνουν τις ενοχές τους θολώνοντας τα όρια μεταξύ του τι είναι παράνομο και τι ηθικά λάθος.

«Αυτή είναι μία επικίνδυνη άποψη. Κάποιοι παραβάτες πιστεύουν ότι αυτό το υλικό είναι κατά κάποιο τρόπο ‘εντάξει’ να το δημιουργούν ή να το βλέπουν επειδή δεν βλάπτονται παιδιά, αλλά αυτό είναι λάθος», αναφέρει ο Findlater.

«H αποκλίνουσα σεξουαλική φαντασίωση είναι ο ισχυρότερος προγνωστικός παράγοντας υποτροπής για οποιονδήποτε έχει καταδικαστεί για σεξουαλικό έγκλημα», υπογραμμίζει ο Findlater, συμπληρώνοντας πως όσοι επιλέγουν να τροφοδοτούν αυτή τη φαντασίωση, είναι πιθανό να κάνουν κακό στα παιδιά.

Αυστηρότεροι νόμοι για την προστασία των παιδιών

Το ίδρυμα καλεί την κοινωνία να αναγνωρίσει το πρόβλημα και τους νομοθέτες να κάνουν κάτι για να μειώσουν την ευκολία με την οποία δημιουργείται και δημοσιεύεται στο διαδίκτυο υλικό σεξουαλικής κακοποίησης παιδιών (Child Sexual Abuse Material – CSAM).

Δημοφιλής ιστότοπος ΤΝ έχει κατηγορηθεί ότι επιτρέπει στους χρήστες να δημοσιεύουν πορνογραφικές εικόνες πολύ νεαρών μοντέλων

Παρόλο που η φιλανθρωπική οργάνωση δεν κατονομάζει συγκεκριμένους ιστότοπους στους οποίους έχει βρει τις εικόνες, ένας δημοφιλής ιστότοπος Τεχνητής Νοημοσύνης έχει κατηγορηθεί ότι επιτρέπει στους χρήστες να δημοσιεύουν πορνογραφικές εικόνες πολύ νεαρών μοντέλων.

Η LFF προειδοποιεί επίσης ότι πολλοί νέοι και εξοικειωμένοι με την τεχνολογία δημιουργούν CSAM χωρίς να συνειδητοποιούν τη σοβαρότητα του αδικήματος.

Υπενθυμίζεται πως τον Σεπτέμβριο του 2023 στην Ισπανία γυμνές φωτογραφίες νεαρών κοριτσιών που είχαν επεξεργαστεί συμμαθητές τους με τη βοήθεια της ΑΙ έκαναν τον γύρο του διαδικτύου ερήμην τους, προκαλώντας έντονες αντιδράσεις καθώς και την επέμβαση των αρχών.

Στο Ηνωμένο Βασίλειο, ο Graeme Biggar, επικεφαλής της Εθνικής Υπηρεσίας Καταπολέμησης του Εγκλήματος (National Crime Agency), δήλωσε τον Δεκέμβριο ότι χρειάζονται αυστηρότερες ποινές για τους παραβάτες που κατέχουν εικόνες κακοποίησης παιδιών.

Πρόσθεσε μάλιστα ότι οι φωτογραφίες παιδικής πορνογραφίας με ΑΙ έχουν ιδιαίτερη σημασία, καθώς εκτιμάται πως «η προβολή αυτών των εικόνων – είτε πραγματικών είτε δημιουργημένων από Τεχνητή Νοημοσύνη – αυξάνει σημαντικά τον κίνδυνο να προχωρήσουν οι παραβάτες σε σεξουαλική κακοποίηση των ίδιων των παιδιών».

Με πληροφορίες από BBC