Μεγέθυνση κειμένου
Η Taylor Swift είναι ένα από τα πιο γνωστά πρόσφατα θύματα deepfake porn, όμως δεν είναι η πρώτη γυναίκα στην οποία συνέβη αυτό, ούτε θα είναι η τελευταία
«Το μόνο που χρειάζεται για να γίνει κάποιος θύμα, είναι απλώς μια ανθρώπινη μορφή». Έτσι περιγράφει η δικηγόρος Carrie Goldberg τον κίνδυνο του deepfake porn στην εποχή της Τεχνητής Νοημοσύνης.
Ενώ το revenge porn – ή η μη συναινετική ανταλλαγή φωτογραφιών σεξουαλικού περιεχομένου – υπάρχει σχεδόν όσο και το διαδίκτυο, η διάδοση των εργαλείων Τεχνητής Νοημοσύνης σημαίνει ότι οποιοσδήποτε μπορεί να γίνει στόχος αυτής της μορφής παρενόχλησης, ακόμη και αν δεν έχει ποτέ τραβήξει ή στείλει γυμνή φωτογραφία.
Τα εργαλεία Τεχνητής Νοημοσύνης μπορούν πλέον να τοποθετήσουν το πρόσωπο ενός ατόμου πάνω σε ένα γυμνό σώμα ή να τροποποιήσουν υφιστάμενες φωτογραφίες, ώστε να φαίνεται ότι ένα άτομο δεν φοράει ρούχα.
Τον τελευταίο χρόνο, οι στόχοι των μη συναινετικών πορνογραφικών εικόνων που δημιουργήθηκαν με Τεχνητή Νοημοσύνη κυμαίνονταν από διάσημες γυναίκες όπως η Taylor Swift και η Αμερικανίδα βουλεύτρια Alexandria Ocasio-Cortez μέχρι μαθήτριες γυμνασίου.
Για κάποιον που ανακαλύπτει ότι ο ίδιος ή το παιδί του έχει γίνει αντικείμενο deepfake πορνογραφίας, η εμπειρία είναι συνήθως τρομακτική και συγκλονιστική, λέει η Goldberg, η οποία διευθύνει την εταιρεία C.A. Goldberg Law με έδρα τη Νέα Υόρκη που εκπροσωπεί θύματα σεξουαλικών εγκλημάτων και διαδικτυακής παρενόχλησης. «Ειδικά αν είναι νέοι και δεν ξέρουν πώς να το αντιμετωπίσουν και το διαδίκτυο είναι αυτό το μεγάλο, τεράστιο, νεφελώδες μέρος», είπε.
Υπάρχουν όμως βήματα που μπορούν να κάνουν οι στόχοι αυτής της μορφής παρενόχλησης για να προστατευτούν και μέρη στα οποία μπορούν να απευθυνθούν για βοήθεια, όπως λέει η Goldberg σε συνέντευξή της στο νέο τεχνολογικό podcast του CNN, Terms of Service with Clare Duffy, που στοχεύει να απομυθοποιήσει τις νέες και αναδυόμενες τεχνολογίες που οι άνθρωποι συναντούν στην καθημερινή τους ζωή.
Η Goldberg λέει ότι για τους ανθρώπους που αποτελούν στόχο σεξουαλικών εικόνων που δημιουργούνται από Τεχνητή Νοημοσύνη, το πρώτο βήμα ίσως να ακούγεται παράδοξο, αλλά είναι να τις κάνουν screenshot.
«Η σπασμωδική αντίδραση είναι να το κατεβάσουμε από το διαδίκτυο το συντομότερο δυνατό», λέει ο Goldberg. «Αλλά αν θέλεις να έχεις τη δυνατότητα να το καταγγείλεις ποινικά, χρειάζεσαι τα αποδεικτικά στοιχεία».
Στη συνέχεια, μπορούν να αναζητήσουν τις φόρμες που παρέχουν πλατφόρμες όπως η Google, η Meta και το Snapchat για να ζητήσουν την αφαίρεση των εικόνων. Μη κερδοσκοπικοί οργανισμοί όπως το StopNCII.org και το Take It Down μπορούν επίσης να βοηθήσουν στη διευκόλυνση της αφαίρεσης τέτοιων εικόνων σε πολλές πλατφόρμες ταυτόχρονα, αν και δεν συνεργάζονται όλοι οι ιστότοποι με τις ομάδες αυτές.
Μια διακομματική ομάδα γερουσιαστών στις ΗΠΑ έστειλε τον Αύγουστο ανοιχτή επιστολή με την οποία καλούσε σχεδόν δώδεκα εταιρείες τεχνολογίας, συμπεριλαμβανομένων των X και Discord, να ενταχθούν στα προγράμματα.
Ο αγώνας για την αντιμετώπιση των μη συναινετικών εικόνων και των deepfakes έχει λάβει σπάνια διακομματική υποστήριξη στις ΗΠΑ. Μια ομάδα εφήβων και γονέων που είχαν επηρεαστεί από πορνογραφικό υλικό που δημιουργήθηκε από Τεχνητή Νοημοσύνη κατέθεσαν σε ακρόαση στο Καπιτώλιο, όπου ο Ρεπουμπλικανός γερουσιαστής Τεντ Κρουζ εισήγαγε νομοσχέδιο -που υποστηρίχθηκε από τη Δημοκρατική γερουσιαστή Έιμι Κλόμπουτσαρ και άλλους- το οποίο θα καθιστούσε έγκλημα τη δημοσίευση τέτοιων εικόνων και θα απαιτούσε από τις πλατφόρμες κοινωνικής δικτύωσης να τις αφαιρούν μετά από ειδοποίηση των θυμάτων.
Όμως, προς το παρόν, τα θύματα πρέπει να περιηγηθούν σε ένα συνονθύλευμα κρατικών νόμων. Σε ορισμένα μέρη, δεν υπάρχουν ποινικοί νόμοι που να εμποδίζουν τη δημιουργία ή την ανταλλαγή deepfakes ενηλίκων. (Οι σεξουαλικές εικόνες παιδιών που δημιουργούνται με Τεχνητή Νοημοσύνη τυπικά εμπίπτουν στους νόμους περί υλικού σεξουαλικής κακοποίησης παιδιών).
«Η προληπτική μου συμβουλή είναι πραγματικά προς τους επίδοξους παραβάτες, η οποία είναι απλά, μην είστε εντελώς αποβράσματα της γης και μην προσπαθήσετε να κλέψετε την εικόνα ενός ατόμου και να τη χρησιμοποιήσετε για εξευτελισμό», λέει η Goldberg.
«Δεν υπάρχουν πολλά που μπορούν να κάνουν τα θύματα για να το αποτρέψουν αυτό. Ποτέ δεν μπορούμε να είμαστε απόλυτα ασφαλείς σε μια ψηφιακή κοινωνία, αλλά εξαρτάται κατά κάποιο τρόπο από τον καθένα μας να μην είμαστε εντελώς μαλάκες».