icon zoom-in

Μεγέθυνση κειμένου

Α Α Α

Δεν τους βλέπετε συχνά ούτε ακούτε γι' αυτούς - αλλά είναι οι άνθρωποι που εξετάζουν και, όταν χρειάζεται διαγράφουν, βίαιο περιεχόμενο από τα social media

Αποκεφαλισμοί, μαζικές δολοφονίες, κακοποίηση παιδιών, ρητορική μίσους – όλα αυτά καταλήγουν στα εισερχόμενα ενός παγκόσμιου στρατού συντονιστών περιεχομένου. Πρόκειται για έναν κρυφό κόσμο όπου καταλήγει το χειρότερο, πιο τρομακτικό, οδυνηρό και σε πολλές περιπτώσεις παράνομο διαδικτυακό περιεχόμενο.

Δεν τους βλέπετε συχνά, ούτε ακούτε γι’ αυτούς – αλλά είναι οι άνθρωποι που έχουν ως δουλειά τους να εξετάζουν και, όταν χρειάζεται, να διαγράφουν περιεχόμενο που είτε αναφέρεται από άλλους χρήστες, είτε επισημαίνεται αυτόματα από τεχνολογικά εργαλεία. Το ζήτημα της ασφάλειας στο Διαδίκτυο γίνεται όλο και πιο σημαντικό, με τις εταιρείες τεχνολογίας να δέχονται περισσότερες πιέσεις για την ταχεία αφαίρεση επιβλαβούς υλικού.

Και παρά τις πολλές έρευνες και επενδύσεις που γίνονται σε τεχνολογικές λύσεις για να βοηθήσουν, τελικά προς το παρόν, τον τελικό λόγο εξακολουθούν να έχουν σε μεγάλο βαθμό οι ανθρώπινοι συντονιστές. Οι συντονιστές συχνά απασχολούνται από τρίτες εταιρείες, αλλά εργάζονται σε περιεχόμενο που αναρτάται απευθείας στα μεγάλα κοινωνικά δίκτυα, όπως το Instagram, το TikTok και το Facebook.

Βρίσκονται σε όλο τον κόσμο. Οι άνθρωποι με τους οποίους συνομίλησε το BBC κατά τη διάρκεια των γυρισμάτων της σειράς The Moderators για το Radio 4 και το BBC Sounds, ζούσαν σε μεγάλο βαθμό στην Ανατολική Αφρική, κι όλοι έχουν εγκαταλείψει έκτοτε τη βιομηχανία.

Οι ιστορίες τους ήταν συγκλονιστικές, ενώ κάποιες από αυτές πολύ βίαιες για να μεταδοθούν. «Αν μπείτε στο TikTok, θα δείτε πολλές δραστηριότητες και πολλά χαρούμενα πράγματα», λέει ο Mojez, ένας πρώην συντονιστής με έδρα το Ναϊρόμπι που εργαζόταν στο περιεχόμενο του TikTok. «Αλλά στο παρασκήνιο, εγώ προσωπικά συντόνιζα, κατά εκατοντάδες, τρομακτικά και τραυματικά βίντεο. Το πήρα πάνω μου. Άφησα την ψυχική μου υγεία να ρουφήξει όλο αυτό το περιεχόμενο, ώστε οι γενικοί χρήστες να συνεχίσουν τις δραστηριότητές τους στην πλατφόρμα».

Επιπτώσεις στην ψυχική υγεία

Επί του παρόντος υπάρχουν πολλαπλές νομικές αξιώσεις ότι η εργασία αυτή έχει καταστρέψει την ψυχική υγεία των εν λόγω συντονιστών. Ορισμένοι από τους πρώην εργαζόμενους στην Ανατολική Αφρική έχουν ενωθεί για να σχηματίσουν συνδικάτο.

«Πραγματικά, το μόνο πράγμα που με χωρίζει από το να συνδεθώ σε μια πλατφόρμα κοινωνικής δικτύωσης και να παρακολουθήσω έναν αποκεφαλισμό, είναι κάποιος που κάθεται σε ένα γραφείο κάπου και παρακολουθεί αυτό το περιεχόμενο για μένα και το επανεξετάζει ώστε να μην χρειάζεται να το κάνω εγώ», λέει η Martha Dark που διευθύνει την Foxglove, μια ομάδα εκστρατείας που υποστηρίζει τη νομική δράση.

Το 2020, η Meta, τότε γνωστή ως Facebook, συμφώνησε να καταβάλει διακανονισμό ύψους 52 εκατ. δολαρίων σε συντονιστές που είχαν αναπτύξει προβλήματα ψυχικής υγείας λόγω της εργασίας τους. Η νομική αγωγή ξεκίνησε από μια πρώην συντονίστρια στις ΗΠΑ, ονόματι Selena Scola. Περιέγραψε τους συντονιστές ως «φύλακες των ψυχών», λόγω του όγκου του υλικού που βλέπουν και περιέχει τις τελευταίες στιγμές της ζωής των ανθρώπων.

Οι πρώην συντονιστές που μίλησαν στο BBC χρησιμοποίησαν όλοι τη λέξη «τραύμα» για να περιγράψουν τον αντίκτυπο που είχε η δουλειά τους. Ορισμένοι είχαν δυσκολία στον ύπνο και στο φαγητό. Αλλά αυτό που υπογράμμισαν, πολύ έντονα, ήταν η τεράστια υπερηφάνεια των συντονιστών για το ρόλο που έπαιζαν στην προστασία του κόσμου από τη διαδικτυακή βλάβη.

Έβλεπαν τους εαυτούς τους ως μια ζωτικής σημασίας υπηρεσία έκτακτης ανάγκης. Ένας λέει ότι ήθελε μια στολή κι ένα σήμα, συγκρίνοντας τον εαυτό του με έναν τραυματιοφορέα ή πυροσβέστη.

«Ούτε ένα δευτερόλεπτο δεν πήγε χαμένο», λέει κάποιος που ονομάστηκε David. Ζήτησε να διατηρήσει την ανωνυμία του, αλλά είχε δουλέψει πάνω σε υλικό που χρησιμοποιήθηκε για την εκπαίδευση του ιογενούς AI chatbot ChatGPT, έτσι ώστε να προγραμματιστεί για να μην αναπαράγει βίαιο υλικό.

«Είμαι περήφανος για τα άτομα που εκπαίδευσαν αυτό το μοντέλο για να γίνει αυτό που είναι σήμερα». Αλλά το ίδιο το εργαλείο που ο David είχε βοηθήσει να εκπαιδεύσει, θα μπορούσε μια μέρα να τον ανταγωνιστεί.

Ο ρόλος της Τεχνητής Νοημοσύνης

Ο Dave Willner είναι πρώην επικεφαλής του τμήματος εμπιστοσύνης και ασφάλειας στην OpenAI, δημιουργός του ChatGPT. Λέει ότι η ομάδα του δημιούργησε ένα υποτυπώδες εργαλείο μετριασμού, βασισμένο στην τεχνολογία του chatbot, το οποίο κατάφερε να εντοπίσει επιβλαβές περιεχόμενο με ποσοστό ακρίβειας περίπου 90%.

«Όταν κατά κάποιο τρόπο συνειδητοποίησα πλήρως πως αυτό θα λειτουργήσει, ξεροκατάπια λίγο», λέει. «Τα εργαλεία Τεχνητής Νοημοσύνης δεν βαριούνται. Και δεν κουράζονται και δεν σοκάρονται…. είναι ακούραστα».

Δεν είναι όλοι, ωστόσο, βέβαιοι ότι η Τεχνητή Νοημοσύνη θα αποτελέσει τη λύση στον προβληματικό τομέα της μετριοπάθειας. «Νομίζω ότι είναι προβληματικό», λέει ο δρ Πολ Ράιλι, ανώτερος λέκτορας στα μέσα ενημέρωσης και τη δημοκρατία στο Πανεπιστήμιο της Γλασκώβης. «Σαφώς μπορεί να είναι ένας μηχανισμός για το φιλτράρισμα του περιεχομένου, αλλά μπορεί να οδηγήσει σε υπερβολική παρεμπόδιση ζητημάτων ελευθερίας του λόγου, και φυσικά μπορεί να χάσει αποχρώσεις που οι ανθρώπινοι συντονιστές θα μπορούσαν να εντοπίσουν. Ο ανθρώπινος παράγοντας είναι απαραίτητος για τις πλατφόρμες», προσθέτει.

«Το πρόβλημα είναι ότι δεν υπάρχουν αρκετοί από αυτούς, και η δουλειά είναι απίστευτα επιβλαβής για όσους την κάνουν».

Ένας εκπρόσωπος της TikTok λέει ότι η εταιρεία γνωρίζει ότι ο έλεγχος περιεχομένου δεν είναι εύκολη υπόθεση και προσπαθεί να προάγει ένα περιβάλλον εργασίας που να φροντίζει τους υπαλλήλους της. Αυτό περιλαμβάνει την προσφορά κλινικής υποστήριξης και τη δημιουργία προγραμμάτων που υποστηρίζουν την ευημερία των συντονιστών.

Προσθέτουν ότι τα βίντεο εξετάζονται αρχικά από αυτοματοποιημένη τεχνολογία, η οποία, όπως λένε, αφαιρεί μεγάλο όγκο επιβλαβούς περιεχομένου.

Εν τω μεταξύ, η Open AI – η εταιρεία που βρίσκεται πίσω από το Chat GPT – λέει ότι είναι ευγνώμων για τη σημαντική και μερικές φορές απαιτητική δουλειά που κάνουν οι ανθρώπινοι εργαζόμενοι για να εκπαιδεύσουν την AI να εντοπίζει τέτοιες φωτογραφίες και βίντεο. Ένας εκπρόσωπος προσθέτει ότι, μαζί με τους συνεργάτες της, η Open AI επιβάλλει πολιτικές για την προστασία της ευημερίας αυτών των ομάδων.

Και η Meta -στην οποία ανήκουν το Instagram και το Facebook- λέει ότι απαιτεί από όλες τις εταιρείες με τις οποίες συνεργάζεται να παρέχουν 24ωρη επιτόπια υποστήριξη με εκπαιδευμένους επαγγελματίες. Προσθέτει ότι οι συντονιστές είναι σε θέση να προσαρμόζουν τα εργαλεία αναθεώρησης ώστε να θολώνουν το γραφικό περιεχόμενο.