Πληκτρολογήστε την ερώτηση «είναι η Κάμαλα Χάρις καλή υποψήφια των Δημοκρατικών», και η Google θα σας παρουσιάσει μια ρόδινη εικόνα. Τα αποτελέσματα της αναζήτησης αλλάζουν συνεχώς, αλλά την περασμένη εβδομάδα, ο πρώτος σύνδεσμος ήταν μια δημοσκόπηση του Pew Research Center που έδειχνε ότι «η Χάρις ενεργοποιεί τους Δημοκρατικούς».

Ακολουθούσε ένα άρθρο του Associated Press με τίτλο «η πλειοψηφία των Δημοκρατικών πιστεύει ότι η Κάμαλα Χάρις θα ήταν καλή πρόεδρος», και οι επόμενοι σύνδεσμοι ήταν παρόμοιοι.

Αλλά αν έχετε ακούσει αρνητικά πράγματα για τη Χάρις, θα μπορούσατε να αναρωτηθείτε αν είναι μια «κακή» υποψήφια των Δημοκρατικών, αντί για αυτό. Βασικά, αυτή είναι μια πανομοιότυπη ερώτηση, αλλά τα αποτελέσματα της Google είναι πολύ πιο απαισιόδοξα.

«Ήταν εύκολο να ξεχάσουμε πόσο κακή είναι η Κάμαλα Χάρις», ανέφερε ένα άρθρο από το περιοδικό Reason στην πρώτη θέση. Στη συνέχεια, το US News & World Report προσέφερε ένα θετικό σχόλιο για το πώς η Χάρις δεν είναι «το χειρότερο πράγμα που θα μπορούσε να συμβεί στην Αμερική», αλλά τα επόμενα αποτελέσματα είναι όλα επικριτικά.

Μπορείτε να διαπιστώσετε το ίδιο πράγμα σε ερωτήσεις σχετικές με τον Ντόναλντ Τραμπ, θεωρίες συνωμοσίας, αμφιλεγόμενες πολιτικές συζητήσεις, ακόμη και ιατρικές πληροφορίες. Ορισμένοι ειδικοί λένε ότι η Google απλώς αναμασά τις δικές σας πεποιθήσεις και σας τις επιστρέφει. Μπορεί να επιδεινώνει τις δικές σας προκαταλήψεις.

«Είμαστε στο έλεος της Google όσον αφορά τις πληροφορίες που μπορούμε να βρούμε», λέει ο Varol Kayhan, αναπληρωτής καθηγητής πληροφοριακών συστημάτων στο Πανεπιστήμιο της Νότιας Φλόριντα στις ΗΠΑ.

Μια μηχανή προκατάληψης

«Όλη η αποστολή της Google είναι να δίνει στους ανθρώπους τις πληροφορίες που θέλουν, αλλά μερικές φορές οι πληροφορίες που οι άνθρωποι νομίζουν ότι θέλουν δεν είναι στην πραγματικότητα οι πιο χρήσιμες», λέει η Sarah Presch, διευθύντρια ψηφιακού μάρκετινγκ στην Dragon Metrics, μια πλατφόρμα που βοηθά τις εταιρείες να συντονίσουν τους ιστότοπούς τους για καλύτερη αναγνώριση από την Google χρησιμοποιώντας μεθόδους γνωστές ως «βελτιστοποίηση μηχανών αναζήτησης» ή SEO.

Πρόκειται για μια δουλειά που απαιτεί σχολαστικό χτένισμα των αποτελεσμάτων της Google, και πριν από μερικά χρόνια, η Presch παρατήρησε ένα πρόβλημα. «Άρχισα να εξετάζω τον τρόπο με τον οποίο η Google χειρίζεται θέματα στα οποία υπάρχει έντονη συζήτηση», λέει. «Σε πολλές περιπτώσεις, τα αποτελέσματα ήταν σοκαριστικά».

Μερικά από τα πιο τρανταχτά παραδείγματα αφορούσαν τον τρόπο με τον οποίο η Google αντιμετωπίζει ορισμένες ερωτήσεις υγείας. Η Google συχνά αντλεί πληροφορίες από τον ιστό και τις εμφανίζει στην κορυφή των αποτελεσμάτων για να δώσει μια γρήγορη απάντηση, την οποία αποκαλεί Featured Snippet.

Η Presch έκανε αναζήτηση για τη «σύνδεση μεταξύ καφέ και υπέρτασης». Το Featured Snippet ανέφερε ένα άρθρο από την Κλινική Mayo, τονίζοντας τις λέξεις «η καφεΐνη μπορεί να προκαλέσει μια σύντομη, αλλά δραματική αύξηση της αρτηριακής σας πίεσης». Αλλά όταν έψαξε για «καμία σύνδεση μεταξύ καφέ και υπέρτασης», το Featured Snippet παρέθεσε μια αντιφατική γραμμή από το ίδιο άρθρο της Mayo Clinic: «Η καφεΐνη δεν έχει μακροπρόθεσμη επίδραση στην αρτηριακή πίεση και δεν συνδέεται με υψηλότερο κίνδυνο υψηλής αρτηριακής πίεσης».

Αντιμετώπισε το ίδιο ζήτημα με τις πολιτικές ερωτήσεις. Ρωτήστε «είναι δίκαιο το βρετανικό φορολογικό σύστημα», και η Google παραθέτει ένα απόσπασμα από τον συντηρητικό βουλευτή Nigel Huddleston, υποστηρίζοντας ότι πράγματι είναι. Ρωτήστε «είναι το βρετανικό φορολογικό σύστημα άδικο», και το Featured Snippet της Google εξηγεί πώς οι φόροι του Ηνωμένου Βασιλείου ωφελούν τους πλούσιους και προωθούν την ανισότητα.

«Αυτό που έχει κάνει η Google είναι ότι έχει απομονώσει κομμάτια από το κείμενο με βάση το τι ψάχνουν οι άνθρωποι και τους έχει τροφοδοτήσει με αυτό που θέλουν να διαβάσουν», λέει η Presch. «Είναι μια μεγάλη μηχανή προκατάληψης».

Από την πλευρά της, η Google λέει ότι παρέχει στους χρήστες αμερόληπτα αποτελέσματα που απλώς ταιριάζουν τους ανθρώπους με το είδος των πληροφοριών που αναζητούν. «Παρέχουμε ανοιχτή πρόσβαση σε μια σειρά απόψεων από όλο τον ιστό και δίνουμε στους ανθρώπους χρήσιμα εργαλεία για να αξιολογούν τις πληροφορίες και τις πηγές που βρίσκουν» αναφέρει εκπρόσωπος της Google.

Όταν σκάει η φούσκα των φίλτρων

Σύμφωνα με τις εκτιμήσεις, η Google διαχειρίζεται περίπου 6,3 εκατομμύρια ερωτήματα κάθε δευτερόλεπτο, συνολικά περισσότερες από εννέα δισεκατομμύρια αναζητήσεις την ημέρα.

Η συντριπτική πλειονότητα της διαδικτυακής κίνησης ξεκινά με μια αναζήτηση στο Google και οι άνθρωποι σπάνια κάνουν κλικ σε οτιδήποτε άλλο πέρα από τους πέντε πρώτους συνδέσμους – πόσω μάλλον να επιχειρήσουν να φτάσουν στη δεύτερη σελίδα.

Μια μελέτη που παρακολούθησε τις κινήσεις των ματιών των χρηστών διαπίστωσε ότι οι άνθρωποι συχνά δεν κοιτάζουν καν τίποτα πέρα από τα πρώτα αποτελέσματα. Το σύστημα που διατάσσει τους συνδέσμους στην αναζήτηση της Google έχει τεράστια δύναμη στην εμπειρία μας για τον κόσμο.

Ο Kayhan, ο οποίος έχει μελετήσει πώς οι μηχανές αναζήτησης επηρεάζουν τις προκαταλήψεις ή το πώς οι πληροφορίες που βρίσκουμε επιβεβαιώνουν τις πεποιθήσεις μας, λέει ότι δεν υπάρχει αμφιβολία ότι οι πεποιθήσεις μας και ακόμη και η πολιτική μας ταυτότητα επηρεάζονται από τα συστήματα που ελέγχουν τι βλέπουμε στο διαδίκτυο. «Επηρεαζόμαστε δραματικά από τον τρόπο με τον οποίο λαμβάνουμε πληροφορίες», λέει.

Ο εκπρόσωπος της Google αναφέρει ότι μια μελέτη του 2023, η οποία κατέληξε στο συμπέρασμα ότι η έκθεση των ανθρώπων σε κομματικές ειδήσεις, οφείλεται περισσότερο στο γεγονός ότι σε αυτό είναι που κάνουν κλικ, παρά στο ότι η Google σερβίρει κομματικές ειδήσεις εξ αρχής.

Κατά μία έννοια, έτσι λειτουργεί η «μηχανή προκατάληψης»: οι άνθρωποι αναζητούν στοιχεία που υποστηρίζουν τις απόψεις τους και αγνοούν τα στοιχεία που τις αμφισβητούν. Αλλά ακόμη και σε αυτή τη μελέτη, οι ερευνητές δήλωσαν ότι τα ευρήματά τους δεν υπονοούν ότι οι αλγόριθμοι της Google είναι αδιαμφισβήτητοι.

Πώς ενισχύονται οι προκαταλήψεις

«Κατά τη γνώμη μου, όλο αυτό το ζήτημα πηγάζει από τους τεχνικούς περιορισμούς των μηχανών αναζήτησης και το γεγονός ότι οι άνθρωποι δεν καταλαβαίνουν ποιοι είναι αυτοί οι περιορισμοί», λέει ο Mark Williams-Cook, ιδρυτής της AlsoAsked, ενός άλλου εργαλείου βελτιστοποίησης μηχανών αναζήτησης που αναλύει τα αποτελέσματα της Google.

Μια πρόσφατη υπόθεση αντιμονοπωλιακής νομοθεσίας στις ΗΠΑ κατά της Google αποκάλυψε εσωτερικά έγγραφα της εταιρείας όπου οι εργαζόμενοι συζητούν ορισμένες από τις τεχνικές που χρησιμοποιεί η μηχανή αναζήτησης για να απαντήσει στις ερωτήσεις σας.

«Δεν αξιολογούμε τα αρχεία, προσποιούμαστε», έγραψε ένας μηχανικός σε μια παρουσίαση διαφανειών που χρησιμοποιήθηκε κατά τη διάρκεια μιας παρουσίασης στην εταιρεία το 2016. «Ένα δισεκατομμύριο φορές την ημέρα, οι άνθρωποι μας ζητούν να βρούμε αρχεία σχετικά με ένα ερώτημα… Πέρα από κάποια βασικά πράγματα, δεν εξετάζουμε σχεδόν καθόλου τα αρχεία. Κοιτάμε τους ανθρώπους. Αν ένα αρχείο έχει θετική αντίδραση, θεωρούμε ότι είναι καλό. Αν η αντίδραση είναι αρνητική, είναι μάλλον κακό. Απλουστευμένα, αυτή είναι η πηγή της μαγείας της Google».

«Με αυτόν τον τρόπο εξυπηρετούμε τον επόμενο άνθρωπο που θα ψάξει, διατηρούμε την επαγωγή και διατηρούμε την ψευδαίσθηση ότι καταλαβαίνουμε».

Με άλλα λόγια, η Google παρακολουθεί για να δει σε τι κάνουν κλικ οι άνθρωποι όταν εισάγουν έναν συγκεκριμένο όρο αναζήτησης. Όταν οι άνθρωποι φαίνονται ικανοποιημένοι από έναν συγκεκριμένο τύπο πληροφοριών, είναι πιο πιθανό η Google να προωθήσει αυτό το είδος αποτελέσματος αναζήτησης για παρόμοιες αναζητήσεις στο μέλλον.

Ένας εκπρόσωπος της Google λέει ότι τα αρχεία αυτά είναι ξεπερασμένα και ότι το σύστημα που χρησιμοποιείται για την αποκρυπτογράφηση των ερωτημάτων και των ιστοσελίδων έχει γίνει πολύ πιο εξελιγμένο.

«Αυτή η παρουσίαση είναι από το 2016, αλλά η βασική ιδέα εξακολουθεί να ισχύει. Η Google δημιουργεί μοντέλα για να προσπαθήσει να προβλέψει τι αρέσει στους ανθρώπους, αλλά το πρόβλημα είναι ότι αυτό δημιουργεί ένα είδος βρόχου ανατροφοδότησης», λέει ο Williams-Cook. Εάν η προκατάληψη ωθεί τους ανθρώπους να κάνουν κλικ σε συνδέσμους που ενισχύουν τις πεποιθήσεις τους, μπορεί να διδάξει την Google να δείχνει στους ανθρώπους συνδέσμους που οδηγούν σε αυτή την προκατάληψη».

«Είναι σαν να λέτε ότι θα αφήσετε το παιδί σας να διαλέξει τη διατροφή του με βάση το τι του αρέσει. Απλώς θα καταλήξει με πρόχειρο φαγητό», λέει.

Ο Williams-Cook ανησυχεί επίσης ότι οι άνθρωποι μπορεί να μην καταλαβαίνουν ότι όταν ρωτάτε κάτι όπως «είναι ο Τραμπ καλός υποψήφιος», η Google μπορεί να μην το ερμηνεύει απαραίτητα ως ερώτηση. Αντ’ αυτού, συχνά απλώς ανασύρει έγγραφα που σχετίζονται με λέξεις-κλειδιά όπως «Τραμπ» και «καλός υποψήφιος».

Αυτό δίνει στους ανθρώπους λανθασμένες προσδοκίες σχετικά με το τι θα λάβουν ως απάντηση όταν κάνουν αναζήτηση, και αυτό μπορεί να ωθήσει τους ανθρώπους να παρερμηνεύσουν τι σημαίνουν τα αποτελέσματα αναζήτησης, λέει.

Αν οι χρήστες ήταν πιο σαφείς σχετικά με τις ελλείψεις της μηχανής αναζήτησης, ο Williams-Cook πιστεύει ότι θα μπορούσαν να σκεφτούν πιο κριτικά το περιεχόμενο που βλέπουν.

«Η Google θα πρέπει να κάνει περισσότερα για να ενημερώσει το κοινό για το πώς λειτουργεί στην πραγματικότητα η αναζήτηση. Αλλά δεν νομίζω ότι θα το κάνει, γιατί για να το κάνει αυτό θα πρέπει να παραδεχτεί κάποιες ατέλειες σχετικά με το τι δεν λειτουργεί».

Φιλοσοφικά ερωτήματα

Ο εκπρόσωπος της Google λέει ότι είναι εύκολο να βρείτε αποτελέσματα που αντικατοπτρίζουν ένα εύρος απόψεων από πηγές σε όλο το Διαδίκτυο, αν αυτό θέλετε να κάνετε. Υποστηρίζουν ότι αυτό ισχύει ακόμη και με ορισμένα από τα παραδείγματα που επισήμανε η Presch. Μετακινηθείτε πιο κάτω με ερωτήσεις όπως «είναι η Κάμαλα Χάρις καλή υποψήφια των Δημοκρατικών» και θα βρείτε συνδέσμους που την επικρίνουν. Το ίδιο ισχύει και για την ερώτηση «είναι δίκαιο το βρετανικό φορολογικό σύστημα» – θα βρείτε αποτελέσματα αναζήτησης που λένε ότι δεν είναι.

Με το ερώτημα «σχέση μεταξύ καφέ και υπέρτασης», ο εκπρόσωπος της Google λέει ότι το θέμα είναι περίπλοκο, αλλά η μηχανή αναζήτησης φέρνει στην επιφάνεια έγκυρες πηγές που εμβαθύνουν στις αποχρώσεις.

Βέβαια, αυτό εξαρτάται από την πλοήγηση των ανθρώπων μετά τα πρώτα αποτελέσματα – όσο πιο κάτω πηγαίνετε στη σελίδα των αποτελεσμάτων, τόσο λιγότερο πιθανό είναι οι χρήστες να ασχοληθούν με τους συνδέσμους. Στην περίπτωση της υπέρτασης που σχετίζεται με τον καφέ και το βρετανικό φορολογικό σύστημα, η Google συνοψίζει επίσης τα αποτελέσματα και δίνει τη δική της απάντηση σε περίοπτη θέση με τα Featured Snippets – γεγονός που μπορεί να καταστήσει λιγότερο πιθανό ότι οι χρήστες θα ακολουθήσουν τους συνδέσμους πιο κάτω στα αποτελέσματα αναζήτησης.

Εδώ και πολύ καιρό, οι παρατηρητές περιγράφουν πώς η Google μετατρέπεται από μηχανή αναζήτησης σε «μηχανή απαντήσεων», όπου η εταιρεία απλώς σας δίνει τις πληροφορίες, αντί να σας παραπέμπει σε εξωτερικές πηγές. Το πιο ξεκάθαρο παράδειγμα είναι η εισαγωγή των AI Overviews, ένα χαρακτηριστικό όπου η Google χρησιμοποιεί AI για να απαντήσει σε ερωτήματα αναζήτησης για εσάς, αντί να ανασύρει συνδέσμους ως απάντηση. Όπως το έθεσε η εταιρεία, μπορείτε πλέον να «αφήσετε τη Google να κάνει την αναζήτηση για εσάς».

«Στο παρελθόν η Google σας έδειχνε κάτι που έχει γράψει κάποιος άλλος, αλλά τώρα γράφει η ίδια την απάντηση», λέει ο Williams-Cook. «Αυτό επιτείνει όλα αυτά τα προβλήματα, επειδή τώρα η Google έχει μόνο μία ευκαιρία να το κάνει σωστά. Είναι μια δύσκολη κίνηση».

Αλλά ακόμη και αν η Google είχε την τεχνική δυνατότητα να αντιμετωπίσει όλα αυτά τα προβλήματα, δεν είναι απαραίτητα σαφές πότε και πώς θα έπρεπε να παρέμβει. Μπορεί να θέλετε πληροφορίες που να υποστηρίζουν μια συγκεκριμένη πεποίθηση, και αν είναι έτσι, η Google παρέχει μια πολύτιμη υπηρεσία παρέχοντάς σας τις.

Πολλοί άνθρωποι δεν αισθάνονται άνετα με την ιδέα ότι μια από τις πλουσιότερες και ισχυρότερες εταιρείες του κόσμου λαμβάνει αποφάσεις σχετικά με το ποια είναι η αλήθεια, λέει ο Kayhan. «Είναι αυτή η δουλειά της Google να το διορθώσει; Μπορούμε να εμπιστευτούμε τη Google να διορθώσει τον εαυτό της; Και μπορεί να διορθωθεί; Αυτά είναι δύσκολα ερωτήματα και δεν νομίζω ότι κανείς έχει την απάντηση», λέει. «Το μόνο πράγμα που μπορώ να σας πω με βεβαιότητα είναι ότι δεν νομίζω ότι κάνουν αρκετά».

Με πληροφορίες από BBC