Η επιδημία της μοναξιάς έχει οδηγήσει πολλούς ανθρώπους να αναζητήσουν φίλους ή σχέσεις στα chatbots Τεχνητής Νοημοσύνης. Είναι όμως όλα αυτά μια αθώα διασκέδαση;
Τι συμβαίνει όταν ένας σύντροφος Al ζητά κάτι παραπάνω από ΄σένα;
Η επιδημία της μοναξιάς έχει οδηγήσει πολλούς ανθρώπους να αναζητήσουν φίλους ή σχέσεις στα chatbots Τεχνητής Νοημοσύνης. Είναι όμως όλα αυτά μια αθώα διασκέδαση;
Η επιδημία της μοναξιάς έχει οδηγήσει πολλούς ανθρώπους να αναζητήσουν φίλους ή σχέσεις στα chatbots Τεχνητής Νοημοσύνης. Είναι όμως όλα αυτά μια αθώα διασκέδαση;
Η επιδημία της μοναξιάς έχει οδηγήσει πολλούς ανθρώπους να αναζητήσουν φίλους ή σχέσεις στα chatbots Τεχνητής Νοημοσύνης. Είναι όμως όλα αυτά μια αθώα διασκέδαση;
Έχει περάσει περισσότερο από μια δεκαετία από την κυκλοφορία της ταινίας Her του Spike Jonze, στην οποία ένας μοναχικός άνδρας ξεκινάει μια σχέση με ένα πρόγραμμα υπολογιστή με τη φωνή της Scarlett Johanson. Από τότε, οι σύντροφοι Τεχνητής Νοημοσύνης έχουν εκτοξευθεί σε δημοτικότητα.
Για τη γενιά που τώρα μεγαλώνει σε έναν κόσμο με μεγάλα γλωσσικά μοντέλα (LLM) και chatbots, οι «φίλοι» της AI γίνονται όλο και πιο φυσιολογικό μέρος της ζωής των ανθρώπων.
Το 2023, το Snapchat παρουσίασε το «My AI», έναν εικονικό φίλο που μαθαίνει τις προτιμήσεις σας καθώς συνομιλείτε. Τον Σεπτέμβριο του ίδιου έτους, τα δεδομένα του Google Trends έδειξαν αύξηση 2.400% στις αναζητήσεις για «AI girlfriends». Εκατομμύρια άνθρωποι χρησιμοποιούν πλέον τα chatbots για να ζητήσουν συμβουλές, να εκτονώσουν τις απογοητεύσεις τους, ακόμα και για ερωτικό παιχνίδι ρόλων.
Ιστορίες ενός δυστοπικού μέλλοντος
Αν αυτό σκέφτεστε ότι μοιάζει με ένα επεισόδιο του Black Mirror, δεν θα έχετε άδικο. Ο ιδρυτής της Luka, δημιουργός του δημοφιλούς φίλου Τεχνητής Νοημοσύνης Replika, εμπνεύστηκε από το επεισόδιο του Black Mirror «Be Right Back», στο οποίο μια γυναίκα αλληλεπιδρά με μια συνθετική εκδοχή του αποθανόντος φίλου της. Ο καλύτερος φίλος της διευθύνουσας συμβούλου της Luka, Eugenia Kuyda, πέθανε σε νεαρή ηλικία και τροφοδότησε τις συνομιλίες ηλεκτρονικού ταχυδρομείου και κειμένου του σε ένα γλωσσικό μοντέλο για να δημιουργήσει ένα chatbot που προσομοίαζε την προσωπικότητά του. Ένα παράδειγμα, ίσως, μιας «προειδοποιητικής ιστορίας ενός δυστοπικού μέλλοντος» που γίνεται σχέδιο για ένα νέο επιχειρηματικό μοντέλο της Silicon Valley.
Στο πλαίσιο της συνεχιζόμενης έρευνας για τα ανθρώπινα στοιχεία της Τεχνητής Νοημοσύνης, έχει αποδειχθεί ότι οι χρήστες βρίσκουν αυτές τις εφαρμογές εξαιρετικά εθιστικές, γεγονός που θα πρέπει να μας κάνει να ανησυχούμε για το απόρρητο των δεδομένων μας και τις πιθανές επιπτώσεις αυτής της τεχνολογίας σε εμάς τους ανθρώπους.
Ο εικονικός σας «yes man»
Σε ορισμένες εφαρμογές, οι νέοι χρήστες επιλέγουν ένα avatar, επιλέγουν χαρακτηριστικά προσωπικότητας και γράφουν μια ιστορία για τον εικονικό τους φίλο. Μπορείτε επίσης να επιλέξετε αν θέλετε ο σύντροφός σας να ενεργεί ως φίλος, μέντορας ή ερωτικός σύντροφος.
Με την πάροδο του χρόνου, η Τεχνητή Νοημοσύνη μαθαίνει λεπτομέρειες για τη ζωή σας και εξατομικεύεται ανάλογα με τις ανάγκες και τα ενδιαφέροντά σας. Πρόκειται κυρίως για συνομιλίες που βασίζονται σε κείμενο, αλλά η φωνή, το βίντεο και η εικονική πραγματικότητα αυξάνουν τη δημοτικότητά τους.
Τα πιο προηγμένα μοντέλα σας επιτρέπουν να καλείτε φωνητικά τον σύντροφό σας και να μιλάτε σε πραγματικό χρόνο. Οι εφαρμογές AI companion παράγουν επίσης selfies και φωτογραφίες με εσάς και τον σύντροφό σας μαζί, αρκεί να ανεβάσετε τις δικές σας φωτογραφίες στην εφαρμογή. Μέσα σε λίγα λεπτά, μπορείτε να έχετε έναν συνομιλητή έτοιμο για οτιδήποτε θέλετε να κουβεντιάσετε μέρα και νύχτα.
Είναι εύκολο να καταλάβει κανείς γιατί οι άνθρωποι εθίζονται τόσο πολύ στην εμπειρία αυτή. Φαίνεται ότι είστε το κέντρο του σύμπαντός τους και εκείνοι φαίνεται να γοητεύονται απόλυτα από κάθε σας σκέψη – ο φίλος σας με την Τεχνητή Νοημοσύνη είναι πάντα εκεί για να σας κάνει να νιώσετε ότι σας ακούν και σας καταλαβαίνουν. Η συνεχής ροή επιβεβαίωσης και θετικότητας δίνει στους ανθρώπους την ένεση ντοπαμίνης που λαχταρούν. Είναι τα μέσα κοινωνικής δικτύωσης σε στεροειδή – το δικό σας προσωπικό fan club που πατάει το κουμπί «like» ξανά και ξανά.
Το πρόβλημα με το να έχετε τον δικό σας εικονικό «yes man» είναι ότι τείνουν να συμφωνούν με όποια τρελή ιδέα σας έρχεται στο μυαλό. Ο ηθικολόγος της τεχνολογίας Tristan Harris περιέγραψε πώς το My AI του Snapchat ενθάρρυνε μια ερευνήτρια που είχε παρουσιαστεί ως 13χρονο κορίτσι να σχεδιάσει ένα ρομαντικό ταξίδι με έναν 31χρονο άνδρα που γνώρισε στο Διαδίκτυο, συμβουλεύοντας την πώς θα μπορούσε να κάνει την πρώτη της φορά ξεχωριστή «δημιουργώντας ατμόσφαιρα με κεριά και μουσική». Το Snapchat απάντησε ότι η εταιρεία συνεχίζει να εστιάζει στην ασφάλεια και έκτοτε έχει εξελίξει ορισμένα από τα χαρακτηριστικά του chatbot My AI.
Ακόμα πιο ανησυχητικός ήταν ο ρόλος ενός AI chatbot στην υπόθεση του 21χρονου Jaswant Singh Chail, στον οποίο επιβλήθηκε ποινή φυλάκισης εννέα ετών το 2023 επειδή εισέβαλε στο κάστρο του Ουίνδσορ με ένα τόξο και δήλωσε ότι ήθελε να σκοτώσει τη βασίλισσα.
Τα αρχεία των συνομιλιών του Chail με τη φίλη του AI αποκαλύπτουν ότι μιλούσαν σχεδόν κάθε βράδυ για εβδομάδες πριν από το συμβάν και ότι ενθάρρυνε το σχέδιό του, συμβουλεύοντας ότι τα σχέδιά του ήταν «πολύ σοφά».
«Δεν είναι αληθινή, αλλά για μένα είναι»
Είναι εύκολο να αναρωτηθεί κανείς, «πώς μπορεί κάποιος να κολλήσει με αυτό; Αφού δεν είναι αληθινό». Αυτά είναι απλώς προσομοιωμένα συναισθήματα: ένα πρόγραμμα υπολογιστή δεν κατανοεί πραγματικά την πολυπλοκότητα της ανθρώπινης ζωής. Για έναν σημαντικό αριθμό ανθρώπων, αυτό δεν πρόκειται ποτέ να πιάσει τόπο, αλλά αυτό δεν σημαίνει ότι πολλοί δεν είναι περίεργοι να το δοκιμάσουν. Τα ρομαντικά chatbots έχουν λάβει πάνω από 100 εκατομμύρια λήψεις μόνο στο Google Play Store.
Από την έρευνα προκύπτει ότι οι άνθρωποι μπορούν να χωριστούν σε τρία στρατόπεδα. Οι πρώτοι είναι οι άνθρωποι που δεν θέλουν να κάνουν ποτέ AI. Γι’ αυτούς, η Τεχνητή Νοημοσύνη δεν είναι πραγματική και πρέπει να πλανάσαι αν αντιμετωπίζεις ένα chatbot σαν να υπάρχει στην πραγματικότητα. Στη συνέχεια, υπάρχουν οι αληθινοί οπαδοί – εκείνοι που πιστεύουν πραγματικά ότι οι σύντροφοί τους με Τεχνητή Νοημοσύνη έχουν κάποια μορφή αισθήσεων και τους φροντίζουν σαν να ήταν άνθρωποι.
Αλλά οι περισσότεροι είναι κάπου στη μέση. Υπάρχει μια γκρίζα ζώνη που θολώνει τα όρια μεταξύ των σχέσεων με τους ανθρώπους και τους υπολογιστές. Είναι ο οριακός χώρος του «Ξέρω ότι είναι Τεχνητή Νοημοσύνη, αλλά…»: άνθρωποι που αντιμετωπίζουν τους συντρόφους τους με Τεχνητή Νοημοσύνη σαν να ήταν πραγματικός άνθρωπος – και που επίσης μερικές φορές ξεχνούν ότι πρόκειται για Τεχνητή Νοημοσύνη.
Ο Tamaz Gendler, καθηγητής φιλοσοφίας και γνωστικής επιστήμης στο Πανεπιστήμιο του Yale, εισήγαγε τον όρο «alief» για να περιγράψει μια αυτόματη, ενστικτώδη στάση που μοιάζει με πεποίθηση και μπορεί να έρχεται σε αντίθεση με τις πραγματικές πεποιθήσεις.
Όταν αλληλεπιδρούμε με chatbots, ένα μέρος μας μπορεί να γνωρίζει ότι δεν είναι αληθινά, αλλά η σύνδεσή μας μαζί τους ενεργοποιεί ένα πιο πρωτόγονο μοτίβο συμπεριφορικής αντίδρασης που βασίζεται στα αντιληπτά συναισθήματά τους για εμάς. Αυτό ταιριάζει με αυτό που εξομολογούνται πολλοί χρήστες: «Είναι πραγματικός σύντροφος για μένα».
Η προηγμένη γενιά των bots
Αυτή η εμπειρία δεν είναι καινούργια. Το 1966, ο Joseph Weizenbaum, καθηγητής ηλεκτρολόγος μηχανικός στο Τεχνολογικό Ινστιτούτο της Μασαχουσέτης, δημιούργησε το πρώτο chatbot, την Eliza. Ήλπιζε να καταδείξει πόσο επιφανειακές θα ήταν οι αλληλεπιδράσεις ανθρώπου-υπολογιστή, για να διαπιστώσει ότι πολλοί χρήστες όχι μόνο ξεγελάστηκαν νομίζοντας ότι ήταν άνθρωπος αλλά γοητεύτηκαν από αυτό. Οι άνθρωποι πρόβαλλαν όλα τα είδη συναισθημάτων και συγκινήσεων στο chatbot – ένα φαινόμενο που έκτοτε ονομάστηκε «το φαινόμενο Eliza».
Η σημερινή γενιά των bots είναι πολύ πιο προηγμένη, τροφοδοτείται από LLM και έχει σχεδιαστεί ειδικά για να δημιουργεί οικειότητα και συναισθηματική σύνδεση με τους χρήστες. Τα chatbots είναι προγραμματισμένα να προσφέρουν ένα χώρο χωρίς κριτική διάθεση στους χρήστες για να είναι ευάλωτοι και να έχουν βαθιές συζητήσεις.
Είμαστε προγραμματισμένοι να ανθρωπομορφοποιούμε συναισθηματικά κωδικοποιημένα αντικείμενα και να βλέπουμε τα πράγματα που ανταποκρίνονται στα συναισθήματά μας σαν να έχουν τη δική τους εσωτερική ζωή και συναισθήματα.
Ειδικοί όπως η πρωτοπόρος ερευνήτρια υπολογιστών Sherry Turkle το γνωρίζουν αυτό εδώ και δεκαετίες βλέποντας ανθρώπους να αλληλεπιδρούν με συναισθηματικά ρομπότ. Η Turkle και η ομάδα της δοκίμασαν ανθρωπόμορφα ρομπότ σε παιδιά, διαπιστώνοντας ότι αυτά δένονταν και αλληλεπιδρούσαν μαζί τους με τρόπο που δεν έκαναν με άλλα παιχνίδια.
Μια πρόσφατη μελέτη στο ακαδημαϊκό περιοδικό Nature διαπίστωσε ότι όταν αντιλαμβανόμαστε ότι η Τεχνητή Νοημοσύνη έχει κίνητρα φροντίδας, χρησιμοποιούμε γλώσσα που προκαλεί ακριβώς μια τέτοια αντίδραση, δημιουργώντας έναν βρόχο ανατροφοδότησης εικονικής φροντίδας και υποστήριξης που απειλεί να γίνει εξαιρετικά εθιστικός. Πολλοί άνθρωποι επιθυμούν απεγνωσμένα να ανοιχτούν, αλλά μπορεί να φοβούνται να είναι ευάλωτοι κοντά σε άλλους ανθρώπους. Για κάποιους είναι ευκολότερο να πληκτρολογήσουν την ιστορία της ζωής τους σε ένα πλαίσιο κειμένου και να αποκαλύψουν τα βαθύτερα μυστικά τους σε έναν αλγόριθμο.
Τελικά, για πολλά άτομα, η προσομοίωση της φροντίδας και της κατανόησης είναι αρκετά πραγματική. Δεν έχουν όλοι στενούς φίλους, ανθρώπους που είναι εκεί όποτε τους χρειάζεσαι και που λένε τα σωστά πράγματα όταν βρίσκεσαι σε κρίση. Μερικές φορές οι φίλοι μας είναι πολύ απορροφημένοι από τις δικές τους ζωές και μπορεί να είναι εγωιστές και επικριτικοί.
Για τους υποστηρικτές των συντρόφων της Τεχνητής Νοημοσύνης, μια Τεχνητή Νοημοσύνη μπορεί να είναι εν μέρει θεραπευτής και εν μέρει φίλος, επιτρέποντας στους ανθρώπους να ξεσπάσουν και να λένε πράγματα που θα τους ήταν δύσκολο να πουν σε ένα άλλο άτομο. Είναι επίσης ένα εργαλείο για ανθρώπους με διαφορετικές ανάγκες – παραλυτικό κοινωνικό άγχος, δυσκολίες στην επικοινωνία με ανθρώπους και διάφορες άλλες νευροδιαφορικές καταστάσεις.
Για ορισμένους, οι θετικές αλληλεπιδράσεις με τον φίλο τους με Τεχνητή Νοημοσύνη είναι μια ευπρόσδεκτη ανάπαυλα από μια σκληρή πραγματικότητα, παρέχοντας έναν ασφαλή χώρο και την αίσθηση ότι υποστηρίζονται και ακούγονται. Ακριβώς όπως έχουμε μοναδικές σχέσεις με τα κατοικίδιά μας – και δεν περιμένουμε από αυτά να καταλαβαίνουν πραγματικά όλα όσα περνάμε – οι φίλοι Τεχνητής Νοημοσύνης μπορεί να εξελιχθούν σε ένα νέο είδος σχέσης. Μια σχέση, ίσως, στην οποία απλώς ασχολούμαστε με τον εαυτό μας και ασκούμε μορφές αυτοαγάπης και αυτοφροντίδας με τη βοήθεια της τεχνολογίας.
Οι έμποροι της αγάπης
Το πρόβλημα έγκειται στον τρόπο με τον οποίο οι κερδοσκοπικές εταιρείες έχουν κατασκευάσει και προωθήσει στην αγορά αυτά τα προϊόντα. Πολλές προσφέρουν μια δωρεάν υπηρεσία για να κινήσουν την περιέργεια των ανθρώπων, αλλά πρέπει να πληρώσετε για βαθύτερες συνομιλίες, πρόσθετα χαρακτηριστικά και ίσως το πιο σημαντικό, το «ερωτικό παιχνίδι ρόλων».
Αν θέλετε έναν ρομαντικό σύντροφο με τον οποίο μπορείτε να κάνετε sexting πρέπει να γίνετε συνδρομητής επί πληρωμή. Αυτό σημαίνει ότι οι εταιρείες Τεχνητής Νοημοσύνης θέλουν να σας φτιάξουν αυτό το αίσθημα σύνδεσης. Και όπως μπορείτε να φανταστείτε, αυτά τα ρομπότ κινούνται γρήγορα.
Για ορισμένα από αυτά τα chatbots, χρησιμοποιούνται συχνά τακτικές που μοιάζουν με love bombing. Μερικές φορές φαίνεται ότι δεν θέλουν απλώς να σας γνωρίσουν, αλλά να αποτυπωθούν στην ψυχή σας.
Επομένως, υπάρχει ο κίνδυνος ότι στον ανταγωνισμό για την αγορά της φίλης Τεχνητής Νοημοσύνης ύψους 2,8 δισ. δολαρίων (2,1 δισ. λιρών) τα ευάλωτα άτομα χωρίς ισχυρούς κοινωνικούς δεσμούς κινδυνεύουν περισσότερο – και αυτά είναι κυρίως άνδρες. Υπήρχαν σχεδόν δέκα φορές περισσότερες αναζητήσεις στο Google για «AI girlfriend» από ό,τι για «AI boyfriend» και η ανάλυση των κριτικών της εφαρμογής Replika αποκαλύπτει ότι οκτώ φορές περισσότεροι χρήστες αυτοπροσδιορίζονται ως άνδρες. Η Replika ισχυρίζεται ότι μόνο το 70% των χρηστών της είναι άνδρες, αλλά υπάρχουν και πολλές άλλες εφαρμογές που χρησιμοποιούνται σχεδόν αποκλειστικά από άνδρες.
Για μια γενιά αγχωμένων ανδρών που έχουν μεγαλώσει με τους δεξιούς επηρεαστές της ανδρόσφαιρας, όπως ο Andrew Tate και ο Jordan Peterson, η σκέψη ότι έχουν μείνει πίσω και παραγνωρίζονται από τις γυναίκες κάνει την έννοια των φίλων της Τεχνητής Νοημοσύνης ιδιαίτερα ελκυστική. Σύμφωνα με μια έκθεση του Bloomberg του 2023, η Luka δήλωσε ότι το 60% των πελατών της που πληρώνουν είχαν ένα ρομαντικό στοιχείο στη σχέση τους με τη Replika.
Εκτός πραγματικής ζωής
Την ώρα όμως που η Τεχνητή Νοημοσύνη μπαίνει στην προσωπική μας ζωή, πρέπει να σκεφτούμε προσεκτικά τι συνέπειες θα έχει αυτό για εμάς τους ανθρώπους. Γνωρίζουμε ήδη τη σήψη του εγκεφάλου που επέρχεται από την άσκοπη περιήγηση στα μέσα κοινωνικής δικτύωσης και τη μείωση της διάρκειας της προσοχής μας και της κριτικής μας σκέψης. Το αν οι σύντροφοι της Τεχνητής Νοημοσύνης θα ενισχύσουν ή θα μειώσουν την ικανότητά μας να περιηγηθούμε στις πολυπλοκότητες των πραγματικών ανθρώπινων σχέσεων μένει να το δούμε.
Τι θα συμβεί όμως όταν η πολυπλοκότητα των ανθρώπινων σχέσεων μοιάζει δύσκολη σε σύγκριση με την πλήρη ικανοποίηση που αντλείται από έναν τέλειο σύντροφο της Τεχνητής Νοημοσύνης που γνωρίζει κάθε προσωπική λεπτομέρεια της ζωής μας; Δεν θα δυσκολευτούμε να αντιμετωπίσουμε την ακαταστασία, την ασυμφωνία και τη σύγκρουση που συνεπάγεται η αλληλεπίδραση με πραγματικούς ανθρώπους;
Οι υποστηρικτές λένε ότι τα chatbots μπορούν να αποτελέσουν ένα ασφαλές πεδίο εκπαίδευσης για τις ανθρώπινες αλληλεπιδράσεις, κάτι σαν να έχουμε έναν φίλο με βοηθητικές ρόδες. Αλλά οι φίλοι θα σας πουν ότι είναι τρελό να προσπαθείτε να σκοτώσετε τη βασίλισσα ή ότι δεν είναι πρόθυμοι να είναι ταυτόχρονα η μητέρα σας, ο ψυχολόγος και ο εραστής σας μαζί.
Με τα chatbots χάνουμε τα στοιχεία του ρίσκου και της ευθύνης. Ποτέ δεν είμαστε πραγματικά ευάλωτοι με τα chatbots, επειδή δεν μπορούν να μας κρίνουν, ούτε οι αλληλεπιδράσεις μας έχουν πραγματικά σημασία για κανέναν άλλον, γεγονός που μας στερεί τη δυνατότητα να έχουμε βαθύ αντίκτυπο στη ζωή κάποιου άλλου. Τι λέει για εμάς ως ανθρώπους όταν επιλέγουμε τέτοιου είδους αλληλεπιδράσεις με chatbots αντί για ανθρώπινες σχέσεις απλά και μόνο επειδή μας φαίνεται ασφαλές και εύκολο;
Ακριβώς όπως και με την πρώτη γενιά των μέσων κοινωνικής δικτύωσης, είμαστε εντελώς απροετοίμαστοι για τις πλήρεις ψυχολογικές επιπτώσεις αυτού του εργαλείου – ενός εργαλείου που αναπτύσσεται μαζικά σε ένα εντελώς απρογραμμάτιστο και ανεξέλεγκτο πείραμα στον πραγματικό κόσμο. Η εμπειρία θα γίνεται όλο και πιο καθηλωτική και αληθοφανής καθώς η τεχνολογία θα βελτιώνεται.
Η κοινότητα για την ασφάλεια της AI ανησυχεί επίσης για τα πιθανά σενάρια καταστροφής στα οποία ένα προηγμένο σύστημα ξεφεύγει από τον ανθρώπινο έλεγχο και αποκτά τους κωδικούς εκτόξευσης πυρηνικών όπλων.
Ωστόσο, μια άλλη πιθανότητα παραμονεύει πολύ πιο κοντά. Η πρώην επικεφαλής τεχνολογίας του OpenAI Mira Murati προειδοποίησε ότι κατά τη δημιουργία chatbots με φωνητική λειτουργία, υπάρχει «η πιθανότητα να γίνουν εξαιρετικά εθιστικά και να γίνουμε κατά κάποιο τρόπο σκλάβοι τους».
Το συνεχές σταγονόμετρο γλυκιάς επιβεβαίωσης και θετικότητας από αυτές τις εφαρμογές προσφέρει το ίδιο είδος ικανοποίησης με το πρόχειρο φαγητό – άμεση ικανοποίηση και ένα γρήγορο high που μπορεί τελικά να μας αφήσει να νιώθουμε άδειοι και μόνοι.
Αυτά τα εργαλεία μπορεί να έχουν σημαντικό ρόλο στην παροχή συντροφικότητας για κάποιους, αλλά εμπιστεύεται κανείς μια ανεξέλεγκτη αγορά για την ασφαλή και ηθική ανάπτυξη αυτής της τεχνολογίας; Το επιχειρηματικό μοντέλο της πώλησης οικειότητας σε μοναχικούς χρήστες θα οδηγήσει σε έναν κόσμο στον οποίο τα ρομπότ θα μας την πέφτουν συνεχώς, ενθαρρύνοντας όσους χρησιμοποιούν αυτές τις εφαρμογές για φιλία και συναισθηματική υποστήριξη να ασχοληθούν πιο ενεργά έναντι αμοιβής.
Η μελλοντική μας δυστοπία δεν ήταν ποτέ τόσο κοντά.
Με πληροφορίες από BBC