Δεν θα διστάζαμε να νιώσουμε λύπη για ένα παιδί που του έπεσε το παγωτό ή για ένα σκυλί που κλαψουρίζει στην πόρτα. Αλλά τι γίνεται με μια μηχανή; Πιο συγκεκριμένα, ένα ρομπότ;

Μια πρόσφατη μελέτη εξετάζει αυτόν τον λιγότερο εξερευνημένο τομέα, όπου οι άνθρωποι εκδηλώνουν ενσυναίσθηση για ένα ρομπότ που δείχνει σημάδια δυσφορίας.

Ναι! Ζούμε σε αυτή την εποχή…

Η ερευνήτρια Marieke Wieringa από το Πανεπιστήμιο Radboud ανακάλυψε κάτι συναρπαστικό. Φαίνεται ότι εμείς οι άνθρωποι μπορούμε να νιώσουμε αρκετή ενσυναίσθηση για τα ρομποτικά μας «ομοιώματα». Μπορεί να μας «πονέσει η καρδιά» γι’ αυτά, μεταφορικά μιλώντας, φυσικά.

Σύμφωνα με τη μελέτη της, αρκούν μερικοί λυπητεροί ήχοι, λυπημένα ψηφιακά μάτια ή ένα τρεμάμενο μηχανικό χέρι για να ενεργοποιηθεί αυτή η αντίδραση.

Ρομπότ σε δυσφορία

Ξέρουμε βέβαια ότι τα ρομπότ δεν νιώθουν πόνο. Για την ακρίβεια δεν νιώθουν τίποτα, γιατί δεν είναι ζωντανά. Είναι απλά μηχανές, φτιαγμένες από καλώδια, μέταλλο, κώδικα και υπολογισμούς. Κι όμως, η μελέτη της Wieringa αμφισβητεί αυτή την ορθολογική αντίληψη. Υποστηρίζει ότι υπό κατάλληλες συνθήκες μπορούμε να πειστούμε ότι ένα ρομπότ μπορεί να βρίσκεται σε κατάσταση δυσφορίας.

«Αν ένα ρομπότ μπορεί να προσποιηθεί ότι βιώνει συναισθηματική δυσφορία, οι άνθρωποι αισθάνονται μεγαλύτερες τύψεις όταν το κακομεταχειρίζονται», εξηγεί η Wieringa. Πρόκειται για μια προσποιητή δυσφορία που προκαλεί ενοχή.

Πειράματα ενσυναίσθησης

Η Wieringa και η ομάδα της έστησαν αρκετά πειράματα για να μελετήσουν τις αντιδράσεις μας στην κακομεταχείριση των ρομπότ. Αυτό περιλάμβανε ένα αρκετά άβολο έργο για τους συμμετέχοντες. «Μερικοί συμμετέχοντες παρακολούθησαν βίντεο με ρομπότ που είτε τα κακομεταχειρίζονταν είτε τους φέρονταν καλά. Μερικές φορές ζητούσαμε από τους συμμετέχοντες να κουνήσουν οι ίδιοι τα ρομπότ», σημειώνει η Wieringa.

«Δοκιμάσαμε όλες τις παραλλαγές: μερικές φορές το ρομπότ δεν αντιδρούσε καθόλου, άλλες φορές αντιδρούσε — με ήχους λύπης και άλλες αντιδράσεις που συσχετίζουμε με πόνο».

Τα αποτελέσματα; Οι συμμετέχοντες ήταν πιο διστακτικοί να κουνήσουν ένα ρομπότ που έδειχνε σημάδια δυσφορίας, προκαλώντας τους συναισθήματα ενσυναίσθησης. «Αν ζητούσαμε από τους συμμετέχοντες να κουνήσουν ένα ρομπότ που δεν έδειχνε συναίσθημα, τότε δεν φαινόταν να έχουν κανένα πρόβλημα», πρόσθεσε η Wieringa.

Σε άλλο πείραμα, οι συμμετέχοντες είχαν να επιλέξουν. Θα μπορούσαν είτε να ολοκληρώσουν μια βαρετή εργασία είτε να κουνήσουν το ρομπότ. Η παγίδα ήταν ότι όσο περισσότερο κούναγαν το ρομπότ, τόσο λιγότερο χρόνο θα έκαναν την βαρετή εργασία.

Οι περισσότεροι προτίμησαν να κουνήσουν ένα ρομπότ που ήταν σιωπηλό, αλλά μόλις το ρομπότ άρχισε να βγάζει ήχους δυσφορίας, οι συμμετέχοντες προτίμησαν την ανιαρή εργασία.

Το φαινόμενο Tamagotchi

Θυμάστε το Tamagotchi; Το ηλεκτρονικό κατοικίδιο τσέπης που έγινε δημοφιλές στα τέλη της δεκαετίας του ’90;

Η Wieringa προειδοποιεί για ένα παρόμοιο φαινόμενο. «Οι άνθρωποι είχαν εμμονή με τα Tamagotchi για κάποιο διάστημα: εικονικά κατοικίδια που προκαλούσαν συναισθήματα. Αλλά τι θα συνέβαινε αν μια εταιρεία δημιουργούσε ένα νέο Tamagotchi που θα έπρεπε να πληρώσεις για να το ταΐσεις;» ρωτάει η Wieringa. Γι’ αυτό προτείνει κυβερνητικούς κανονισμούς που να ορίζουν πότε τα chatbots, τα ρομπότ και άλλες παρόμοιες τεχνολογίες μπορούν να εκφράζουν συναισθήματα.

Η ανησυχία είναι ότι οι επιχειρήσεις μπορεί να εκμεταλλευτούν την ευαισθησία μας σε συναισθηματικούς χειρισμούς, δημιουργώντας προϊόντα που δεν αποσκοπούν μόνο στην προσοχή μας αλλά και στη συμπάθεια και τα χρήματά μας.

Ηθικά διλήμματα της ψηφιακής ενσυναίσθησης

Τα ευρήματα της μελέτης της Wieringa ανοίγουν το κουτί της Πανδώρας γεμάτο ηθικά ερωτήματα. Αν οι άνθρωποι μπορούν να νιώσουν γνήσια ενσυναίσθηση προς ρομπότ που δείχνουν σημάδια δυσφορίας, θα έπρεπε τα ρομπότ να προγραμματίζονται με χαρακτηριστικά που να προκαλούν τέτοια συναισθήματα; Αυτό εγείρει ερωτήματα για τη συγκατάθεση και τον χειρισμό στις αλληλεπιδράσεις ανθρώπου-ρομπότ.

Είναι ηθικό να σχεδιάζουμε μηχανές που μπορούν να προκαλέσουν ενσυναίσθηση για να επηρεάσουν τη συμπεριφορά ή τις αποφάσεις των ανθρώπων; Καθώς η τεχνολογία της ρομποτικής και της τεχνητής νοημοσύνης συνεχίζει να εξελίσσεται, αυτά τα ερωτήματα γίνονται όλο και πιο σημαντικά.

Η ευθύνη για διασφάλιση ηθικών πρακτικών σχεδιασμού δεν βαραίνει μόνο τους προγραμματιστές αλλά και την κοινωνία στο σύνολό της, ενθαρρύνοντας αυστηρές συζητήσεις για τα ηθικά όρια της τεχνολογικής καινοτομίας.

Σχέσεις ανθρώπου-ρομπότ

Καθώς οδεύουμε προς ένα μέλλον όπου τα ρομπότ θα ενσωματώνονται όλο και περισσότερο στην καθημερινή ζωή, η κατανόηση των συναισθηματικών μας δεσμών με αυτά γίνεται ουσιαστική. Θα γίνουν τα ρομπότ σύντροφοι, όπως τα κατοικίδια ή ακόμη και φίλοι; Ή θα παραμείνουν εργαλεία, χωρίς καμία ουσιαστική σχέση;

Οι ψυχολογικές επιπτώσεις του να συνδεθούμε συναισθηματικά με τις μηχανές μπορεί να επαναπροσδιορίσουν τις κοινωνικές δυναμικές. Ερευνητές όπως η Wieringa αποσκοπούν στη διαλεύκανση αυτών των επιπτώσεων, βοηθώντας στην πλοήγηση στις πολυπλοκότητες αυτών των νέων σχέσεων.

Η συνειδητοποίηση αυτή είναι σημαντική καθώς οι βιομηχανίες εξερευνούν τη ρομποτική για την υγειονομική περίθαλψη, την εκπαίδευση και την προσωπική βοήθεια, όπου η ενσυναίσθηση μπορεί να διαδραματίσει καθοριστικό ρόλο στην ενίσχυση της ανθρώπινης εμπειρίας.

Με πληροφορίες από Earth