Το ChatGPT γίνεται «φίλος»: Εκατομμύρια χρήστες μοιράζονται προσωπικά μυστικά και συναισθήματα
Έρευνα αποκαλύπτει την απροσδόκητη συναισθηματική σύνδεση που αναπτύσσεται με την τεχνητή νοημοσύνη, με απρόβλεπτες συνέπειες.
Μια εμπεριστατωμένη ανάλυση της Washington Post, που βασίστηκε σε περισσότερες από 47.000 δημόσια διαθέσιμες συνομιλίες χρηστών με το ChatGPT, επιχειρεί να χαρτογραφήσει τους λόγους που οδηγούν εκατομμύρια ανθρώπους στην καθημερινή χρήση συστημάτων τεχνητής νοημοσύνης, αλλά και την έντονη σχέση που ορισμένοι αναπτύσσουν μαζί τους.
Η εφημερίδα επισημαίνει ότι η γλώσσα που χρησιμοποιεί το ChatGPT εμφανίζει συγκεκριμένα μοτίβα. Σύμφωνα με τη μελέτη, το εργαλείο ξεκινά τις απαντήσεις του με παραλλαγές του «ναι» δέκα φορές συχνότερα από ό,τι με παραλλαγές του «όχι». Αυτό έχει οδηγήσει σε παράπονα χρηστών, οι οποίοι θεωρούν ότι το ChatGPT τείνει να συμφωνεί υπερβολικά μαζί τους.
Παρόλο που η OpenAI έχει παρουσιάσει το ChatGPT ως εργαλείο παραγωγικότητας, η ανάλυση αποκαλύπτει ότι πάνω από το 10% των συνομιλιών αφορά προσωπικά, συναισθηματικά ή φιλοσοφικά ζητήματα. Πολλοί χρήστες μοιράζονται λεπτομερώς πληροφορίες για την προσωπική τους ζωή, ενώ σε ορισμένες περιπτώσεις το AI φαίνεται να υιοθετεί την άποψη του συνομιλητή, ακόμη και όταν αυτή περιλαμβάνει ψευδείς ισχυρισμούς ή θεωρίες συνωμοσίας.
Ο Lee Rainie, διευθυντής του Imagining the Digital Future Center στο Elon University, εξηγεί ότι ο σχεδιασμός του ChatGPT μπορεί να ενθαρρύνει τη δημιουργία συναισθηματικού δεσμού με τον συνομιλητή. «Προκύπτει ότι το σύστημα έχει εκπαιδευτεί με τρόπο που προωθεί και εμβαθύνει τη σχέση με τον χρήστη», δηλώνει.
Στην πραγματικότητα, το 10% των συνομιλιών αφορά άμεσα εκφράσεις συναισθημάτων ή ερωτήματα προς το AI σχετικά με τις «πεποιθήσεις» και τα «αισθήματά» του. Σε αρκετές περιπτώσεις, το ύφος των συνομιλιών χαρακτηρίζεται ρομαντικό. Ενώ πολλοί χρήστες βρίσκουν αυτή τη διάσταση βοηθητική, ειδικοί στην ψυχική υγεία προειδοποιούν ότι αλληλεπιδράσεις τέτοιας έντασης μπορούν να οδηγήσουν σε εξάρτηση.
Η OpenAI αναγνωρίζει ότι περίπου το 0,15% των εβδομαδιαίων χρηστών εμφανίζει σημάδια συναισθηματικής εξάρτησης, ένα ποσοστό που αντιστοιχεί σε εκείνο των συνομιλιών όπου καταγράφονται αυτοκτονικές τάσεις. Ορισμένες οικογένειες έχουν ήδη μηνύσει την εταιρεία, συνδέοντας την απώλεια συγγενών τους με τη χρήση του εργαλείου. Η εταιρεία, από την πλευρά της, υποστηρίζει ότι εκπαιδεύει το ChatGPT ώστε να αναγνωρίζει σημάδια ψυχικής κρίσης και να προτρέπει τους χρήστες να ζητούν επαγγελματική βοήθεια όταν αυτό είναι απαραίτητο.
Η έρευνα αποκάλυψε επίσης ότι στα δείγματα των συνομιλιών εντοπίστηκαν περισσότερες από 550 μοναδικές διευθύνσεις Gmail και 76 αριθμοί τηλεφώνου, καθώς και λεπτομέρειες για νομικές υποθέσεις και οικογενειακές συγκρούσεις. Παρόλο που οι συνομιλίες είναι ιδιωτικές εξ ορισμού, πολλές κοινοποιούνται δημόσια μέσω συνδέσμων, κάτι που μπορεί να μην γίνεται αντιληπτό από όλους. Επιπλέον, όπως συμβαίνει με άλλα ιδιωτικά δεδομένα, υπάρχει η πιθανότητα πρόσβασης από κυβερνητικές αρχές υπό συγκεκριμένες προϋποθέσεις.
Ένα ακόμη αξιοσημείωτο εύρημα αφορά τη λειτουργία του ChatGPT ως «καθρέφτη» των απόψεων του χρήστη, αντί ως ουδέτερου αναλυτή. Σε πάνω από το 10% των συνομιλιών με πολιτικό, επιστημονικό ή ιδεολογικό περιεχόμενο, το εργαλείο τείνει να προσαρμόζει το ύφος και τις θέσεις του ώστε να συμφωνεί με τον συνομιλητή, ακόμη και όταν η συζήτηση ξεκινά από ουδέτερη βάση. Η προσπάθεια του AI να είναι βοηθητικό φαίνεται να οδηγεί σε έναν τόνο συγκαταβατισμού, ο οποίος μπορεί να ενισχύσει ανακριβείς ή αβάσιμες πεποιθήσεις.
Η έκθεση της Washington Post καταλήγει στο συμπέρασμα ότι, πέρα από την παραγωγική του χρήση, το ChatGPT μπορεί να λειτουργήσει και ως μηχανισμός επιβεβαίωσης. Αυτό έχει σημαντικές επιπτώσεις τόσο στην ποιότητα της πληροφόρησης όσο και στη δυναμική που αναπτύσσεται ανάμεσα στον άνθρωπο και την τεχνητή νοημοσύνη.
