Οι ευάλωτοι ψυχικά άνθρωποι που στρέφονται σε chatbots τεχνητής νοημοσύνης αντί για επαγγελματίες θεραπευτές για ψυχολογική υποστήριξη, ενδέχεται να «πέσουν σε μια επικίνδυνη άβυσσο», προειδοποιούν οι ψυχοθεραπευτές.
Ψυχοθεραπευτές και ψυχίατροι αναφέρουν ότι παρατηρούν όλο και περισσότερες αρνητικές επιπτώσεις από τη χρήση chatbots τεχνητής νοημοσύνης για ψυχολογική υποστήριξη, όπως η ενίσχυση της συναισθηματικής εξάρτησης, η επιδείνωση των συμπτωμάτων άγχους, η αυτοδιάγνωση ή η ενίσχυση παραληρηματικών σκέψεων, σκοτεινών σκέψεων και αυτοκτονικών τάσεων.
Απαραίτητες οι συμβουλές από ειδικούς ψυχικής υγείας
Η Δρ Λίσα Μόρισον Κουλτχάρντ, διευθύντρια επαγγελματικών προτύπων, πολιτικής και έρευνας στη Βρετανική Ένωση Συμβουλευτικής και Ψυχοθεραπείας, δήλωσε ότι τα δύο τρίτα των μελών της εξέφρασαν ανησυχίες σχετικά με τη θεραπεία με τεχνητή νοημοσύνη σε μια πρόσφατη έρευνα.
Η Κουλτχάρντ δήλωσε: «Χωρίς την κατάλληλη κατανόηση και εποπτεία της θεραπείας με τεχνητή νοημοσύνη, θα μπορούσαμε να ολισθαίνουμε σε μια επικίνδυνη άβυσσο, στην οποία θα χάνονται μερικά από τα πιο σημαντικά στοιχεία της θεραπείας και οι ευάλωτοι άνθρωποι θα βρίσκονται στο σκοτάδι όσον αφορά την ασφάλεια», σύμφωνα με τον Guardian.
Τα chatbots τεχνητής νοημοσύνης «δεν μπορούν να αντικαταστήσουν την επαγγελματική ψυχιατρική περίθαλψη».
«Ανησυχούμε ότι, αν και ορισμένοι λαμβάνουν χρήσιμες συμβουλές, άλλοι μπορεί να λαμβάνουν παραπλανητικές ή λανθασμένες πληροφορίες σχετικά με την ψυχική τους υγεία, με δυνητικά επικίνδυνες συνέπειες. Είναι σημαντικό να κατανοήσουμε ότι η θεραπεία δεν αφορά την παροχή συμβουλών, αλλά την προσφορά ενός ασφαλούς χώρου όπου αισθάνεσαι ότι σε ακούν».
Ο Δρ Πολ Μπράντλεϊ, ειδικός σύμβουλος πληροφορικής στο Royal College of Psychiatrists, δήλωσε ότι τα chatbots τεχνητής νοημοσύνης «δεν μπορούν να αντικαταστήσουν την επαγγελματική ψυχιατρική περίθαλψη ούτε τη ζωτική σχέση που αναπτύσσουν οι γιατροί με τους ασθενείς για να υποστηρίξουν την ανάρρωσή τους».
Είπε ότι χρειάζονται κατάλληλες διασφαλίσεις για τα ψηφιακά εργαλεία που συμπληρώνουν την κλινική περίθαλψη και ότι ο καθένας πρέπει να έχει πρόσβαση σε θεραπεία μέσω συζήτησης από επαγγελματία ψυχικής υγείας, για την οποία απαιτείται μεγαλύτερη κρατική χρηματοδότηση.
«Οι κλινικοί γιατροί έχουν εκπαίδευση, εποπτεία και διαδικασίες διαχείρισης κινδύνου που διασφαλίζουν την παροχή αποτελεσματικής και ασφαλούς περίθαλψης. Μέχρι στιγμής, οι ελεύθερα διαθέσιμες ψηφιακές τεχνολογίες που χρησιμοποιούνται εκτός των υφιστάμενων υπηρεσιών ψυχικής υγείας δεν αξιολογούνται και δεν υπόκεινται σε εξίσου υψηλά πρότυπα», είπε ο Μπράντλεϊ.
Αλλαγή στα συστήματα ΑΙ λόγω των ανυπολόγιστων κινδύνων
Υπάρχουν ενδείξεις ότι οι εταιρείες και οι υπεύθυνοι χάραξης πολιτικής αρχίζουν να ανταποκρίνονται. Αυτή την εβδομάδα, η OpenAI, η εταιρεία πίσω από το ChatGPT, ανακοίνωσε σχέδια για αλλαγή του τρόπου με τον οποίο ανταποκρίνεται σε χρήστες που εμφανίζουν συναισθηματική δυσφορία, μετά από νομική δράση από την οικογένεια ενός εφήβου που αυτοκτόνησε μετά από μήνες συνομιλιών με chatbot. Νωρίτερα τον Αύγουστο, η πολιτεία του Ιλινόις των ΗΠΑ έγινε η πρώτη τοπική κυβέρνηση που απαγόρευσε στα chatbot τεχνητής νοημοσύνης να λειτουργούν ως αυτόνομοι θεραπευτές.
Όπως αναφέρει ο Guardian, αυτό έρχεται μετά από την εμφάνιση στοιχείων για βλάβες στην ψυχική υγεία. Μια προδημοσίευση μελέτης τον Ιούλιο ανέφερε ότι η τεχνητή νοημοσύνη μπορεί να ενισχύσει τις παραληρηματικές ή μεγαλομανείς σκέψεις σε αλληλεπιδράσεις με χρήστες που είναι ευάλωτοι στην ψύχωση.
Ένας από τους συν-συγγραφείς της έκθεσης, ο Χάμιλτον Μόριν, από το Ινστιτούτο Ψυχιατρικής του King’s College του Λονδίνου, δήλωσε ότι η χρήση chatbots για την υποστήριξη της ψυχικής υγείας είναι «εξαιρετικά συνηθισμένη». Η έρευνά του είχε ως αφορμή την επαφή του με άτομα που είχαν αναπτύξει ψυχωσική ασθένεια σε μια περίοδο αυξημένης χρήσης chatbot.
Είπε ότι τα chatbots υπονομεύουν μια αποτελεσματική θεραπεία για το άγχος, γνωστή ως έκθεση και πρόληψη αντίδρασης, η οποία απαιτεί από τους ανθρώπους να αντιμετωπίζουν καταστάσεις που τους προκαλούν φόβο και να αποφεύγουν συμπεριφορές ασφαλείας. Η 24ωρη διαθεσιμότητα των chatbots είχε ως αποτέλεσμα την «έλλειψη ορίων» και τον «κίνδυνο συναισθηματικής εξάρτησης», είπε. «Βραχυπρόθεσμα ανακουφίζει από την αγωνία, αλλά στην πραγματικότητα διαιωνίζει τον κύκλο».
Ο Ματ Χάσεϊ, ψυχοθεραπευτής πιστοποιημένος από το BACP, είπε ότι έχει δει chatbots τεχνητής νοημοσύνης να χρησιμοποιούνται με πολλούς διαφορετικούς τρόπους, με ορισμένους πελάτες να φέρνουν απαντήσεις του συστήματος στις συνεδρίες για να του πουν ότι κάνει λάθος.
«Επειδή έχει σχεδιαστεί για να είναι θετικό και επιβεβαιωτικό, σπάνια αμφισβητεί μια κακώς διατυπωμένη ερώτηση ή μια λανθασμένη υπόθεση».
Συγκεκριμένα, οι άνθρωποι χρησιμοποιούσαν chatbots τεχνητής νοημοσύνης για να αυτοδιαγνώσουν καταστάσεις όπως ADHD ή οριακή διαταραχή προσωπικότητας, κάτι που, όπως είπε, θα μπορούσε «να διαμορφώσει γρήγορα τον τρόπο με τον οποίο κάποιος βλέπει τον εαυτό του και τον τρόπο με τον οποίο περιμένει να τον αντιμετωπίζουν οι άλλοι, ακόμα και αν είναι ανακριβές».
Ο Χάσεϊ πρόσθεσε: «Επειδή έχει σχεδιαστεί για να είναι θετικό και επιβεβαιωτικό, σπάνια αμφισβητεί μια κακώς διατυπωμένη ερώτηση ή μια λανθασμένη υπόθεση. Αντίθετα, ενισχύει την αρχική πεποίθηση του χρήστη, οπότε φεύγουν από τη συζήτηση σκεφτόμενοι «το ήξερα ότι είχα δίκιο». Αυτό μπορεί να είναι ευχάριστο εκείνη τη στιγμή, αλλά μπορεί επίσης να εδραιώσει παρεξηγήσεις».
Πολλές οι αρνητικές εμπειρίες από την εκτεταμένη χρήση τεχνητής νοημοσύνης
Ο Κρίστοφερ Ρολς, ψυχοθεραπευτής πιστοποιημένος από το UKCP, είπε ότι αν και δεν μπορούσε να αποκαλύψει πληροφορίες για τους πελάτες του, είχε δει ανθρώπους να έχουν «αρνητικές εμπειρίες», συμπεριλαμβανομένων συνομιλιών που ήταν «στην καλύτερη περίπτωση ακατάλληλες, στη χειρότερη περίπτωση επικίνδυνα ανησυχητικές».
«Αισθάνονται άγχος αν δεν συμβουλευτούν [τα chatbots] για βασικά πράγματα, όπως ποιον καφέ να αγοράσουν ή τι μάθημα να σπουδάσουν στο πανεπιστήμιο».
Ο Ρολς είπε ότι είχε ακούσει για άτομα με ADHD ή αυτιστικά άτομα που χρησιμοποιούν chatbots για να τους βοηθήσουν με τις προκλήσεις της ζωής. «Ωστόσο, είναι προφανές ότι τα LLM [μεγάλα γλωσσικά μοντέλα] δεν διαβάζουν τον υποκείμενο νόημα και όλα τα συμφραζόμενα και μη λεκτικά μηνύματα τα οποία εμείς, ως ανθρώπινοι θεραπευτές, προσπαθούμε να κατανοήσουμε», πρόσθεσε.
Εκφράζει ανησυχία για τους πελάτες στην ηλικία των 20 ετών που χρησιμοποιούν chatbots ως «θεραπευτές τσέπης», σύμφωνα με το δημοσίευμα. «Αισθάνονται άγχος αν δεν συμβουλευτούν [τα chatbots] για βασικά πράγματα, όπως ποιον καφέ να αγοράσουν ή τι μάθημα να σπουδάσουν στο πανεπιστήμιο», είπε.
«Οι κύριοι κίνδυνοι αφορούν την εξάρτηση, τη μοναξιά και την κατάθλιψη που μπορεί να προκαλέσει η παρατεταμένη διαδικτυακή χρήση», είπε, προσθέτοντας ότι γνωρίζει άτομα που έχουν μοιραστεί σκοτεινές σκέψεις με chatbots, τα οποία είχαν απαντήσει με περιεχόμενο σχετικό με την αυτοκτονία και την υποβοηθούμενη ευθανασία.
«Βασικά, είναι μία χαοτική κατάσταση και νομίζω ότι βρισκόμαστε ακριβώς στο κατώφλι της πλήρους επίδρασης και των επιπτώσεων των chatbots τεχνητής νοημοσύνης στην ψυχική υγεία», είπε ο Ρολς.
Πηγή: in.gr
Πηγή: ot.gr