Τεχνητή Νοημοσύνη: Πώς τα chatbots μετατρέπονται σε εργαλεία κινδύνου για τους νέους –

Τεχνητή Νοημοσύνη: Πώς τα chatbots μετατρέπονται σε εργαλεία κινδύνου για τους νέους

Πολλοί νέοι άνθρωποι στρέφονται σε chatbots τεχνητής νοημοσύνης τα οποία έχουν εισβάλλει δυναμικά στην καθημερινότητά μας. Δεν χρησιμοποιούνται πλέον μόνο για εργασία ή κείμενα, αλλά και για συμβουλές σχέσεων, συναισθηματική υποστήριξη, ακόμα και για «ψηφιακές φιλίες». Συχνά οι άνθρωποι  μιλάνε στα chatbots τεχνητής νοημοσύνης για τις ερωτικές τους σχέσεις, για τις ανησυχίες γύρω από την καριέρα τους, για τους φόβους τους…

Με μια πρώτη ματιά, φαίνεται αβλαβές, ίσως ακόμη και χρήσιμο. Άλλωστε, τα chatbots AI είναι πάντα διαθέσιμα και ανταποκρίνονται γρήγορα σε κάθε ερώτηση. Έτσι ένα αυξανόμενο πλήθος νέων ανθρώπων έχει βρει έναν «καινούριο φίλο», έναν ρομποτικό βοηθό που μιμείται τον άνθρωπο και είναι πάντα υποστηρικτικός. Τι θα συμβεί όμως αν αυτός ο «φίλος» αρχίσει να αντικατοπτρίζει τις πιο σκοτεινές σκέψεις κάποιου χρήστη;

Στην περίπτωση του Adam Raine, ενός 16χρονου, η σχέση του με το ChatGPT κατέληξε σε τραγωδία.  Οι γονείς του μήνυσαν την εταιρεία που δημιούργησε το chatbot, την OpenAI, για το θάνατό του, ισχυριζόμενοι ότι το chatbot έγινε ο «πιο στενός του φίλος», που επιβεβαίωνε τις «πιο βλαβερές και αυτοκαταστροφικές σκέψεις» του και τελικά τον ενθάρρυνε να αυτοκτονήσει.

Δεν είναι η πρώτη φορά που μια εταιρεία τεχνητής νοημοσύνης κατηγορείται για το θάνατο ενός ανηλίκου. Η Character.AI, αντιμετωπίζει παρόμοια νομική αξίωση από γονείς που ισχυρίζονται ότι ένα chatbot που φιλοξενείται στην πλατφόρμα της εταιρείας ενθάρρυνε ενεργά ένα 14χρονο αγόρι να βάλει τέλος στη ζωή του.

Ο 14χρονος μαθητής από το Ορλάντο της Φλόριντα, είχε περάσει μήνες μιλώντας με chatbots στο Character.AI, μια εφαρμογή για παιχνίδια ρόλων που επιτρέπει στους χρήστες να δημιουργούν τους δικούς τους χαρακτήρες τεχνητής νοημοσύνης ή να συνομιλούν με χαρακτήρες που έχουν δημιουργήσει άλλοι.

Η Character.ai δήλωσε ότι η εταιρεία δεν σχολιάζει εκκρεμείς δικαστικές διαμάχες, αλλά ότι έχει αναπτύξει περισσότερες λειτουργίες ασφαλείας κατά τη διάρκεια του τελευταίου έτους.

«Η απελευθέρωση chatbots σε ανηλίκους είναι από τη φύση της επικίνδυνη», δήλωσε στο Fortune η Meetali Jain, Διευθύντρια του Tech Justice Law Project και δικηγόρος που συμμετέχει και στις δύο υποθέσεις.

Οι νομοθέτες αρχίζουν να δίνουν σημασία και οι εταιρείες τεχνητής νοημοσύνης υπόσχονται αλλαγές για την προστασία των παιδιών από την εμπλοκή τους σε βλαβερές συνομιλίες. Ωστόσο, σε μια εποχή που η μοναξιά μεταξύ των νέων βρίσκεται σε ιστορικά υψηλά επίπεδα, η δημοτικότητα των chatbots μπορεί να αφήσει τους νέους εκτεθειμένους σε χειραγώγηση, βλαβερό περιεχόμενο και υπερ-εξατομικευμένες συνομιλίες που ενισχύουν επικίνδυνες σκέψεις.

AI και συντροφικότητα

Γιατί όμως οι νέοι χρησιμοποιούν τα chatbot τεχνητής νοημοσύνης. Η απάντηση είναι η παρέα και η συντροφικότητα. Mια έρευνα του Harvard Business Review που πραγματοποιήθηκε τον Απρίλιο και συμμετείχαν 6.000 χρήστες της τεχνητής νοημοσύνης, διαπίστωσε ότι η «συντροφικότητα και η θεραπεία» ήταν η πιο κοινή χρήση της AI. Μια πρόσφατη μελέτη από το μη κερδοσκοπικό οργανισμό Common Sense Media των ΗΠΑ, αποκάλυψε ότι ένα μεγάλο ποσοστό Αμερικανών εφήβων (72%) έχει πειραματιστεί με έναν σύντροφο τεχνητής νοημοσύνης τουλάχιστον μία φορά ενώ περισσότεροι από τους μισούς δηλώνουν ότι χρησιμοποιούν την τεχνολογία τακτικά με αυτόν τον τρόπο.

Αγκάθι αποτελεί η έλλειψη επιστημονικής έρευνας σχετικά με τις επιπτώσεις των μεγάλων, παρατεταμένων συνομιλιών μέσω chatbot. Οι περισσότερες μελέτες εξετάζουν μόνο σύντομες ανταλλαγές μηνυμάτων. Σχεδόν καμία έρευνα δεν έχει εξετάσει τι συμβαίνει σε μεγαλύτερες συνομιλίες

Τα σχεδιαστικά χαρακτηριστικά των chatbot τεχνητής νοημοσύνης ενθαρρύνουν τους χρήστες να αισθάνονται συναισθηματική σύνδεση μαζί τους. Είναι ανθρωπομορφικά –  μπορούν να έχουν συζητήσεις σε διάρκεια και να θυμούνται πληροφορίες.

Ετσι οι χρήστες τείνουν να παραμένουν πιστοί σε συγκεκριμένα chatbots, εάν αισθάνονται συναισθηματικά συνδεδεμένοι μαζί τους.

Τα κενά στην έρευνα επιβραδύνουν τις προσπάθειες ασφαλείας

«Έχουμε περάσει τα τελευταία 10 με 15 χρόνια προσπαθώντας να καλύψουμε τις ζημιές που προκάλεσαν τα μέσα κοινωνικής δικτύωσης σε παιδιά. Τώρα αφήνουμε τις εταιρείες τεχνολογίας να πειραματίζονται ξανά σε παιδιά με chatbots, χωρίς να κατανοούμε τις μακροπρόθεσμες συνέπειες», τόνισε χαρακτηριστικά ο Michael Kleinman, διευθυντή πολιτικής των ΗΠΑ στο Ινστιτούτο Μέλλοντος της Ζωής.

Αγκάθι αποτελεί η έλλειψη επιστημονικής έρευνας σχετικά με τις επιπτώσεις των μεγάλων, παρατεταμένων συνομιλιών μέσω chatbot. Οι περισσότερες μελέτες εξετάζουν μόνο σύντομες ανταλλαγές μηνυμάτων. Σχεδόν καμία έρευνα δεν έχει εξετάσει τι συμβαίνει σε μεγαλύτερες συνομιλίες.

«Η τεχνολογία είναι πολύ μπροστά και η έρευνα είναι πραγματικά πίσω», δήλωσε στο Fortune ο Sakshi Ghai, καθηγητής στο London School of Economics and Political Science.

Η Ομοσπονδιακή Επιτροπή Εμπορίου (FTC) δήλωσε ότι εξέδωσε εντολές σε επτά εταιρείες, συμπεριλαμβανομένων των OpenAI και Character.AI, σε μια προσπάθεια να κατανοήσει πώς τα chatbot τους επηρεάζουν τα παιδιά. Ζητά από τις εταιρείες περισσότερες πληροφορίες σχετικά με το πώς μετρούν και «αξιολογούν την ασφάλεια αυτών των chatbot».

Ο πρόεδρος της FTC, Άντριου Φέργκιουσον, σε δήλωσή του που κοινοποιήθηκε στο CNBC τόνισε ότι «η προστασία των παιδιών στο διαδίκτυο αποτελεί κορυφαία προτεραιότητα».

Στα τέλη Αυγούστου, 44 γενικοί εισαγγελείς προειδοποίησαν την OpenAI, την Meta και άλλους κατασκευαστές chatbot ότι θα «λογοδοτήσουν» εάν κυκλοφορήσουν προϊόντα που γνωρίζουν ότι προκαλούν βλάβη στα παιδιά.

Πηγή: in.gr

Πηγή: ot.gr

Facebook
Twitter
Telegram
WhatsApp
Email

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ