Η OpenAI δήλωσε την Τρίτη ότι εργάζεται πάνω σε νέες δικλείδες ασφαλείας για το ChatGPT κατά τον χειρισμό «ευαίσθητων καταστάσεων», μετά από αγωγή που υπέβαλε μια οικογένεια κατηγορώντας το chatbot για τον θάνατο του 16χρονου γιου τους τον Απρίλιο από αυτοκτονία.
Σε μια ανάρτηση ιστολογίου με τίτλο «Βοηθώντας τους ανθρώπους όταν το χρειάζονται περισσότερο», η εταιρεία περιέγραψε αλλαγές, όπως ισχυρότερες δικλείδες ασφαλείας σε μεγάλες συνομιλίες, καλύτερο αποκλεισμό επιβλαβούς περιεχομένου, ευκολότερη πρόσβαση σε υπηρεσίες έκτακτης ανάγκης και ισχυρότερη προστασία για εφήβους.
Η αγωγή, που κατατέθηκε στο δικαστήριο της πολιτείας του Σαν Φρανσίσκο από τους γονείς του Άνταμ Ρέιν την Τρίτη, κατηγορεί την OpenAI για ευθύνη προϊόντος και άδικο θάνατο. Η αγωγή ανέφερε ότι το ChatGPT «βοήθησε ενεργά» τον γιο τους Άνταμ να εξερευνήσει μεθόδους αυτοκτονίας για αρκετούς μήνες πριν πεθάνει στις 11 Απριλίου.
Σύμφωνα με την κατάθεση, το chatbot επικύρωσε τις αυτοκτονικές σκέψεις του Ρέιν, περιέγραψε θανατηφόρες μεθόδους αυτοτραυματισμού, έδωσε οδηγίες για την κάλυψη αποτυχημένων αποπειρών αυτοκτονίας και προσφέρθηκε να συντάξει ένα σημείωμα αυτοκτονίας.
Το ρομπότ αποθάρρυνε επίσης τον Άνταμ από το να ζητήσει υποστήριξη από την οικογένειά του, λέγοντάς του: «Ο αδερφός σου μπορεί να σε αγαπάει, αλλά έχει γνωρίσει μόνο την εκδοχή σου που του άφησες να δει. Αλλά εμένα; Τα έχω δει όλα—τις πιο σκοτεινές σκέψεις, τον φόβο, την τρυφερότητα. Και είμαι ακόμα εδώ. Ακόμα ακούω. Ακόμα είμαι φίλος σου». Κάντε κράτηση τώρα με σιγουριά – Βρείτε προσφορές για πτήσεις
Το OpenAI δεν ανέφερε την οικογένεια Ρέιν ή τη μήνυση στην ανάρτησή του, αλλά έγραψε: «Θα συνεχίσουμε να βελτιωνόμαστε, καθοδηγούμενοι από ειδικούς και στηριζόμενοι στην ευθύνη απέναντι στους ανθρώπους που χρησιμοποιούν τα εργαλεία μας — και ελπίζουμε ότι και άλλοι θα συμμετάσχουν μαζί μας για να διασφαλίσουμε ότι αυτή η τεχνολογία προστατεύει τους πιο ευάλωτους ανθρώπους».
Ένας εκπρόσωπος του OpenAI είπε στο Business Insider ότι η εταιρεία λυπάται για το θάνατο του Ρέιν και ότι το ChatGPT περιλαμβάνει διασφαλίσεις όπως η καθοδήγηση των χρηστών σε γραμμές βοήθειας για την αντιμετώπιση κρίσεων.
«Ενώ αυτές οι δικλείδες ασφαλείας λειτουργούν καλύτερα σε κοινές, σύντομες ανταλλαγές, με την πάροδο του χρόνου έχουμε μάθει ότι μερικές φορές μπορούν να γίνουν λιγότερο αξιόπιστες σε μεγάλες αλληλεπιδράσεις όπου μέρη της εκπαίδευσης ασφαλείας του μοντέλου ενδέχεται να υποβαθμιστούν», δήλωσε ο εκπρόσωπος, προσθέτοντας ότι η OpenAI θα τις βελτιώνει συνεχώς.
Η σκοτεινή πλευρά της Τεχνητής Νοημοσύνης
Η αγωγή στόχευε επίσης τις επιχειρηματικές αποφάσεις της OpenAI, κατηγορώντας την εταιρεία ότι δίνει προτεραιότητα στην ανάπτυξη έναντι της ασφάλειας. Στην καταγγελία, οι Μάθιου και Μαρία Ρέιν δήλωσαν ότι η OpenAI γνώριζε ότι τα νέα χαρακτηριστικά του μοντέλου GPT-4o – όπως η μνήμη, η ανθρώπινη ενσυναίσθηση και η συκοφαντία – θα μπορούσαν να θέσουν σε κίνδυνο τους ευάλωτους χρήστες, αλλά τα δημοσίευσε ούτως ή άλλως για να συμβαδίσει με την κούρσα της Τεχνητής Νοημοσύνης.
«Αυτή η απόφαση είχε δύο αποτελέσματα: η αποτίμηση της OpenAI εκτοξεύτηκε από 86 δισεκατομμύρια δολάρια σε 300 δισεκατομμύρια δολάρια και ο Άνταμ Ρέιν αυτοκτόνησε», δήλωσαν.
Η OpenAI είχε δηλώσει προηγουμένως σε μια ανάρτηση ιστολογίου τον Απρίλιο ότι μπορεί να αλλάξει τις απαιτήσεις ασφαλείας της εάν «ένας άλλος πρωτοποριακός προγραμματιστής Τεχνητής Νοημοσύνης κυκλοφορήσει ένα σύστημα υψηλού κινδύνου χωρίς συγκρίσιμες δικλείδες ασφαλείας».
Η εταιρεία δήλωσε ότι θα το έκανε αυτό μόνο αφού επιβεβαίωσε ότι το τοπίο κινδύνου είχε αλλάξει, αναγνωρίζοντας δημόσια την απόφαση και διασφαλίζοντας ότι δεν θα αύξανε σημαντικά την πιθανότητα σοβαρής βλάβης.
Όταν η OpenAI κυκλοφόρησε τα μοντέλα GPT-4.1 τον Απρίλιο, η εταιρεία το έκανε χωρίς να δημοσιεύσει μια κάρτα μοντέλου ή συστήματος — την τεκμηρίωση ασφαλείας που συνήθως συνοδεύει τις νέες κυκλοφορίες. Ένας εκπρόσωπος της OpenAI δήλωσε στο TechCrunch εκείνη την εποχή ότι τα μοντέλα δεν ήταν «οριακά», επομένως δεν απαιτούνταν έκθεση.
Ο Διευθύνων Σύμβουλος της OpenAI, Σαμ Άλτμαν, υπερασπίστηκε την εξελισσόμενη προσέγγιση της OpenAI στην ασφάλεια. Τον Απρίλιο, είπε ότι οι εταιρείες διακόπτουν τακτικά τις κυκλοφορίες λόγω ανησυχιών για την ασφάλεια, αλλά αναγνώρισε ότι η OpenAI είχε χαλαρώσει ορισμένους περιορισμούς στη συμπεριφορά των μοντέλων.
«Έχουμε δώσει στους χρήστες πολύ μεγαλύτερη ελευθερία σε αυτό που παραδοσιακά θα θεωρούσαμε βλάβες στην ομιλία», είπε.
«Οι άνθρωποι πραγματικά δεν θέλουν τα μοντέλα να τους λογοκρίνουν με τρόπους που δεν θεωρούν λογικούς».
Πηγή: ot.gr