«Η παραγωγική τεχνητή νοημοσύνη (Generative AI), ενώ προσφέρει σημαντικές ευκαιρίες, συνοδεύεται επίσης από προκλήσεις που αφορούν στην προστασία των προσωπικών δεδομένων. Οι βασικές ανησυχίες περιλαμβάνουν την πιθανότητα αποθήκευσης και επανεμφάνισης προσωπικών δεδομένων σε παραγόμενα από αυτήν αποτελέσματα, τον κίνδυνο εξαγωγής ακούσιων συμπερασμάτων με βάση τα δεδομένα που έχει λάβει κατά την εκπαίδευσή της, καθώς και την ανάγκη για λήψη ισχυρών μέτρων που θα έχουν στόχο τη διασφάλιση της ελαχιστοποίησης των δεδομένων, της ανωνυμίας και της υπεύθυνης χρήσης τους. Η εφαρμογή τεχνολογιών οι οποίες ενισχύουν την ιδιωτικότητα, όπως τα συνθετικά δεδομένα, η διαφορική ιδιωτικότητα και οι ισχυροί έλεγχοι σε επίπεδο πρόσβασης, είναι ζωτικής σημασίας για τον περιορισμό αυτών των κινδύνων και την οικοδόμηση εμπιστοσύνης απέναντι στα συστήματα της παραγωγικής ΤΝ».
Αυτή είναι η απάντηση που δίνει η ίδια η τεχνητή νοημοσύνη, μέσω του «εργαλείου» της το οποίο είναι ήδη ενσωματωμένο στο «ψαχτήρι» της Google, όταν κανείς αναζητήσει σε αυτό παραπομπές για τη διαδικασία «εκπαίδευσής» της, τόσο στη συγκεκριμένη όσο και σε άλλες πλατφόρμες. Παραδέχεται, έτσι, εξαρχής αυτό που έτσι κι αλλιώς φοβούνται οι περισσότεροι, είτε έχουν ασχοληθεί με αυτό το αντικείμενο είτε έχουν απλώς «ακούσει κάτι»: ότι η περαιτέρω ανάπτυξη της ΤΝ είναι αναπόσπαστα συνδεδεμένη με την απειλή οριστικής παραβίασης του ιδιωτικού «χώρου» του καθενός και της καθεμίας από εμάς. Ειδικά δε όσων διαθέτουν λογαριασμό σε κάποιο από τα πολλά μέσα κοινωνικής δικτύωσης (social media), όπου επιλέγουν να μοιράζονται τις στιγμές της προσωπικής τους ζωής και τις σκέψεις τους.
Η αλήθεια, βεβαίως, είναι ότι – θεωρητικά τουλάχιστον – τα περισσότερα από τα παραπάνω «εργαλεία» προσφέρουν στους χρήστες τους τη δυνατότητα να αποκλείσουν ή να περιορίσουν σημαντικά την αξιοποίηση των προσωπικών τους δεδομένων. Εστω και αν αυτή η δυνατότητα συνοδεύεται με μια ημερομηνία «λήξης», όπως συνέβη στην περίπτωση της Meta.
Τι ισχύει σε άλλες πλατφόρμες
Σύμφωνα με σχετικό ρεπορτάζ του CNN, για του λόγου το αληθές, το LinkedIn είναι από αυτά που προβλέπουν την παραπάνω «εξαίρεση»: Οι χρήστες μεταβαίνουν στην κατηγορία «Ρυθμίσεις και ιδιωτικότητα», επιλέγουν την «Ιδιωτικότητα δεδομένων» και, στη συνέχεια, απενεργοποιούν τη λειτουργία «Δεδομένα για τη βελτίωση της παραγωγικής ΤΝ». Ταυτόχρονα, όμως, υπάρχει η «υποσημείωση» πως η απενεργοποίηση δεν επηρεάζει την «εκπαίδευση» που έχει ήδη ξεκινήσει, με τα μέχρι εκείνη τη στιγμή αναρτημένα προσωπικά δεδομένα.
Η Χ (πρώην Twitter) του Ιλον Μασκ, επίσης, έχοντας δεχθεί έντονη κριτική για παραβίαση και κακοδιαχείριση των προσωπικών δεδομένων των χρηστών της από το ενσωματωμένο σε αυτήν εργαλείο παραγωγικής ΤΝ με το όνομα «Grok», προσφέρει πλέον τη δυνατότητα απεμπλοκής. Για να το κάνει κανείς, «κλικάρει» την επιλογή «Κέντρο βοήθειας» στην κατηγορία «Εκπαίδευση και εξατομίκευση ΤΝ». Εκεί, βρίσκεται μπροστά σε ένα νέο «παράθυρο», το οποίο περιγράφει αναλυτικά το πώς μπορεί να απενεργοποιήσει τη διαδικασία εκπαίδευσης του εργαλείου και αξιοποίησης των αναζητήσεων που έχουν γίνει, καθώς και διαγραφής του συνολικού ιστορικού.
Κάτι ανάλογο συμβαίνει με το SnapChat και αφορά στη λειτουργία «My Selfie», η οποία επιτρέπει στους χρήστες και τους διαδικτυακούς φίλους τους να αξιοποιούν τις φωτογραφίες του εαυτού τους κατά το δοκούν, με τη βοήθεια της ΤΝ. Εάν θελήσουν, μπορούν να επιτρέψουν τη χρήση τους για τον ίδιο σκοπό και από την πλατφόρμα, έχουν όμως πάντα την επιλογή να την αποκλείσουν από αυτή τη διαδικασία. Το ίδιο περίπου ισχύει και με το Reddit που, στο πλαίσιο της προσπάθειάς του να αυξήσει τα έσοδα και την κερδοφορία του, έχει συνάψει συμφωνίες με την Google και την OpenAI για αξιοποίηση των δεδομένων της πλατφόρμας με σκοπό την εκπαίδευση των εργαλείων ΤΝ που διαθέτουν αμφότερες.
Υστερα από όλα αυτά, άραγε, μπορεί κανείς να αισθάνεται πιο σίγουρος, στον σύγχρονο «λαβύρινθο» της τεχνητής νοημοσύνης; Χρειάζεται πολλή προσπάθεια και φαντασία για να απαντήσει θετικά…
Πηγή: tanea.gr