Teneo: Μέγας κίνδυνος για τον κόσμο τα Deepfakes, πως επηρεάζουν τις αγορές –

Το καλώδιο Ελλάδας – Κύπρου στις συναντήσεις Χατζηδάκη στη Λευκωσία

Μπορεί τις τελευταίες δεκαετίες ο κόσμος των αγορών να απαριθμούσε πλήθος κινδύνων και εστιών αβεβαιότητας, όμως από το 2023 η ισορροπία αυτή έχει αλλάξει. Τα deepfakes, δηλαδή η σύγχρονη παραπληροφόρηση, πλέον θεωρείται ο μείζον κίνδυνος όχι μόνο για τις αγορές, αλλά για πλήθος πλευρών της δημόσιας ζωής.

Τα deepfakes, είναι πλέον το πιο επικίνδυνο είδος fake news, σύμφωνα με μεγάλη έρευνα της Teneo, που μέσω της τεχνητής νοημοσύνης και με μεγάλη ακρίβεια, αντιγράφει πρόσωπα και φωνές, εμφανίζοντας τα να υποστηρίζουν θέσεις και γεγονότα που είναι εντελώς ψεύτικα.

Όπως επισημαίνει η Teneo, τα deepfakes έφτασαν στη mainstream σκηνή γύρω στο 2019, φέρνοντάς μας γρήγορα πλαστά βίντεο και ήχο διασημοτήτων με τη μορφή της Nancy Pelosi, του Tom Cruise και ακόμη και του Keanu Reeves – κυρίως για ψυχαγωγία εκείνη την εποχή.

Κυβερνοασφάλεια: Έως 20 χιλ. δολάρια το κόστος για ένα μονόλεπτο βίντεο deepfake

Από την ευρεία πρόσβαση και την υιοθέτηση του ChatGPT του OpenAI το 2023 και τις νεοεμφανιζόμενες τεχνολογίες παραγωγής, η δυνατότητα γρήγορης παρακολούθησης της ανάπτυξης υπερρεαλιστικών deepfakes έχει δώσει στους φορείς απειλών ένα νέο εργαλείο για πιθανή απάτη, χειραγώγηση και παραπληροφόρηση, διαπιστώνει η Teneo.

Έτσι, η απειλή deepfake έχει περάσει γρήγορα στην κορυφή της ατζέντας κινδύνου. Ενώ διασημότητες, πολιτικοί και στελέχη υψηλού προφίλ ήταν οι αρχικοί «στόχοι» των deepfake επιθέσεων, οι φορείς απειλών στοχεύουν τώρα καθημερινές επιχειρήσεις και άτομα χρησιμοποιώντας πλασματικά μέσα για πολιτικούς και εγκληματικούς σκοπούς.

Πώς ξεκίνησε

Το 2014, ένας 27χρονος Αμερικανός μεταπτυχιακός φοιτητής και επιστήμονας υπολογιστών ονόματι Ian Goodfellow έκανε μια σημαντική ανακάλυψη στην τεχνητή νοημοσύνη (AI) που ονομάζονται δίκτυα γενετικής αντιπαράθεσης ή «GANs».

Το GAN είναι μια αρχιτεκτονική βαθιάς μάθησης που χρησιμοποιεί νευρωνικά δίκτυα (δίκτυα που επιτρέπουν στα προγράμματα να αναγνωρίζουν μοτίβα) για τη δημιουργία νέων και ρεαλιστικών δεδομένων. Αυτά τα δεδομένα μπορούν να έρθουν με τη μορφή κειμένου, εικόνων, βίντεο ή ήχου, και γίνονται όλο και πιο περίπλοκα στην εξαπάτηση των ανθρώπων.

Λίγα χρόνια αργότερα, το 2017, ένας συντονιστής του Reddit δημιούργησε το subreddit r/deepfakes, επινοώντας έτσι τον όρο. Ο συντονιστής του Reddit χρησιμοποίησε τεχνολογία εναλλαγής προσώπου, χειραγωγώντας ψηφιακά τις φωτογραφίες και τοποθετώντας πρόσωπα γνωστών γυναικών σε εικόνες σώματος που δεν ήταν δικές τους.

Σταδιακά όμως ήρθε η έννοια των deepfakes ως «mainstream» τρόπος διασκέδασης. Όλο και μεγαλύτερο μέρος της κοινωνίας άρχισε να δίνει προσοχή, ειδικά όταν φτιάχνονται βίντεο με την Nancy Pelosi και τον Tom Cruise, τα οποία προκάλεσαν γέλια αλλά μια αυξανόμενη αίσθηση νευρικότητας σχετικά με τις εξελίξεις στην τεχνολογία και δυνατότητες της.

Μέχρι το 2023, το Διαδίκτυο απολάμβανε τα deepfakes διασημοτήτων με στόχο τον Morgan Freeman, τον Πάπα Φραγκίσκο με ένα τζάκετ και τον Donald Trump με χειροπέδες. Μέχρι στιγμής, το 2024, ένα ηχητικό deepfake του Προέδρου Biden, deepfakes που στοχεύουν την Taylor Swift έχουν κάνει τον γύρο του διαδικτύου.

Στον επιχειρηματικό κόσμο, η «υπόθεση χρήσης» του deepfake για παραπληροφόρηση, ωστόσο, μπορεί σύντομα να επισκιαστεί από την αναδυόμενη και σημαντική απειλή των deepfakes για οικονομικό όφελος στα χέρια των εγκληματιών. Τα στελέχη και οι οργανώσεις που ηγούνται βρίσκονται τώρα αντιμέτωποι με έναν νέο φορέα απάτης, κλοπής και χειραγώγησης.

Εκλογές

Σε μια ιστορική εκλογική χρονιά, όπου τουλάχιστον 64 χώρες προσέρχονται στις κάλπες, η ανησυχία για τη διάδοση παραπληροφόρησης για πιθανή χειραγώγηση ή επηρεασμό των εκλογικών αποτελεσμάτων βρίσκεται στο επίκεντρο.

Η απειλή των deepfakes ωθεί επίσης τις παγκόσμιες κυβερνήσεις και τους ρυθμιστικούς φορείς σε δράση. Στις ΗΠΑ και σε όλο τον κόσμο, τα μέσα κοινωνικής δικτύωσης γίνονται η «παιδική χαρά» για τη διάδοση των deepfakes, που απεικονίζουν πολιτικούς ή επίδοξους πολιτικούς να κάνουν ή να λένε πράγματα για να επηρεάσουν τους ψηφοφόρους ή να δυσφημήσουν τη φήμη για πολιτικούς στόχους.

Πλατφόρμες μέσων κοινωνικής δικτύωσης όπως το Facebook και το X – καθώς και συνεργάτες στο οικοσύστημά τους όπως το OpenAI, η Google και το Shutterstuck – έχουν εντείνει τις πολιτικές τους. Αυτά περιλαμβάνουν την προσθήκη υδατογραφημάτων σε εικόνες που δημιουργούνται με τεχνητή νοημοσύνη, την αναγνώριση και την επισήμανση περιεχομένου που έχει δημιουργηθεί με τεχνητή νοημοσύνη, καθώς και την αφαίρεση επιβλαβούς περιεχομένου/παραπληροφόρησης.

Προς το παρόν, οι αλλαγές θα βοηθήσουν, αλλά δεν θα είναι μια οριστική λύση για τον εντοπισμό και την επισήμανση όλου του περιεχομένου, δεδομένου του τεράστιου εύρους του στο Διαδίκτυο.

Ενώ οι πλατφόρμες μέσων κοινωνικής δικτύωσης προσπαθούν να βρουν τον ρόλο τους, τα παραδοσιακά μέσα ενημέρωσης και οι καταναλωτές ψηφιακών μέσων μπορούν επίσης να διαδραματίσουν ρόλο στον μετριασμό της εξάπλωσης της παραπληροφόρησης.

Στελέχη υψηλού προφίλ

Τα προαναφερθέντα παραδείγματα έδειξαν πόσο ευάλωτοι είναι οι διασημότητες και οι πολιτικοί, αλλά οι παράγοντες απειλών κυνηγούν επίσης άτομα και στελέχη επιχειρήσεων εξαιρετικά υψηλής καθαρής αξίας (UHNW) που χρησιμοποιούν deepfakes ως εργαλεία για οικονομικό όφελος.

Τον Μάρτιο του 2019, ένα από τα πρώτα deepfakes που αναφέρθηκαν ευρέως έγινε παγκόσμιο πρωτοσέλιδο όταν απατεώνες χρησιμοποίησαν τεχνητή νοημοσύνη για να μιμηθούν έναν CEO. Ο διευθύνων σύμβουλος μιας εταιρείας ενέργειας με έδρα το Ηνωμένο Βασίλειο πίστευε ότι ήταν στο τηλέφωνο με τον Γερμανό Διευθύνοντα Σύμβουλο της μητρικής του εταιρείας και έλαβε οδηγίες να μεταφέρει 243.000 δολάρια σε έναν ουγγρικό τραπεζικό λογαριασμό. Το deepfake φωνής ήταν τόσο ρεαλιστικό που το στέλεχος του Ηνωμένου Βασιλείου αναγνώρισε τη γερμανική προφορά της φωνής του αφεντικού του.

Τον Αύγουστο του 2022, ο Chief Communications Officer της Binance, Patrick Hillman, προειδοποίησε ότι οι δράστες χρησιμοποίησαν τηλεοπτικές εμφανίσεις και διαδικτυακές συνεντεύξεις του για να δημιουργήσουν ένα deepfake βίντεο το οποίο στη συνέχεια αναπτύχθηκε στο Zoom για να ξεγελάσουν ομάδες κρυπτογράφησης.

Τον Φεβρουάριο του τρέχοντος έτους, ένας οικονομικός υπάλληλος με έδρα το Χονγκ Κονγκ που εργάζεται για μια πολυεθνική εταιρεία συμμετείχε σε τηλεδιάσκεψη με μια ομάδα ατόμων που πίστευε ότι ήταν ο CFO και μέλη του προσωπικού της εταιρείας. Οι χαρακτήρες στο κάλεσμα ήταν μέρος ενός deepfake βίντεο τόσο πειστικό που ο υπάλληλος συμφώνησε να μεταφέρει 25 εκατομμύρια δολάρια υπό την καθοδήγησή τους.

Αν και αυτά τα παραδείγματα φαίνονται ελάχιστα τώρα, ο ρυθμός με τον οποίο προχωρά η τεχνολογία δείχνει ότι τα στελέχη θα συνεχίσουν να είναι στόχοι εγκληματιών, με το προσωπικό να είναι όλο και πιο ευάλωτο καθώς τα deepfakes γίνονται όλο και πιο ρεαλιστικά.

Χρηματοπιστωτικά Ιδρύματα

Η ανάπτυξη τεχνολογιών τεχνητής νοημοσύνης βοήθησε τις τράπεζες και άλλα χρηματοπιστωτικά ιδρύματα να κάνουν σημαντικά βήματα για να επιτρέψουν την εξυπηρέτηση πελατών 24 ώρες το 24ωρο, 7 ημέρες την εβδομάδα, να εξορθολογίσουν παλαιότερα πολύπλοκες τραπεζικές διαδικασίες και να παρέχουν πιο στοχευμένες προσφορές προϊόντων.

Ωστόσο, οι εγκληματίες χρησιμοποιούν τώρα την τεχνητή νοημοσύνη και τα deepfakes για να υποκλέψουν στοιχεία, να δημιουργήσουν έγγραφα και να παραποιήσουν ταυτότητες για να ανοίξουν τραπεζικούς λογαριασμούς, αποκτώντας μη εξουσιοδοτημένη πρόσβαση σε λογαριασμούς πελατών, κεφάλαια και δάνεια.

Τον Μάρτιο, το Υπουργείο Οικονομικών των ΗΠΑ εξέδωσε μια ολοκληρωμένη έκθεση που καλύπτει τους κινδύνους για την ασφάλεια στον κυβερνοχώρο στον τομέα των χρηματοπιστωτικών υπηρεσιών. Η έκθεση σημειώνει ότι «αυτές οι τεχνολογίες (LLM και deepfake) όχι μόνο μειώνουν το εμπόδιο εισόδου αλλά και περιπλέκουν τα μέτρα γνησιότητας και επαλήθευσης».

Σε μια πρόσφατη συνέντευξη με την Teneo, ο Ben Colman, Συνιδρυτής και Διευθύνων Σύμβουλος της Reality Defender, ηγέτης στην τεχνολογία ανίχνευσης deepfake είπε ότι «ο τομέας των χρηματοοικονομικών υπηρεσιών βασίζεται σε μεγάλο βαθμό και έχει επενδύσει δισεκατομμύρια σε πλατφόρμες φωνητικής επαλήθευσης μέσω συστημάτων τηλεφωνίας, που χρησιμοποιούνται για τα πάντα. Από τον έλεγχο ταυτότητας στις συναλλαγές έως την αποστολή τραπεζικών εμβασμάτων.

Τώρα που ο καθένας μπορεί να κλωνοποιήσει ρεαλιστικά μια πραγματική ανθρώπινη φωνή με μόλις 15 δευτερόλεπτα υπάρχοντος ήχου, αυτές οι πλατφόρμες έχουν λίγο-πολύ αχρηστευθεί λόγω των deepfakes».

Πηγή: ot.gr

Facebook
Twitter
Telegram
WhatsApp
Email

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ