AI Act: Οι Big Tech πιέζουν και η ΕΕ επιμένει –

AI Act: Οι Big Tech πιέζουν και η ΕΕ επιμένει

Παρά τις πιέσεις των εταιρειών τεχνολογίας και ορισμένων κυβερνήσεων, η Ευρωπαϊκή Επιτροπή διαβεβαιώνει ότι δεν θα αναβάλει την εφαρμογή του Κανονισμού για την Τεχνητή Νοημοσύνη, του πρώτου στον κόσμο νομικού πλαισίου για τη ρύθμιση της νέας τεχνολογίας.

Το τελευταίο διάστημα η Κομισιόν δέχτηκε πιέσεις από αμερικανικές εταιρείες όπως η Google και η Meta καθώς και από ευρωπαϊκές επιχειρήσεις όπως η γαλλική εταιρεία τεχνητής νοημοσύνης Mistral και η ολλανδική εταιρεία εξοπλισμού παραγωγής ημιαγωγών ASML, αναφέρει το Reuters.

Το βασικό επιχείρημα είναι ότι οι γραφειοκρατικοί περιορισμοί και το κόστος συμμόρφωσης πλήττουν την καινοτομία και αφήνουν την Ευρώπη πίσω από τον ανταγωνισμό σε μια τεχνολογία που υπόσχεται να μεταμορφώσει την οικονομία.

«Πράγματι έχω δει πολλά ρεπορτάζ, πολλές επιστολές και πολλά που λέγονται για τον Κανονισμό ΑΙ. Θα είμαι όσο πιο σαφής γίνεται: το ρολόι δεν σταματάει. Δεν υπάρχει περίοδος χάριτος, δεν υπάρχει παύση», δήλωσε κατά την ενημέρωση των δημοσιογράφων ο εκπρόσωπος της Επιτροπής, Τομά Ρενιέ.

«Υπάρχουν νομικές προθεσμίες διατυπωμένες σε νομικά κείμενα» είπε.

Το AI Act, που ψηφίστηκε το 2023, θεωρείται το πιο ολοκληρωμένο ρυθμιστικό πλαίσιο στον κόσμο για την τεχνητή νοημοσύνη

Πιέσεις και αντιδράσεις

Ο κανονισμός (AI Act) τέθηκε σε ισχύ πέρυσι, ωστόσο οι διατάξεις που αφορούν τα μοντέλα ΑΙ γενικής χρήσης θα εφαρμοστούν από τον φετινό Αύγουστο, ενώ οι προβλέψεις για τα μοντέλα υψηλού ρίσκου από τον Αύγουστο του 2026.

Στα τέλη της φετινής χρονιάς η Κομισιόν θα προτείνει πάντως μέτρα για την απλοποίηση των κανόνων, ειδικά για τις μικρές επιχειρήσεις.

Η άποψη ότι τα ρυθμιστικά μέτρα στέκονται εμπόδιο στην καινοτομία είναι περισσότερο διαδεδομένη στις ΗΠΑ, όπου οι εταιρείες τεχνολογίας ζήτησαν από την κυβέρνηση Τραμπ να παγώσει για μια δεκαετία τη σύνταξη κανόνων.

Στο νομοσχέδιο για τον προϋπολογισμό, η αμερικανική κυβέρνηση εισήγαγε διάταξη που θα απαγόρευε στις πολιτειακές κυβερνήσεις να επιβάλλουν ρυθμιστικό πλαίσιο στις εφαρμογές ΑΙ υψηλού ρίσκου. Η διάταξη τελικά αποσύρθηκε στη Γερουσία αυτή την εβδομάδα.

Υπενθυμίζεται όμως πως από τον περασμένο Φεβρουάριο, οι Βρυξέλλες ανακοίνωσαν πως ετοιμάζουν νέες οδηγίες σχετικά με χρήσεις της τεχνητής νοημοσύνης στο πλαίσιο του ΑΙ Act, ακόμη και όταν ο Ντόναλντ Τραμπ προειδοποιεί για αντίποινα για τη στοχοποίηση των αμερικανικών εταιρειών τεχνολογίας από την ΕΕ, όπως αναφέρουν οι Financial Times.

Ο νόμος, που ψηφίστηκε το 2023, θεωρείται το πιο ολοκληρωμένο ρυθμιστικό πλαίσιο στον κόσμο για την τεχνητή νοημοσύνη. Οι διατάξεις που απαγορεύουν ορισμένες εφαρμογές, όπως η απόξεση δεδομένων από το διαδίκτυο για τη δημιουργία βάσεων δεδομένων αναγνώρισης προσώπου, τέθηκαν σε ισχύ την Κυριακή.

Τι προβλέπει το ΑΙ Act

Ο νόμος για την τεχνητή νοημοσύνη χωρίζει τις εφαρμογές ΑΙ σε κατηγορίες επικινδυνότητας.

Ελάχιστος κίνδυνος: Τα περισσότερα συστήματα τεχνητής νοημοσύνης, όπως τα συστήματα συστάσεων με δυνατότητα τεχνητής νοημοσύνης και τα φίλτρα ανεπιθύμητης αλληλογραφίας, εμπίπτουν σε αυτήν την κατηγορία. Αυτά τα συστήματα δεν αντιμετωπίζουν υποχρεώσεις βάσει του νόμου περί τεχνητής νοημοσύνης λόγω του ελάχιστου κινδύνου για τα δικαιώματα και την ασφάλεια των πολιτών. Οι εταιρείες μπορούν να υιοθετήσουν εθελοντικά πρόσθετους κώδικες δεοντολογίας .

Ειδικός κίνδυνος διαφάνειας: Τα συστήματα τεχνητής νοημοσύνης όπως τα chatbots πρέπει να αποκαλύπτουν ξεκάθαρα στους χρήστες ότι αλληλεπιδρούν με ένα μηχάνημα . Ορισμένο περιεχόμενο που δημιουργείται από τεχνητή νοημοσύνη, συμπεριλαμβανομένων των απομιμήσεων, πρέπει να επισημαίνεται ως τέτοιο και οι χρήστες πρέπει να ενημερώνονται όταν χρησιμοποιούνται συστήματα βιομετρικής κατηγοριοποίησης ή αναγνώρισης συναισθημάτων. Επιπλέον, οι πάροχοι θα πρέπει να σχεδιάσουν συστήματα με τρόπο ώστε το περιεχόμενο συνθετικού ήχου, βίντεο, κειμένου και εικόνων να επισημαίνεται σε μορφή αναγνώσιμη από μηχανή και να ανιχνεύεται ως τεχνητά δημιουργημένο ή χειραγωγημένο.

Υψηλός κίνδυνος: Τα συστήματα τεχνητής νοημοσύνης που προσδιορίζονται ως υψηλού κινδύνου θα πρέπει να συμμορφώνονται με αυστηρές απαιτήσεις , συμπεριλαμβανομένων συστημάτων μετριασμού κινδύνου, υψηλής ποιότητας συνόλων δεδομένων, καταγραφής δραστηριότητας, λεπτομερούς τεκμηρίωσης, σαφείς πληροφορίες χρήστη, ανθρώπινη επίβλεψη και υψηλό επίπεδο ευρωστίας, ακρίβειας και ασφάλειας στον κυβερνοχώρο. Τα ρυθμιστικά sandbox θα διευκολύνουν την υπεύθυνη καινοτομία και την ανάπτυξη συμβατών συστημάτων AI.

Απαράδεκτος κίνδυνος: Τα συστήματα τεχνητής νοημοσύνης που θεωρούνται σαφής απειλή για τα θεμελιώδη δικαιώματα των ανθρώπων θα απαγορευθούν . Αυτό περιλαμβάνει συστήματα ή εφαρμογές τεχνητής νοημοσύνης που χειραγωγούν την ανθρώπινη συμπεριφορά για να παρακάμψουν την ελεύθερη βούληση των χρηστών, όπως παιχνίδια που χρησιμοποιούν φωνητική βοήθεια που ενθαρρύνουν την επικίνδυνη συμπεριφορά ανηλίκων, συστήματα που επιτρέπουν «κοινωνική βαθμολόγηση» από κυβερνήσεις ή εταιρείες και ορισμένες εφαρμογές προγνωστικής αστυνόμευσης.

Επιπλέον, ορισμένες χρήσεις βιομετρικών συστημάτων απαγορεύονται, για παράδειγμα συστήματα αναγνώρισης συναισθημάτων που χρησιμοποιούνται στο χώρο εργασίας και ορισμένα συστήματα για την κατηγοριοποίηση ατόμων ή απομακρυσμένη βιομετρική ταυτοποίηση σε πραγματικό χρόνο για σκοπούς επιβολής του νόμου σε δημόσια προσβάσιμους χώρους (με στενές εξαιρέσεις).

Πηγή: ot.gr

Facebook
Twitter
Telegram
WhatsApp
Email

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ