Από τον Αύγουστο του 2026, οι εταιρείες θα υποχρεούνται να εφαρμόζουν ελέγχους, διαφάνεια και ανθρώπινη εποπτεία για την προστασία των πολιτών. Η Ευρωπαϊκή Ένωση προχωρά σε σημαντική ρύθμιση της τεχνητής νοημοσύνης, ειδικά για τα συστήματα που θεωρούνται «υψηλού κινδύνου», με στόχο την προστασία των πολιτών.
Από τις 2 Αυγούστου 2026, οι εταιρείες θα υποχρεούνται να εφαρμόζουν αυστηρούς ελέγχους στα συστήματα τεχνητής νοημοσύνης που χρησιμοποιούν, στο πλαίσιο του νέου Κανονισμού για την Τεχνητή Νοημοσύνη (AI Act).
Η τεχνητή νοημοσύνη πλέον αποτελεί μέρος της καθημερινότητάς μας, καθώς χρησιμοποιείται σε πολλές υπηρεσίες και εργαλεία. Ωστόσο, η ευρεία χρήση της έχει δημιουργήσει ανησυχίες, κυρίως όταν επηρεάζει σημαντικές αποφάσεις που αφορούν τη ζωή των ανθρώπων.
Ποια συστήματα θεωρούνται υψηλού κινδύνου;
Τα συστήματα υψηλού κινδύνου είναι αυτά που χρησιμοποιούνται σε κρίσιμους τομείς, όπως:
προσλήψεις και επιλογή προσωπικού
εκπαίδευση
υγεία
δικαιοσύνη
Σε αυτές τις περιπτώσεις, μια αυτοματοποιημένη απόφαση μπορεί να έχει σοβαρές συνέπειες αν δεν υπάρχει επαρκής έλεγχος.
Οι επιχειρήσεις θα πρέπει να:
αξιολογούν τους κινδύνους των συστημάτων τους
διασφαλίζουν ανθρώπινη επίβλεψη
τεκμηριώνουν τη λειτουργία των αλγορίθμων
χρησιμοποιούν κατάλληλα και σωστά διαχειριζόμενα δεδομένα
τηρούν αρχεία και να παρέχουν σαφείς πληροφορίες για τη χρήση της τεχνητής νοημοσύνης
Ο στόχος είναι να υπάρχει διαφάνεια και δυνατότητα ελέγχου από τις αρχές.
Τι επιδιώκει η Ευρωπαϊκή Ένωση;
Ο κανονισμός εισάγει διαφορετικά επίπεδα κινδύνου:
ορισμένα συστήματα θα απαγορεύονται πλήρως
άλλα, όπως τα υψηλού κινδύνου, θα επιτρέπονται μόνο υπό αυστηρές προϋποθέσεις
Με την κίνηση αυτή η ΕΕ προσπαθεί να ισορροπήσει ανάμεσα στην τεχνολογική καινοτομία και την προστασία των πολιτών, διασφαλίζοντας ότι η τεχνητή νοημοσύνη χρησιμοποιείται με ασφάλεια και υπευθυνότητα.
Πηγή: tanea.gr





