Σε ισχύ τέθηκε από την περασμένη Πέμπτη 1η Αυγούστου ο νέος ευρωπαϊκός κανονισμός για την Τεχνητή Νοημοσύνη, ο πρώτος ολοκληρωμένος κανονισμός για AI στον κόσμο.
Η νομοθεσία για την Τεχνητή Νοημοσύνη έχει σχεδιαστεί για να διασφαλίσει ότι η ανάπτυξη και η χρησιμοποίησή της στην ΕΕ είναι αξιόπιστη, με διασφαλίσεις για την προστασία των θεμελιωδών δικαιωμάτων των πολιτών.
Ο κανονισμός αποσκοπεί στη δημιουργία μιας εναρμονισμένης εσωτερικής αγοράς για την ΤΝ στην ΕΕ, ενθαρρύνοντας την υιοθέτηση αυτής της τεχνολογίας και δημιουργώντας ένα υποστηρικτικό περιβάλλον για την καινοτομία και τις επενδύσεις.
Η νέα νομοθεσία, δίνει στις επιχειρήσεις περιθώριο 6-24 μηνών για να προσαρμοστούν, ενώ τα πρόστιμα για τη μη συμμόρφωση μπορούν να φτάσουν τα 35 εκατομμύρια ευρώ ή το 7% του παγκόσμιου ακαθάριστου ομιλικού τζίρου.
Επισκόπηση του AI Act
Το AI Act ακολουθεί μια προσέγγιση ρύθμισης των συστημάτων Τεχνητής Νοημοσύνης με βάση τους κίνδυνους που προκύπτουν από αυτά για την κοινωνία και τους ανθρώπους (risk-based approach). Το πλαίσιο αυτό αποσκοπεί στο να διασφαλίσει ότι τα συστήματα ΑΙ αναπτύσσονται και χρησιμοποιούνται με τρόπο που σέβεται τα ανθρώπινα δικαιώματα, τα ζητήματα ασφάλειας, καθώς και τις αξίες της Ε.Ε.
Ελάχιστος κίνδυνος: Τα περισσότερα συστήματα ΤΝ, όπως τα συστήματα συστάσεων που λειτουργούν βάσει ΤΝ και τα φίλτρα ανεπιθύμητων μηνυμάτων, εμπίπτουν σε αυτή την κατηγορία. Τα συστήματα αυτά δεν υπόκεινται σε υποχρεώσεις στο πλαίσιο της πράξης για την ΤΝ λόγω του ελάχιστου κινδύνου για τα δικαιώματα και την ασφάλεια των πολιτών. Οι εταιρείες μπορούν οικειοθελώς να υιοθετήσουν πρόσθετους κώδικες δεοντολογίας.
Ειδικός κίνδυνος διαφάνειας: Τα συστήματα ΤΝ, όπως τα διαλογικά ρομπότ (chatbots), πρέπει να γνωστοποιούν σαφώς στους χρήστες ότι αλληλεπιδρούν με μηχανή. Ορισμένα περιεχόμενα που παράγονται από ΤΝ, συμπεριλαμβανομένων των βαθιά ψευδών πληροφοριών, πρέπει να επισημαίνονται ως τέτοια και οι χρήστες πρέπει να ενημερώνονται όταν χρησιμοποιούνται συστήματα βιομετρικής κατηγοριοποίησης ή αναγνώρισης συναισθημάτων.
Επιπλέον, οι πάροχοι θα πρέπει να σχεδιάζουν συστήματα κατά τρόπο ώστε το συνθετικό περιεχόμενο ήχου, βίντεο, κειμένου και εικόνων να επισημαίνεται σε μηχαναγνώσιμο μορφότυπο και να είναι ανιχνεύσιμο ως τεχνητά παραγόμενο ή παραποιημένο.
Υψηλός κίνδυνος: Τα συστήματα ΤΝ που χαρακτηρίζονται ως υψηλού κινδύνου θα πρέπει να συμμορφώνονται με αυστηρές απαιτήσεις, συμπεριλαμβανομένων συστημάτων μετριασμού του κινδύνου, υψηλής ποιότητας συνόλων δεδομένων, καταγραφής δραστηριοτήτων, λεπτομερούς τεκμηρίωσης, σαφών πληροφοριών για τους χρήστες, ανθρώπινης εποπτείας και υψηλού επιπέδου αξιοπιστίας, ακρίβειας και κυβερνοασφάλειας.
Τα ρυθμιστικά δοκιμαστήρια θα διευκολύνουν την υπεύθυνη καινοτομία και την ανάπτυξη συμμορφούμενων συστημάτων ΤΝ. Τα εν λόγω συστήματα ΤΝ υψηλού κινδύνου περιλαμβάνουν, για παράδειγμα, συστήματα ΤΝ που χρησιμοποιούνται για προσλήψεις ή για την αξιολόγηση του κατά πόσον κάποιος δικαιούται να λάβει δάνειο ή να χρησιμοποιεί αυτόνομα ρομπότ.
Απαράδεκτος κίνδυνος: Τα συστήματα ΤΝ που θεωρούνται σαφής απειλή για τα θεμελιώδη δικαιώματα των ανθρώπων θα απαγορευτούν. Αυτό περιλαμβάνει συστήματα ή εφαρμογές ΤΝ που χειραγωγούν την ανθρώπινη συμπεριφορά για την παράκαμψη της ελεύθερης βούλησης των χρηστών, όπως παιχνίδια που χρησιμοποιούν φωνητική βοήθεια που ενθαρρύνει την επικίνδυνη συμπεριφορά των ανηλίκων, συστήματα που επιτρέπουν την «κοινωνική βαθμολόγηση» από κυβερνήσεις ή εταιρείες, και ορισμένες εφαρμογές προληπτικής αστυνόμευσης.
Επιπλέον, θα απαγορευτούν ορισμένες χρήσεις βιομετρικών συστημάτων, για παράδειγμα συστήματα αναγνώρισης συναισθημάτων που χρησιμοποιούνται στον χώρο εργασίας και ορισμένα συστήματα κατηγοριοποίησης ατόμων ή εξ αποστάσεως βιομετρικής ταυτοποίησης σε πραγματικό χρόνο για σκοπούς επιβολής του νόμου σε δημόσια προσβάσιμους χώρους (με περιορισμένες εξαιρέσεις).
Για τη συμπλήρωση του εν λόγω συστήματος, η πράξη για την ΤΝ θεσπίζει επίσης κανόνες για τα λεγόμενα μοντέλα ΤΝ γενικού σκοπού, τα οποία είναι μοντέλα ΤΝ υψηλής ικανότητας που έχουν σχεδιαστεί για να εκτελούν ευρύ φάσμα καθηκόντων, όπως η δημιουργία κειμένου τύπου ανθρώπου. Τα μοντέλα ΤΝ γενικής χρήσης χρησιμοποιούνται όλο και περισσότερο ως συστατικά στοιχεία εφαρμογών ΤΝ. Η πράξη για την ΤΝ θα διασφαλίσει τη διαφάνεια κατά μήκος της αξιακής αλυσίδας και θα αντιμετωπίσει πιθανούς συστημικούς κινδύνους των πλέον ικανών μοντέλων.
Εφαρμογή και επιβολή των κανόνων
Τα κράτη μέλη έχουν προθεσμία έως τις 2 Αυγούστου 2025 για να ορίσουν εθνικές αρμόδιες αρχές, οι οποίες θα εποπτεύουν την εφαρμογή των κανόνων για τα συστήματα ΤΝ και θα διεξάγουν δραστηριότητες εποπτείας της αγοράς. Η Υπηρεσία ΤΝ της Επιτροπής θα είναι ο βασικός φορέας εφαρμογής της πράξης για την ΤΝ σε επίπεδο ΕΕ, καθώς και η αρχή επιβολής των κανόνων για τα μοντέλα ΤΝ γενικού σκοπού.
Τρία συμβουλευτικά όργανα θα στηρίξουν την εφαρμογή των κανόνων. Το Ευρωπαϊκό Συμβούλιο Τεχνητής Νοημοσύνης θα διασφαλίσει την ομοιόμορφη εφαρμογή της πράξης για την ΤΝ σε όλα τα κράτη μέλη της ΕΕ και θα ενεργεί ως ο κύριος φορέας συνεργασίας μεταξύ της Επιτροπής και των κρατών μελών. Μια επιστημονική ομάδα ανεξάρτητων εμπειρογνωμόνων θα παρέχει τεχνικές συμβουλές και στοιχεία σχετικά με την επιβολή της νομοθεσίας.
Ειδικότερα, η ομάδα αυτή μπορεί να εκδίδει προειδοποιήσεις στην Υπηρεσία ΤΝ σχετικά με κινδύνους που συνδέονται με μοντέλα ΤΝ γενικού σκοπού. Η Υπηρεσία ΤΝ μπορεί επίσης να λάβει καθοδήγηση από συμβουλευτικό φόρουμ, το οποίο αποτελείται από ευρύ φάσμα ενδιαφερόμενων μερών.
Στις εταιρείες που δεν συμμορφώνονται με τους κανόνες επιβάλλεται πρόστιμο. Τα πρόστιμα θα μπορούσαν να φθάσουν έως και το 7 % του παγκόσμιου ετήσιου κύκλου εργασιών για παραβιάσεις απαγορευμένων εφαρμογών ΤΝ, έως και το 3 % για παραβιάσεις άλλων υποχρεώσεων και έως και το 1,5 % για την παροχή ανακριβών πληροφοριών.
Επόμενα βήματα για τις επιχειρήσεις
Καθώς η Ε.Ε. προετοιμάζεται για την εφαρμογή του ΑΙ Act, οι επιχειρήσεις οφείλουν άμεσα να αξιολογήσουν τη χρήση και την ανάπτυξη τεχνολογιών ΑΙ από τις ίδιες, σε σχέση με το νέο ρυθμιστικό πλαίσιο.
Οι απαγορεύσεις των συστημάτων ΤΝ που θεωρείται ότι ενέχουν απαράδεκτο κίνδυνο θα εφαρμόζονται ήδη μετά από έξι μήνες, ενώ οι κανόνες για τα λεγόμενα μοντέλα ΤΝ γενικού σκοπού θα εφαρμοστούν μετά από 12 μήνες.
Τα επόμενα βήματα για τις επιχειρήσεις είναι:
Χαρτογράφηση συστημάτων: Να δημιουργήσουν ένα μητρώο με τα βασικά στοιχεία όλων των συστημάτων που εμπίπτουν στο πεδίο εφαρμογής του AI Act, δηλαδή των οριζόμενων ως "Συστήματα ΑΙ". Παράλληλα θα χρειαστεί να αξιολογήσουν τον ρόλο τους στην αλυσίδα ΑΙ ως χρήστης, προγραμματιστής, εισαγωγέας ή διανομέας τέτοιων συστημάτων.
Αξιολόγηση κινδύνου: Να αξιολογήσουν τα συστήματα ΑΙ, για να προσδιοριστεί η κατηγορία κινδύνου τους βάσει του νέου πλαισίου. Αυτή η κατηγοριοποίηση είναι ζωτικής σημασίας για τον προγραμματισμό της συμμόρφωσης με τη νέα νομοθεσία, καθώς για κάθε κατηγορία ισχύουν διαφορετικές προθεσμίες.
Ανάλυση αποκλίσεων: Η ανάλυση της τρέχουσας κατάστασης συμμόρφωσης μιας επιχείρησης σε σχέση με τις υποχρεώσεις που προκύπτουν από το ΑΙ Act είναι κομβική και επιτάσσει την κατάρτιση ενός σχεδίου δράσης για την αποκατάσταση τυχόν αποκλίσεων.
Εναρμόνιση και τεκμηρίωση: Ειδικά για τα συστήματα ΑΙ υψηλού κινδύνου, οι επιχειρήσεις πρέπει να προετοιμαστούν για λεπτομερείς αξιολογήσεις κανονιστικής εναρμόνισης και συμμόρφωσης, αναφορικά με τις επιπτώσεις στα ανθρώπινα δικαιώματα και να προετοιμάσουν την απαραίτητη έγγραφη τεκμηρίωση, συμπεριλαμβανομένων των μέτρων διαχείρισης δεδομένων και διαφάνειας.
Εκπαίδευση: Να δημιουργήσουν ένα ολοκληρωμένο πρόγραμμα εκπαίδευσης του προσωπικού, με διαφοροποιημένα επίπεδα πολυπλοκότητας και περιεχομένου.
Sandbox καινοτομίας: Να διερευνήσουν την πιθανή συμμετοχή τους σε ρυθμιστικά sandboxes για τη δοκιμή και ανάπτυξη καινοτόμων λύσεων ΑΙ, σε ένα ελεγχόμενο ρυθμιστικό περιβάλλον.
Διαρκής ενημέρωση: Δεδομένης της εξελισσόμενης φύσης της τεχνολογίας ΑΙ και της σχετικής νομοθεσίας, το κλειδί για τη διασφάλιση της συνεχούς συμμόρφωσης είναι η διαρκής ενημέρωση, τόσο με βάση τις επιπλέον κατευθυντήριες γραμμές που αναμένονται από τα όργανα της Ε.Ε. ή και την ελληνική ρυθμιστική αρχή για την Τεχνητή Νοημοσύνη.