Η Ευρωπαϊκή Ένωση κινήθηκε νωρίς και καθοριστικά στη ρύθμιση των δεδομένων, δίνοντάς μας τον νόμο GDPR- Γενικό Κανονισμό Προστασίας Δεδομένων της ΕΕ- για τον οποίο πλέον βλέπουμε μια παγκόσμια σύγκλιση.
Το μπλοκ κινήθηκε επίσης αποφασιστικά με τον νόμο για τις Ψηφιακές Αγορές ο οποίος εξυπηρετεί δύο πολύ σημαντικούς στόχους:
- τη δημιουργία ασφαλέστερου ψηφιακού χώρου στον οποίο θα προστατεύονται τα θεμελιώδη δικαιώματα όλων των χρηστών ψηφιακών υπηρεσιών,
- τη δημιουργία ισότιμων όρων ανταγωνισμού για την προώθηση της καινοτομίας, της ανάπτυξης και της ανταγωνιστικότητας, τόσο στην ευρωπαϊκή ενιαία αγορά όσο και παγκοσμίως.
Με την Πράξη για τις Ψηφιακές Αγορές λοιπόν που ετέθη σε ισχύ την περασμένη εβδομάδα, η ΕΕ προσπαθεί στην ουσία να πατάξει τις αντιανταγωνιστικές πρακτικές από μεγάλες εταιρείες τεχνολογίας και να τις αναγκάσει να ανοίξουν τις υπηρεσίες τους σε τομείς όπου η δεσπόζουσα θέση τους όχι μόνο έχει καταπνίξει τους μικρότερους παίκτες αλλά έχει πνίξει την ελευθερία επιλογής των χρηστών.
Ως εκ τούτου, οι Alphabet , Amazon, Apple, Meta, Microsoft και China's ByteDance έχουν τεθεί υπό ειδοποίηση ως λεγόμενοι «gatekeepers».
Χθες, το Ευρωπαϊκό Κοινοβούλιο προχώρησε σε άλλη μια σημαντική κίνηση ματ, ανοίγοντας το δρόμο και για άλλες χώρες να ακολουθήσουν το παράδειγμα της ΕΕ.
Αναγνωρίζοντας έγκαιρα τους κινδύνους που κρύβει η χρήση της ΑΙ, ενέκρινε το πρώτο σημαντικό σύνολο ρυθμίσεων και βασικών κανόνων στον κόσμο που θα διέπουν την Τεχνητή Νοημοσύνη και τις εφαρμογές της εξασφαλίζοντας:
-Δικλείδες ασφαλείας για την Τεχνητή Νοημοσύνη «γενικής χρήσης».
-Περιορισμούς στη χρήση συστημάτων βιομετρικής ταυτοποίησης από τις αρχές επιβολής του νόμου.
-Απαγόρευση της κοινωνικής βαθμολόγησης και της χρήσης Τεχνητής Νοημοσύνης για χειραγώγηση ή εκμετάλλευση ευάλωτων χρηστών ψηφιακών συστημάτων.
-Δικαίωμα των καταναλωτών να υποβάλλουν καταγγελίες και να λαμβάνουν ουσιαστικές εξηγήσεις .
Πρόκειται για ένα σημαντικό ορόσημο για τη διεθνή ρύθμιση της Τεχνητής Νοημοσύνης με σκοπό να κατοχυρώσει την ασφάλεια των χρηστών και την τήρηση των θεμελιωδών δικαιωμάτων, ενώ την ίδια στιγμή ενισχύει την καινοτομία.
Η ψήφιση του νόμου είναι μόνο η αρχή, καθώς για να έχει ουσιαστικό αντίκτυπο και αποτελεσματικότητα θα πρέπει εφεξής οι επιχειρήσεις να συνεργαστούν στενά με τους νομοθέτες, όχι μόνο για να κατανοήσουν πώς θα εφαρμοστεί το σύνολο των κανόνων που ψηφίστηκαν χθες, αλλά πιθανότατα και για το πώς θα πρέπει να εξελιχθεί αυτή η νομοθεσία στο μέλλον, δεδομένου ότι αφορά μια ταχέως εξελισσόμενη τεχνολογία.
Αν και θα συμφωνήσουμε λοιπόν με τον Τιερί Μπρετόν, τον Ευρωπαίο Επίτροπο για την εσωτερική αγορά, ο οποίος δήλωσε στο Χ ότι «Η Ευρώπη αποτελεί ΤΩΡΑ παγκόσμιο πρότυπο στην Τεχνητή Νοημοσύνη», εντούτοις ο δρόμος που έχουμε μπροστά μας είναι μακρύς και ο μόνος τρόπος να μας οδηγήσει σε μια ασφαλή χρήση της ΑΙ είναι η συνεργασία όλων των εμπλεκομένων μερών.
Αυτό υπαινίχθη άλλωστε και ο Dragos Tudorache, ο οποίος επέβλεψε τις διαπραγματεύσεις της ΕΕ για τη συμφωνία, επισημαίνοντας ότι το μεγαλύτερο εμπόδιο παραμένει η εφαρμογή. «Ο νόμος AI δεν είναι το τέλος του ταξιδιού, αλλά, μάλλον, το σημείο εκκίνησης για ένα νέο μοντέλο διακυβέρνησης που βασίζεται στην τεχνολογία. Πρέπει τώρα να εστιάσουμε την πολιτική μας ενέργεια στο να τη μετατρέψουμε από το νόμο στα βιβλία, στην πραγματικότητα επί τόπου».
Η πρόεδρος του Ευρωπαϊκού Κοινοβουλίου, Ρομπέρτα Μέτσολα, χαρακτήρισε με τη σειρά της την πράξη ως πρωτοποριακή, λέγοντας ότι θα επιτρέψει την καινοτομία, ενώ παράλληλα θα προστατεύει τα θεμελιώδη δικαιώματα. «Η τεχνητή νοημοσύνη είναι ήδη σε μεγάλο βαθμό μέρος της καθημερινότητάς μας. Τώρα, θα είναι και μέρος της νομοθεσίας μας», έγραψε σε ανάρτησή της στα μέσα κοινωνικής δικτύωσης.
Η πράξη της ΕΕ για την Τεχνητή Νοημοσύνη χωρίζει την τεχνολογία σε κατηγορίες κινδύνου, που ξεκινούν από την «απαράδεκτη», κατά την οποία η τεχνολογία θα απαγορεύεται και εν συνεχεία διαβαθμίζεται έως υψηλή, μεσαία και χαμηλή επικινδυνότητα.(σ.σ: Παραθέτουμε σημαντικές λεπτομέρειες στο τελευταίο μέρος του άρθρου).
Ο κανονισμός αναμένεται να τεθεί σε ισχύ 20 ημέρες μετά τη δημοσίευσή του στην Επίσημη Εφημερίδα της Ευρωπαϊκής Ένωσης και θα αρχίσει να εφαρμόζεται πλήρως 24 μήνες μετά την έναρξη της ισχύος του.
Γιατί είναι σημαντικός ο νέος κανονισμός για την ΑΙ
Ορισμένες χώρες της ΕΕ, όπως η Γερμανία και η Γαλλία, έχουν εδώ και καιρό υποστηρίξει την αυτορρύθμιση έναντι των κυβερνητικών περιορισμών όσον αφορά τη χρήση και τις εφαρμογές της ΑΙ.
Η κύρια ένστανση τους είναι ότι μια ασφυκτική ρύθμιση θα μπορούσε να θέσει εμπόδια στην πρόοδο της Ευρώπης να ανταγωνιστεί τις κινεζικές και τις αμερικανικές εταιρείες στον τομέα της τεχνολογίας, κάτι που στην ουσία «θα έκοβε τα φτερά» στις πολλά υποσχόμενες νεοσύστατες ευρωπαίκές επιχειρήσεις ΑΙ.
Οι ανησυχίες όμως έχουν αυξηθεί σχετικά με τους κινδύνους που συνεπάγεται η χρήση της ΑΙ, όπως για παράδειγμα η κατάχρηση της προκειμένου να δημιουργηθούν ψευδείς ειδήσεις-deepfakes- συμπεριλαμβανομένων φωτογραφιών και βίντεο, μέσω των εργαλείων της GenAI, ειδικά μια χρονιά σαν τη φετινή κατά την οποία θα διεξαχθούν σημαντικές εκλογικές αναμετρήσεις.
Αν και οι πρωτοβουλίες κάποιων τεχνολογικών κολοσσών, όπως της Google, να περιορίσουν τον τύπο των ερωτημάτων που μπορούν να ζητηθούν από το chatbot Gemini σχετικά με τις εκλογές είναι αναμφίβολα στη σωστή κατεύθυνση, εντούτοις η ύπαρξη ενός συνολικού νομοθετικού πλαισίου με σκοπό την προστασία των θεμελιωδών δικαιωμάτων των πολιτών, της δημοκρατίας, του κράτους δικαίου και της περιβαλλοντικής βιωσιμότητας από τα συστήματα Τεχνητής Νοημοσύνης υψηλού κινδύνου είναι κάτι παραπάνω από απαρραίτητη.
Οι βασικές κατευθύνσεις με στόχο την ασφάλεια μας
Ο κανονισμός ορίζει διαφορετικές υποχρεώσεις για τα συστήματα Τεχνητής Νοημοσύνης, ανάλογα με τους πιθανούς κινδύνους και τις επιπτώσεις που ενέχει η χρήση τους.
Παραθέτουμε μια περιληπτική επισκόπηση που βασίστηκε στην παρουσίαση της χθεσινής ψηφοφορίας στο site του Ευρωπαϊκού Κοινοβουλίου- https://www.europarl.europa.eu -και αποκαλύπτει τη σπουδαιότητα της.
-Καθολική απαγόρευση ορισμένων πρακτικών
Οι νέοι κανόνες απαγορεύουν τις εφαρμογές της Tεχνητής Νοημοσύνης που απειλούν τα δικαιώματα των πολιτών, όπως είναι τα συστήματα βιομετρικής κατηγοριοποίησης που βασίζονται σε ευαίσθητα χαρακτηριστικά και η μη στοχοθετημένη συλλογή εικόνων προσώπων από το διαδίκτυο ή από κάμερες κλειστού κυκλώματος παρακολούθησης, με στόχο τη δημιουργία βάσεων δεδομένων για την αναγνώριση προσώπων.
Θα απαγορεύονται επίσης η αναγνώριση συναισθημάτων στον χώρο εργασίας και το σχολείο, η κοινωνική βαθμολόγηση, η προληπτική αστυνόμευση -όταν βασίζεται αποκλειστικά στην κατάρτιση προφίλ ενός ατόμου ή στην αξιολόγηση των χαρακτηριστικών του- και η Τεχνητή Νοημοσύνη που χειραγωγεί την ανθρώπινη συμπεριφορά ή εκμεταλλεύεται τα τρωτά σημεία των ανθρώπων.
Ο νέος κανονισμός ορίζει λεπτομερώς τις περιπτώσεις που θα εξαιρείται από την απαγόρευση η χρήση συστημάτων βιομετρικής ταυτοποίησης από τις αρχές επιβολής του νόμου. Μια τέτοια περίπτωση για παράδειγμα είναι η χρήση συστημάτων βιομετρικής ταυτοποίησης για περιορισμένο χρόνο και σε περιορισμένη γεωγραφική έκταση, με προηγούμενη ειδική άδεια από τις δικαστικές ή τις διοικητικές αρχές, με σκοπό τη στοχευμένη αναζήτηση αγνοουμένου προσώπου ή την πρόληψη μιας τρομοκρατικής επίθεσης.
Όσον αφορά τη χρήση συστημάτων βιομετρικής ταυτοποίησης «σε ύστερο χρόνο», θεωρείται υψηλού κινδύνου και θα απαιτεί δικαστική έγκριση που θα συνδέεται με κάποιο ποινικό αδίκημα.
-Υποχρεώσεις για τα συστήματα υψηλού κινδύνου
Ο νέος κανονισμός θέτει σαφείς υποχρεώσεις και για τα υπόλοιπα συστήματα ΑΙ που θεωρούνται υψηλού κινδύνου, λόγω των σημαντικών επιβλαβών επιπτώσεων που ενδέχεται να έχουν στην υγεία, την ασφάλεια, τα θεμελιώδη δικαιώματα, το περιβάλλον, τη δημοκρατία και το κράτος δικαίου.
Το κείμενο απαριθμεί τους τομείς στους οποίους χρησιμοποιούνται ή ενδέχεται να χρησιμοποιηθούν τέτοια συστήματα και οι οποίοι είναι: οι κρίσιμες υποδομές, η εκπαίδευση και η επαγγελματική κατάρτιση, η απασχόληση, βασικές ιδιωτικές και δημόσιες υπηρεσίες (π.χ. υγειονομική περίθαλψη, τράπεζες), η επιβολή του νόμου, η διαχείριση της μετανάστευσης και των συνόρων, καθώς και οι δικαστικές και δημοκρατικές διαδικασίες (π.χ. για τον επηρεασμό εκλογικών διαδικασιών).
Τα συστήματα αυτά πρέπει να αξιολογούν και να ελαχιστοποιούν τους κινδύνους, να τηρούν αρχεία καταγραφής της χρήσης τους, να είναι διαφανή και ακριβή και να εποπτεύονται από ανθρώπους.
Οι πολίτες θα έχουν το δικαίωμα να υποβάλλουν καταγγελίες για τα συστήματα Tεχνητής Νοημοσύνης και να λαμβάνουν εξηγήσεις για τυχόν αποφάσεις που βασίστηκαν σε συστήματα υψηλού κινδύνου και επηρεάζουν τα δικαιώματά τους.
-Απαιτήσεις για διαφάνεια
Τα συστήματα ΑΙ «γενικής χρήσης» και τα μοντέλα στα οποία βασίζονται πρέπει να πληρούν ορισμένες απαιτήσεις διαφάνειας, συμπεριλαμβανομένης της συμμόρφωσής τους με τη νομοθεσία της ΕΕ για τα δικαιώματα πνευματικής ιδιοκτησίας και της δημοσιοποίησης λεπτομερών περιλήψεων του περιεχομένου που χρησιμοποιούν για την εκπαίδευση των μοντέλων τους.
Για τα ισχυρότερα μοντέλα που μπορούν να δημιουργήσουν συστημικούς κινδύνους θα ισχύουν επιπλέον απαιτήσεις, όπως η αξιολόγησή τους, η εκτίμηση και ο περιορισμός των συστημικών κινδύνων και η υποβολή εκθέσεων σχετικά με περιστατικά και δυσλειτουργίες.
Επιπλέον, αν οποιοδήποτε οπτικοακουστικό υλικό είναι τεχνητό ή παραποιημένο -τα λεγόμενα deepfakes-θα πρέπει να επισημαίνεται σαφώς.
-Μέτρα για στήριξη της καινοτομίας και των μικρών και μεσαίων επιχειρήσεων
Οι εθνικές αρχές κάθε χώρας θα πρέπει να δημιουργήσουν «ρυθμιστικά δοκιμαστήρια» για να δοκιμάζονται σε πραγματικές συνθήκες τα συστήματα Τεχνητής Νοημοσύνης.
Οι δομές αυτές θα πρέπει να είναι προσβάσιμες στις μικρές και μεσαίες επιχειρήσεις, καθώς και στις νεοφυείς επιχειρήσεις, για να μπορούν να αναπτύσσουν και να εκπαιδεύουν καινοτόμα μοντέλα ΑΙ πριν από τη διάθεσή τους στην αγορά.
Aποποίηση Ευθύνης
Το υλικό αυτό παρέχεται για πληροφοριακούς και μόνο σκοπούς. Σε καμία περίπτωση δεν πρέπει να εκληφθεί ως προσφορά, συμβουλή ή προτροπή για την αγορά ή πώληση των αναφερόμενων προϊόντων. Παρόλο που οι πληροφορίες που περιέχονται βασίζονται σε πηγές που θεωρούνται αξιόπιστες, καμία διασφάλιση δε δίνεται ότι είναι πλήρεις ή ακριβείς και δεν θα πρέπει να εκλαμβάνονται ως τέτοιες.