Επιτροπή νομοθετών στο Ευρωπαϊκό Κοινοβούλιο ενέκρινε έναν κανονισμό για την Τεχνητή Νοημοσύνη. Πρόκειται για τον πρώτο κανονισμό που αφορά την Τεχνητή Νοημοσύνη, ενώ βρίσκεται όλο και πιο κοντά στο να γίνει νόμος.
Η έγκριση σηματοδοτεί μια εξέλιξη - ορόσημο στον αγώνα των αρχών να αποκτήσουν τον έλεγχο της Τεχνητής Νοημοσύνης, η οποία εξελίσσεται με ιλιγγιώδη ταχύτητα.
Ο νόμος, γνωστός ως Ευρωπαϊκή Πράξη για την Τεχνητή Νοημοσύνη, είναι ο πρώτος νόμος για τα συστήματα Τεχνητής Νοημοσύνης στη Δύση.
Η Κίνα έχει ήδη αναπτύξει κανόνες που αποσκοπούν στη διαχείριση του τρόπου με τον οποίο οι εταιρείες αναπτύσσουν τα προϊόντα ΤΝ που δημιουργούν, όπως το ChatGPT.
Οι κανόνες καθορίζουν τις απαιτήσεις για τους παρόχους των λεγόμενων «μοντέλων θεμελίωσης», όπως το ChatGPT, τα οποία έχουν γίνει βασική ανησυχία για τις ρυθμιστικές αρχές, δεδομένου του ραγδαίου ρυθμού με τον οποίο εξελίσσεται και των φόβων ότι θα αντικατασταθούν ακόμη και εξειδικευμένοι εργαζόμενοι.
Τι λένε οι κανόνες;
Ο νόμος για την Τεχνητή Νοημοσύνη κατηγοριοποιεί τις εφαρμογές της ΤΝ σε τέσσερα επίπεδα κινδύνου: απαράδεκτος κίνδυνος, υψηλός κίνδυνος, περιορισμένος κίνδυνος και ελάχιστος ή καθόλου κίνδυνος.
Οι εφαρμογές απαράδεκτου κινδύνου απαγορεύονται εξ ορισμού και δεν μπορούν να αναπτυχθούν στο μπλοκ.
Περιλαμβάνουν:
- Συστήματα Τεχνητής Νοημοσύνης που χρησιμοποιούν υποσυνείδητες τεχνικές ή τεχνικές χειραγώγησης ή παραπλάνησης για τη διαστρέβλωση της συμπεριφοράς
- Συστήματα ΤΝ που εκμεταλλεύονται τρωτά σημεία ατόμων ή συγκεκριμένων ομάδων
- Συστήματα βιομετρικής κατηγοριοποίησης με βάση ευαίσθητα χαρακτηριστικά ή ιδιότητες
- Συστήματα ΤΝ που χρησιμοποιούνται για κοινωνική βαθμολόγηση ή αξιολόγηση της αξιοπιστίας
- Συστήματα ΤΝ που χρησιμοποιούνται για εκτιμήσεις κινδύνου που προβλέπουν ποινικές ή διοικητικές παραβάσεις
- Συστήματα ΤΝ που δημιουργούν ή επεκτείνουν βάσεις δεδομένων αναγνώρισης προσώπου μέσω μη στοχευμένης απόξεσης
- Συστήματα ΤΝ που συμπεραίνουν συναισθήματα στην επιβολή του νόμου, τη διαχείριση των συνόρων, τον χώρο εργασίας και την εκπαίδευση
Αρκετοί νομοθέτες είχαν ζητήσει να γίνουν τα μέτρα πιο αυστηρά για να διασφαλιστεί ότι θα καλύπτουν το ChatGPT.
Οι προγραμματιστές θα πρέπει να εφαρμόζουν ελέγχους ασφαλείας, μέτρα διακυβέρνησης δεδομένων και μετριασμούς κινδύνου πριν δημοσιοποιήσουν τα μοντέλα τους.
Θα πρέπει επίσης να διασφαλίζουν ότι τα δεδομένα εκπαίδευσης που χρησιμοποιούνται για την ενημέρωση των συστημάτων τους δεν παραβιάζουν τη νομοθεσία περί πνευματικών δικαιωμάτων.
Πρέπει να τονιστεί ότι, ενώ ο κανονισμός έχει ψηφιστεί από τους νομοθέτες του Ευρωπαϊκού Κοινοβουλίου, απέχει πολύ από το να γίνει νόμος.
Γιατί τώρα;
Οι ιδιωτικές εταιρείες έχουν αφεθεί και αναπτύσσουν την τεχνολογία ΤΝ με ιλιγγιώδη ταχύτητα, δημιουργώντας συστήματα όπως η Microsoft - ChatGPT της OpenAI και το Bard της Google.
Η Google ανακοίνωσε την Τετάρτη μια σειρά από νέες ενημερώσεις AI, συμπεριλαμβανομένου ενός προηγμένου γλωσσικού μοντέλου που ονομάζεται PaLM 2, το οποίο η εταιρεία λέει ότι ξεπερνά άλλα κορυφαία συστήματα σε ορισμένες εργασίες.
Τα καινοτόμα chatbots τεχνητής νοημοσύνης όπως το ChatGPT έχουν συναρπάσει πολλούς τεχνολόγους και ακαδημαϊκούς με την ικανότητά τους να παράγουν ανθρωποειδείς απαντήσεις σε προτροπές χρηστών που τροφοδοτούνται από μεγάλα γλωσσικά μοντέλα που εκπαιδεύονται σε τεράστιες ποσότητες δεδομένων.
Αλλά η τεχνολογία AI υπάρχει εδώ και χρόνια και έχει ενσωματωθεί σε περισσότερες εφαρμογές και συστήματα από ό,τι νομίζετε. Καθορίζει, για παράδειγμα, ποια viral βίντεο ή φωτογραφίες φαγητού θα δείτε στο TikTok ή στο Instagram feed σας.
Στόχος των προτάσεων της ΕΕ είναι να παράσχει ορισμένους κανόνες συμπεριφοράς για τις εταιρείες και τους οργανισμούς που χρησιμοποιούν Τεχνητή Νοημοσύνη.
Αντιδράσεις της βιομηχανίας τεχνολογίας
Οι κανόνες προκάλεσαν ανησυχίες στον κλάδο της τεχνολογίας.
Η Ένωση Βιομηχανίας Υπολογιστών και Επικοινωνιών δήλωσε ότι ανησυχεί ότι το πεδίο εφαρμογής του νόμου για την ΤΝ έχει διευρυνθεί υπερβολικά και ότι μπορεί να συλλάβει μορφές ΤΝ που είναι ακίνδυνες.
«Είναι ανησυχητικό να βλέπουμε ότι ευρείες κατηγορίες χρήσιμων εφαρμογών Τεχνητής Νοημοσύνης - οι οποίες ενέχουν πολύ περιορισμένους ή και καθόλου κινδύνους - θα αντιμετωπίζουν τώρα αυστηρές απαιτήσεις ή θα μπορούσαν ακόμη και να απαγορευτούν στην Ευρώπη», δήλωσε στο CNBC μέσω ηλεκτρονικού ταχυδρομείου ο Boniface de Champris, υπεύθυνος πολιτικής στην CCIA Europe.
«Η αρχική πρόταση της Ευρωπαϊκής Επιτροπής για τον νόμο περί τεχνητής νοημοσύνης υιοθετεί μια προσέγγιση με βάση τον κίνδυνο, ρυθμίζοντας συγκεκριμένα συστήματα τεχνητής νοημοσύνης που ενέχουν σαφή κίνδυνο», πρόσθεσε ο de Champris.
«Οι ευρωβουλευτές έχουν εισαγάγει τώρα κάθε είδους τροποποιήσεις που αλλάζουν την ίδια τη φύση του νόμου για την ΤΝ, ο οποίος τώρα υποθέτει ότι πολύ ευρείες κατηγορίες ΤΝ είναι εγγενώς επικίνδυνες».