ΕΕ: Απαγορεύει τα συστήματα Τεχνητής Νοημοσύνης με «υψηλό κίνδυνο»
Shutterstock
Shutterstock

ΕΕ: Απαγορεύει τα συστήματα Τεχνητής Νοημοσύνης με «υψηλό κίνδυνο»

Από την Κυριακή (02/02), οι ρυθμιστικές αρχές του της Ευρωπαϊκής Ένωσης μπορούν να απαγορεύσουν τη χρήση συστημάτων Τεχνητής Νοημοσύνης που θεωρούν ότι ενέχουν κίνδυνο ή ενδέχεται να προκαλέσουν βλάβη.

Σύμφωνα με το techcrunch, η 2α Φεβρουαρίου ήταν η πρώτη προθεσμία συμμόρφωσης με την πράξη της ΕΕ, για το AI, το ολοκληρωμένο ρυθμιστικό πλαίσιο που ενέκρινε τελικά το Ευρωπαϊκό Κοινοβούλιο, τον περασμένο Μάρτιο μετά από χρόνια ανάπτυξης. Η απόφαση τέθηκε επισήμως σε ισχύ από την 1η Αυγούστου και αυτό που ακολουθεί τώρα είναι η πρώτη από τις προθεσμίες συμμόρφωσης.

Έχει σχεδιαστεί για να καλύψει μια πληθώρα περιπτώσεων χρήσης, όπου μπορεί να εμφανιστεί η Τεχνητή Νοημοσύνη και να αλληλεπιδράσει με άτομα, από εφαρμογές για καταναλωτές μέχρι φυσικά περιβάλλοντα.

Σύμφωνα με την προσέγγιση της ΕΕ, υπάρχουν τέσσερα επίπεδα κινδύνου:

  1. Ο ελάχιστος κίνδυνος (π.χ. φίλτρα ανεπιθύμητων μηνυμάτων ηλεκτρονικού ταχυδρομείου) δεν θα αντιμετωπίζει καμία ρυθμιστική εποπτεία
  2. ο περιορισμένος κίνδυνος, που περιλαμβάνει τα chatbots εξυπηρέτησης πελατών, θα έχει μια μικρή ρυθμιστική εποπτεία
  3. ο υψηλός κίνδυνος, π.χ. η Τεχνητή Νοημοσύνη για συστάσεις στον τομέα της υγειονομικής περίθαλψης, θα αντιμετωπίζει αυστηρή ρυθμιστική εποπτεία
  4. οι εφαρμογές «απαράδεκτου κινδύνου» - το επίκεντρο των απαιτήσεων συμμόρφωσης αυτού του μήνα - θα απαγορεύονται εντελώς.

Ορισμένες από τις απαράδεκτες δραστηριότητες περιλαμβάνουν:

  • Τεχνητή νοημοσύνη που χρησιμοποιείται για κοινωνική βαθμολόγηση (π.χ. δημιουργία προφίλ κινδύνου με βάση τη συμπεριφορά ενός ατόμου).
  • Τεχνητή νοημοσύνη που χειραγωγεί τις αποφάσεις ενός ατόμου υποσυνείδητα ή παραπλανητικά.
  • Τεχνητή νοημοσύνη που εκμεταλλεύεται τρωτά σημεία όπως η ηλικία, η αναπηρία ή η κοινωνικοοικονομική κατάσταση.
  • Τεχνητή νοημοσύνη που επιχειρεί να προβλέψει άτομα που διαπράττουν εγκλήματα με βάση την εμφάνισή τους.
  • Τεχνητή νοημοσύνη που χρησιμοποιεί βιομετρικά στοιχεία για να συμπεράνει τα χαρακτηριστικά ενός ατόμου, όπως ο σεξουαλικός του προσανατολισμός.
  • Τεχνητή νοημοσύνη που συλλέγει βιομετρικά δεδομένα «σε πραγματικό χρόνο» σε δημόσιους χώρους για σκοπούς επιβολής του νόμου.
  • Τεχνητή νοημοσύνη που προσπαθεί να συμπεράνει τα συναισθήματα των ανθρώπων σε δουλειά ή σχολείο.
  • Τεχνητή νοημοσύνη που δημιουργεί - ή επεκτείνει - βάσεις δεδομένων αναγνώρισης προσώπου με την απόσπαση εικόνων από το διαδίκτυο ή από κάμερες ασφαλείας.

Οι εταιρείες που θα διαπιστωθεί ότι χρησιμοποιούν οποιαδήποτε από τις παραπάνω εφαρμογές Τεχνητής Νοημοσύνης στην ΕΕ θα υπόκεινται σε πρόστιμα, ανεξαρτήτως του τόπου όπου έχουν την έδρα τους. Θα μπορούσαν να πληρώσουν έως και 35 εκατομμύρια ευρώ (36 εκατομμύρια δολάρια) ή το 7% των ετήσιων εσόδων τους από το προηγούμενο οικονομικό έτος, ανάλογα με το ποιο είναι μεγαλύτερο.

Στο πλαίσιο του Συμφώνου, οι υπογράφοντες - μεταξύ των οποίων η Amazon, η Google και η OpenAI - δεσμεύτηκαν να προσδιορίσουν τα συστήματα Τεχνητής Νοημοσύνης που ενδέχεται να χαρακτηριστούν ως υψηλού κινδύνου βάσει της Πράξης για την Τεχνητή Νοημοσύνη.

Ορισμένοι τεχνολογικοί γίγαντες, ιδίως η Meta και η Apple, παρέλειψαν το Σύμφωνο. Η γαλλική νεοφυής επιχείρηση τεχνητής νοημοσύνης Mistral, ένας από τους πιο σκληρούς επικριτές του νόμου για την τεχνητή νοημοσύνη, επέλεξε επίσης να μην υπογράψει.

Ωστόσο, αυτό δεν σημαίνει ότι η Apple, η Meta, η Mistral ή άλλοι που δεν συμφώνησαν, δεν θα εκπληρώσουν τις υποχρεώσεις τους - συμπεριλαμβανομένης της απαγόρευσης των «απαράδεκτα επικίνδυνων συστημάτων».