Meta: «Φρένο» στην ανάπτυξη των AI συστημάτων της σε περίπτωση που κριθούν επικύνδινα
Shutterstock
Shutterstock

Meta: «Φρένο» στην ανάπτυξη των AI συστημάτων της σε περίπτωση που κριθούν επικύνδινα

Ο διευθύνων σύμβουλος της Meta, Μαρκ Ζάκερμπεργκ έχει δεσμευτεί να καταστήσει τη Γενική Τεχνητή Νοημοσύνη (AGI) - η οποία ορίζεται χονδρικά ως τεχνητή νοημοσύνη που μπορεί να επιτελέσει οποιαδήποτε εργασία μπορεί να επιτελέσει ένας άνθρωπος - καθολικά διαθέσιμη κάποια στιγμή.

Παρόλα αυτά, σε ένα νέο έγγραφο, η Meta υποδηλώνει ότι υπάρχουν ορισμένα σενάρια στα οποία μπορεί να μην κυκλοφορήσει αυτό το εξαιρετικά ικανό σύστημα Τεχνητής Νοημοσύνης που ανέπτυξε εσωτερικά, σύμφωνα με το techcrunch.

Το έγγραφο, το οποίο η Meta αποκαλεί Frontier AI Framework, προσδιορίζει δύο τύπους συστημάτων Τεχνητής Νοημοσύνης που η εταιρεία θεωρεί πολύ επικίνδυνα για να κυκλοφορήσουν: Συστήματα «υψηλού κινδύνου» και συστήματα «κρίσιμου κινδύνου».

Όπως τα ορίζει η Meta, τόσο τα συστήματα «υψηλού κινδύνου» όσο και τα συστήματα «κρίσιμου κινδύνου» είναι ικανά να συμβάλλουν σε επιθέσεις κυβερνοασφάλειας, χημικές και βιολογικές επιθέσεις, με τη διαφορά ότι τα συστήματα «κρίσιμου κινδύνου» θα μπορούσαν να οδηγήσουν σε «καταστροφικό αποτέλεσμα, που δεν μπορεί να μετριαστεί σε ένα πλαίσιο ανάπτυξης».

Τα συστήματα υψηλού κινδύνου, αντίθετα, θα μπορούσαν να καταστήσουν ευκολότερη την πραγματοποίηση μιας επίθεσης, αλλά όχι τόσο αξιόπιστα όσο ένα σύστημα κρίσιμου κινδύνου.

Όμως για ποιο είδος επιθέσεων γίνεται λόγος; Η Meta δίνει μερικά παραδείγματα, όπως η «αυτοματοποιημένη από άκρη σε άκρη υπονόμευση ενός περιβάλλοντος εταιρικής κλίμακας που προστατεύεται με βέλτιστες πρακτικές» και η «διάδοση βιολογικών όπλων υψηλής επίδρασης».

Ο κατάλογος των πιθανών καταστροφών στο έγγραφο της Meta δεν είναι καθόλου εξαντλητικός, αναγνωρίζει η εταιρεία, αλλά περιλαμβάνει εκείνες που η Meta θεωρεί ότι είναι «οι πιο επικίνδυνες» και πιθανές να προκύψουν άμεσα ως αποτέλεσμα της απελευθέρωσης ενός ισχυρού συστήματος AI.

Επίσης, κάτι που προκαλεί έκπληξη είναι ότι, σύμφωνα με το έγγραφο, η Meta ταξινομεί τον κίνδυνο του συστήματος, όχι με βάση κάποια εμπειρική δοκιμή, αλλά με βάση την πληροφόρηση από εσωτερικούς και εξωτερικούς ερευνητές, οι οποίοι υπόκεινται σε έλεγχο από «ανώτερους υπεύθυνους λήψης αποφάσεων».

Και αυτό γιατί η Meta λέει ότι δεν πιστεύει ότι η επιστήμη της αξιολόγησης είναι «επαρκώς ισχυρή ώστε να παρέχει οριστικές ποσοτικές μετρήσεις για την απόφαση της επικινδυνότητας ενός συστήματος».

Εάν η Meta κρίνει ότι ένα σύστημα είναι υψηλού κινδύνου, θα περιορίσει την πρόσβαση στο σύστημα εσωτερικά και δεν θα το κυκλοφορήσει μέχρι μειώσει τον κίνδυνο. Εάν, από την άλλη πλευρά, ένα σύστημα κριθεί κρίσιμου κινδύνου, η Meta αναφέρει ότι θα εφαρμόσει απροσδιόριστες προστασίες ασφαλείας για να αποτρέψει την εκροή του συστήματος και θα σταματήσει την ανάπτυξη μέχρι το σύστημα να καταστεί λιγότερο επικίνδυνο.

Το Frontier AI Framework της Meta, το οποίο η εταιρεία λέει ότι θα εξελίσσεται παράλληλα με το μεταβαλλόμενο τοπίο της Τεχνητής Νοημοσύνης, και το οποίο η Meta δεσμεύτηκε νωρίτερα να δημοσιεύσει πριν από τη Σύνοδο Κορυφής Δράσης για την Τεχνητή Νοημοσύνη της Γαλλίας αυτόν τον μήνα, φαίνεται να αποτελεί απάντηση στην κριτική που δέχεται η εταιρεία για την «ανοιχτή» προσέγγιση της ανάπτυξης συστημάτων.

Η εταιρεία ακόμα, έχει υιοθετήσει τη στρατηγική της ανοικτής διάθεσης της τεχνολογίας AI της - αν και όχι ανοικτού κώδικα σύμφωνα με τον κοινώς κατανοητό ορισμό - σε αντίθεση με εταιρείες, όπως η OpenAI που επιλέγουν να κρύβουν τα συστήματά τους πίσω από ένα API.

Για τη Meta, η προσέγγιση της ανοικτής απελευθέρωσης έχει αποδειχθεί ευλογία και κατάρα μαζί. Η οικογένεια μοντέλων ΤΝ της εταιρείας, που ονομάζεται Llama, έχει συγκεντρώσει εκατοντάδες εκατομμύρια λήψεις. Αλλά το Llama φέρεται επίσης να έχει χρησιμοποιηθεί από τουλάχιστον έναν αντίπαλο των ΗΠΑ για την ανάπτυξη ενός αμυντικού chatbot.

Με τη δημοσίευση του Frontier AI Framework, η Meta μπορεί επιπλέον να επιδιώξει να αντιπαραβάλει τη στρατηγική της για την ανοιχτή Τεχνητή Νοημοσύνη με τη νέα κινεζική εταιρεία AI, DeepSeek. Η DeepSeek καθιστά επίσης τα συστήματά της καθολικά διαθέσιμα. Αλλά η ΤΝ της εταιρείας μπορεί εύκολα να κατευθυνθεί ώστε να παράγει τοξικά και επιβλαβή αποτελέσματα.

«Θεωρούμε ότι λαμβάνοντας υπόψη τόσο τα οφέλη όσο και τους κινδύνους κατά τη λήψη αποφάσεων σχετικά με τον τρόπο ανάπτυξης και χρήσης προηγμένης ΤΝ», γράφει η Meta στο έγγραφο, «είναι δυνατόν να παραδώσουμε την τεχνολογία αυτή στην κοινωνία με τρόπο που να διατηρεί τα οφέλη της τεχνολογίας για αυτή, διατηρώντας παράλληλα ένα επίπεδο ασφάλειας».