OpenAI: Νέο τμήμα διαχείρισης μελλοντικών κινδύνων για την Τεχνητή Νοημοσύνη
Shutterstock
Shutterstock
CNBC

OpenAI: Νέο τμήμα διαχείρισης μελλοντικών κινδύνων για την Τεχνητή Νοημοσύνη

Νέο τμήμα για τη διαχείριση των μελλοντικών κινδύνων της Τεχνητής Νοημοσύνης που αποτελείται από ανώτερα στελέχη, μεταξύ των οποίων και τον Σαμ Άλτμαν, δημιούργησε η τεχνολογικός «κολοσσός» OpenAI την Τρίτη (28/05)., αφού διέλυσε το προηγούμενο συμβούλιο εποπτείας στα μέσα Μαΐου.

Το τμήμα θα είναι υπεύθυνο για την εισήγηση στο διοικητικό συμβούλιο του OpenAI, «κρίσιμων αποφάσεων για την ασφάλεια και την προστασία των projects και των λειτουργιών του OpenAI», δήλωσε η εταιρεία.

Η είδηση για το νέο τμήμα έρχεται την ώρα που ο προγραμματιστής του ChatGPT ανακοίνωσε ότι ξεκίνησε τη δημιουργία ενός νέου πρωτοποριακού μοντέλου AI, το GPT-4o. Το νέο γλωσσικό μοντέλο θα λειτουργεί περισσότερο σαν φωνητικός βοηθός παρά σαν chatbot και ίσως σύντομα να εξαλείψει τη χρησιμότητα προϊόντων όπως η «Alexa» ή η «Siri». 

Η εταιρεία ανέφερε ότι αναμένει τα «συστήματα που θα δημιουργηθούν να μας φέρουν στο επόμενο επίπεδο δυνατοτήτων στην πορεία μας προς την AGI», ή αλλιώς τη Δημιουργική Τεχνητή Νοημοσύνη, ένα είδος Τεχνητής Νοημοσύνης που είναι εξίσου ευφυές ή και πιο ικανό από τον άνθρωπο. 

Εκτός από τον Άλτμαν, το νέο τμήμα θα αποτελείται από τους Μπρετ Τέιλορ, Άνταμ Νταντζέλο και Νικόλ Σέλινμαν, όλοι μέλη του διοικητικού συμβουλίου της OpenAI, σύμφωνα με την ανάρτηση στο blog.

Ο σχηματισμός του νέου τμήματος έρχεται μετά τη διάλυση της προηγούμενης ομάδας του OpenAI, η οποία επικεντρωνόταν στους μακροπρόθεσμους κινδύνους της Τεχνητής Νοημοσύνης. Πριν από αυτό, και οι δύο επικεφαλής της ομάδας, ο συνιδρυτής του OpenAI, Ιλία Σουτσκέβερ, και ο βασικός ερευνητής, Τζαν Λέικ, ανακοίνωσαν την αποχώρησή τους από την startup που υποστηρίζεται από τη Microsoft.

Υπενθυμίζεται ότι αυξημένα εμφανίζονται τα ποσοστά παραιτήσεων στην εταιρεία κολοσσό της Τεχνητής Νοημοσύνης, OpenAI. Αρκετοί εργαζόμενοι υψηλών θέσεων παραιτούνται ο έναν μετά τον άλλον, καθώς δηλώνουν ότι, «η εταιρεία δεν δίνει ιδιαίτερη έμφαση στην ασφάλεια και στις βασικές προτεραιότητες της αναφορικά με το κοινό».

Η OpenAI μετά τις μαζικές παραιτήσεις, αποφάσισε να διαλύσει το τμήμα διαχείρισης μελλοντικών κινδύνων της Τεχνητής Νοημοσύνης, ενώ όπως έγινε γνωστό, τα μέλη του τμήματος μετατίθενται σε άλλα εντός της εταιρείας.

Συγκεκριμένα, πρώην ηγετικό στέλεχος της OpenAI, ο Τζαν Λέικ, είχε ανακοινώσει το βράδυ της Τρίτης (14/05) ότι παραιτείται. Ο Άλτμαν απαντώντας στον Λέικ μέσω της πλατφόρμας κοινωνικής δικτύωσης του X, είπε:  «Εκτιμώ πολύ τη συμβολή του στην OpenAI και λυπάμαι πολύ που τον βλέπω να φεύγει. Έχει δίκιο ότι έχουμε πολλά ακόμα να κάνουμε - είμαστε αποφασισμένοι να το κάνουμε».

Κατά τη διάρκεια των επόμενων 90 ημερών, η ομάδα ασφαλείας θα αξιολογήσει τις διαδικασίες και τις διασφαλίσεις της OpenAI και θα μοιραστεί τις συστάσεις της με το διοικητικό συμβούλιο της εταιρείας, αναφέρεται στην ανάρτηση στο blog. Η OpenAI θα παράσχει ενημέρωση σχετικά με τις συστάσεις που έχει υιοθετήσει σε μεταγενέστερη ημερομηνία.

Η ασφάλεια της Τεχνητής Νοημοσύνης βρίσκεται στο επίκεντρο μιας ευρύτερης συζήτησης, καθώς τα μοντέλα που στηρίζουν εφαρμογές όπως το ChatGPT εξελίσσονται όλο και περισσότερο.