Η OpenAI έχει ενημερώσει το πλαίσιο ετοιμότητάς της (Preparedness Framework) — το εσωτερικό σύστημα που χρησιμοποιεί για να αξιολογεί την ασφάλεια των μοντέλων Τεχνητής Νοημοσύνης και να καθορίζει τα απαραίτητα μέτρα προστασίας κατά την ανάπτυξη και την εφαρμογή τους.
Σε ενημέρωση, η OpenAI δήλωσε ότι μπορεί να «ρυθμίσει τις απαιτήσεις ασφάλειας αν ένα ανταγωνιστικό εργαστήριο AI κυκλοφορήσει ένα “υψηλού κινδύνου” σύστημα χωρίς παρόμοιες προστασίες».
Όπως αναφέρει το TechCrunch, η αλλαγή αυτή παρουσιάζει τις αυξανόμενες ανταγωνιστικές πιέσεις στους εμπορικούς προγραμματιστές AI να αναπτύσσουν μοντέλα γρήγορα.
Η OpenAI έχει κατηγορηθεί ότι έχει μειώσει τα πρότυπα ασφάλειας για να έχει ταχύτερες κυκλοφορίες και ότι απέτυχε να παραδώσει έγκαιρες αναφορές που να περιγράφουν τη διαδικασία ασφάλειας. Την εβδομάδα που πέρασε, 12 πρώην υπάλληλοι της OpenAI κατέθεσαν μια αναφορά στην υπόθεση του Ίλον Μασκ κατά της OpenAI, υποστηρίζοντας ότι η εταιρεία θα ενθαρρυνθεί να παρακάμψει ακόμα περισσότερα μέτρα ασφάλειας αν ολοκληρώσει την προγραμματισμένη αναδιοργάνωση της.
Ωστόσο, η OpenAI ισχυρίζεται ότι δεν θα προχωρήσει σε τέτοιες προσαρμογές πολιτικής ελαφρά τη καρδία και ότι θα διατηρήσει τα μέτρα προστασίας της «σε ένα επίπεδο πιο προστατευτικό».
«Αν ένας άλλος προγραμματιστής AI στην πρώτη γραμμή κυκλοφορήσει ένα σύστημα υψηλού κινδύνου χωρίς συγκρίσιμα μέτρα προστασίας, θα μπορούσαμε να προσαρμόσουμε τις απαιτήσεις μας», έγραψε η OpenAI σε μια ανάρτησή της στο blog που δημοσιεύτηκε την Τρίτη το απόγευμα.
OpenAI is quietly reducing its safety commitments.
— Steven Adler (@sjgadler) April 15, 2025
Omitted from OpenAI's list of Preparedness Framework changes:
No longer requiring safety tests of finetuned models https://t.co/oTmEiAtSjS
«Ωστόσο, πρώτα θα επιβεβαιώσουμε σχολαστικά ότι το τοπίο κινδύνου έχει όντως αλλάξει, θα παραδεχτούμε δημόσια ότι κάνουμε μια προσαρμογή, θα εκτιμήσουμε ότι η προσαρμογή δεν αυξάνει ουσιαστικά τον συνολικό κίνδυνο σοβαρής βλάβης και θα διατηρήσουμε τα μέτρα προστασίας σε ένα επίπεδο πιο προστατευτικό».
Το ανανεωμένο πλαίσιο ετοιμότητας διευκρινίζει επίσης ότι η OpenAI βασίζεται περισσότερο σε αυτοματοποιημένες αξιολογήσεις για την επιτάχυνση της ανάπτυξης προϊόντων. Η εταιρεία λέει ότι, ενώ δεν έχει εγκαταλείψει εντελώς τις δοκιμές που διεξάγονται από ανθρώπους, έχει δημιουργήσει «μια ολοένα αυξανόμενη σειρά αυτοματοποιημένων αξιολογήσεων που υποτίθεται ότι μπορούν να παρακολουθούν [ένα] πιο γρήγορο [ρυθμό] κυκλοφορίας».