Το Εποπτικό Συμβούλιο της Meta (σ.σ. η μητρική του Facebook) συνέστησε τη Δευτέρα στην εταιρεία μέσων κοινωνικής δικτύωσης να επανεξετάσει την τρέχουσα πολιτική της σχετικά με τη χειραγώγηση των μέσων ενημέρωσης ενόψει των πολλών εκλογών που θα διεξαχθούν το 2024.
Το συμβούλιο, το οποίο διοικείται ανεξάρτητα από τη Meta και χρηματοδοτείται μέσω επιχορήγησης από την εταιρεία, περιέγραψε την πολιτική ως «ασυνάρτητη, χωρίς πειστική αιτιολόγηση και με ακατάλληλη εστίαση στον τρόπο δημιουργίας του περιεχομένου και όχι στις συγκεκριμένες βλάβες που στοχεύει να αποτρέψει».
Η σύσταση ήρθε στο πλαίσιο της εξέτασης από το Συμβούλιο της απόφασης της Meta που άφησε στο Facebook ένα βίντεο του προέδρου Μπάιντεν, το οποίο είχε υποστεί επεξεργασία ώστε να φαίνεται ότι αγγίζει ανάρμοστα την εγγονή του.
Το Εποπτικό επικύρωσε τελικά την απόφαση της Meta σχετικά με το βίντεο στο Facebook, διαπιστώνοντας ότι δεν παραβίασε την πολιτική της εταιρείας για τα παραποιημένα μέσα ενημέρωσης, επειδή η πολιτική αυτή ισχύει μόνο για βίντεο που δημιουργήθηκαν με Τεχνητή Νοημοσύνη (AI) και δείχνουν ανθρώπους να λένε πράγματα που δεν είπαν ποτέ.
«Δεδομένου ότι το βίντεο σε αυτή την ανάρτηση δεν τροποποιήθηκε με τη χρήση Τεχνητής Νοημοσύνης και δείχνει τον Πρόεδρο Μπάιντεν να κάνει κάτι που δεν έκανε (όχι κάτι που δεν είπε), δεν παραβιάζει την υφιστάμενη πολιτική», σημείωσε το συμβούλιο.
«Επιπλέον, η αλλοίωση αυτού του βίντεο κλιπ είναι προφανής και επομένως είναι απίθανο να παραπλανήσει τον "μέσο χρήστη" ως προς τη γνησιότητά του, κάτι που, σύμφωνα με τη Meta, αποτελεί βασικό χαρακτηριστικό των παραποιημένων μέσων ενημέρωσης», πρόσθεσε.
Ωστόσο, η επιτροπή υποστήριξε ότι η νυν πολιτική είναι πολύ περιορισμένη και θα πρέπει να επεκταθεί ώστε να καλύπτει το ηχητικό και οπτικοακουστικό περιεχόμενο, το περιεχόμενο που δείχνει ανθρώπους να κάνουν πράγματα που δεν έκαναν ποτέ και το περιεχόμενο ανεξάρτητα από τον τρόπο δημιουργίας του.
«Η πολιτική δεν θα πρέπει να αντιμετωπίζει τις "βαθιές απομιμήσεις" με διαφορετικό τρόπο από το περιεχόμενο που έχει τροποποιηθεί με άλλους τρόπους (για παράδειγμα, τις "φτηνές απομιμήσεις")], ανέφερε το Συμβούλιο Εποπτείας της Meta.
Πρότεινε επίσης να μην αφαιρεί πλέον η εταιρεία το παραποιημένο περιεχόμενο όταν δεν υπάρχουν άλλες παραβιάσεις της πολιτικής και αντ' αυτού να επισυνάπτει μια ετικέτα που να ενημερώνει τους χρήστες ότι το περιεχόμενο έχει «τροποποιηθεί σημαντικά και θα μπορούσε να παραπλανήσει».