Στη φιλόδοξη επιδίωξη να αντιμετωπιστούν οι ζημιές από από τα fake news στα μέσα κοινωνικής δικτύωσης και τους ειδησεογραφικούς ιστότοπους, οι επιστήμονες δεδομένων γίνονται δημιουργικοί.
Αν και ακόμα σε τροχούς εκπαίδευσης, τα μεγάλα γλωσσικά μοντέλα (LLMs) που χρησιμοποιούνται για τη δημιουργία chatbots όπως το ChatGPT επιστρατεύονται για να εντοπίσουν ψευδείς ειδήσεις. Με την καλύτερη ανίχνευση, τα συστήματα ελέγχου ψευδών ειδήσεων της Τεχνητής Νοημοσύνης μπορεί να είναι σε θέση να προειδοποιήσουν και τελικά να αντιμετωπίσουν σοβαρές βλάβες από τα deep fakes, την προπαγάνδα, τις θεωρίες συνωμοσίας και την παραπληροφόρηση.
Τα εργαλεία τεχνητής νοημοσύνης επόμενου επιπέδου θα εξατομικεύσουν την ανίχνευση ψευδούς περιεχομένου καθώς και την προστασία μας από αυτό. Για αυτό το απόλυτο άλμα στην ΤΝ με επίκεντρο τον χρήστη, η επιστήμη των δεδομένων πρέπει να στραφεί στη συμπεριφορική και τη νευροεπιστήμη.
Πρόσφατες εργασίες δείχνουν ότι μπορεί να μη γνωρίζουμε πάντα συνειδητά ότι αντιμετωπίζουμε ψευδείς ειδήσεις. Η νευροεπιστήμη συμβάλλει στην ανακάλυψη του τι συμβαίνει ασυνείδητα. Βιοδείκτες όπως ο καρδιακός ρυθμός, οι κινήσεις των ματιών και η εγκεφαλική δραστηριότητα) φαίνεται να αλλάζουν διακριτικά ως αντίδραση σε ψεύτικο και πραγματικό περιεχόμενο. Με άλλα λόγια, αυτοί οι βιοδείκτες μπορεί να είναι «μαρτυρίες» που δείχνουν αν έχουμε πέσει στην παγίδα ή όχι.
Για παράδειγμα, όταν οι άνθρωποι κοιτάζουν πρόσωπα, τα δεδομένα παρακολούθησης των ματιών δείχνουν ότι ανιχνεύουμε τα ποσοστά ανοιγοκλεισίματος των ματιών και τις αλλαγές στο χρώμα του δέρματος που προκαλούνται από τη ροή του αίματος. Εάν τέτοια στοιχεία φαίνονται αφύσικα, μπορεί να μας βοηθήσουν να αποφασίσουμε ότι κοιτάμε μια βαθιά απάτη. Αυτή η γνώση μπορεί να δώσει ένα πλεονέκτημα στην τεχνητή νοημοσύνη - μπορούμε να την εκπαιδεύσουμε να μιμείται τι αναζητούν οι άνθρωποι, μεταξύ άλλων.
Η εξατομίκευση ενός AI fake news checker διαμορφώνεται με τη χρήση ευρημάτων από δεδομένα κίνησης των ανθρώπινων ματιών και ηλεκτρικής εγκεφαλικής δραστηριότητας που δείχνουν ποιοι τύποι ψευδούς περιεχομένου έχουν το μεγαλύτερο αντίκτυπο νευρολογικά, ψυχολογικά και συναισθηματικά, και για ποιον.
Γνωρίζοντας τα συγκεκριμένα ενδιαφέροντά μας, την προσωπικότητά μας και τις συναισθηματικές μας αντιδράσεις, ένα σύστημα τεχνητής νοημοσύνης για τον έλεγχο των γεγονότων θα μπορούσε να ανιχνεύσει και να προβλέψει ποιο περιεχόμενο θα προκαλούσε την πιο σοβαρή αντίδραση σε εμάς. Αυτό θα μπορούσε να βοηθήσει να διαπιστωθεί πότε οι άνθρωποι ξεγελιούνται και ποιο είδος υλικού ξεγελάει τους ανθρώπους ευκολότερα.
Αντιμετωπίζοντας τις βλάβες από το ψευδές περιεχόμενο
Αυτό που ακολουθεί είναι η προσαρμογή των δικλείδων ασφαλείας. Η προστασία μας από τις βλάβες των ψευδών ειδήσεων απαιτεί επίσης τη δημιουργία συστημάτων που θα μπορούσαν να παρέμβουν - κάποιο είδος ψηφιακού αντίμετρου στις ψευδείς ειδήσεις. Υπάρχουν διάφοροι τρόποι για να γίνει αυτό, όπως προειδοποιητικές ετικέτες, σύνδεσμοι προς αξιόπιστο περιεχόμενο που έχει επικυρωθεί από ειδικούς και ακόμη και να ζητείται από τους ανθρώπους να προσπαθούν να εξετάζουν διαφορετικές οπτικές γωνίες όταν διαβάζουν κάτι.
Ο δικός μας εξατομικευμένος ελεγκτής ψεύτικων ειδήσεων με τεχνητή νοημοσύνη θα μπορούσε να σχεδιαστεί για να δώσει στον καθένα μας ένα από αυτά τα αντίμετρα για να εξουδετερώσει τις βλάβες από το ψευδές περιεχόμενο στο διαδίκτυο.
Μια τέτοια τεχνολογία δοκιμάζεται ήδη. Ερευνητές στις ΗΠΑ μελέτησαν τον τρόπο με τον οποίο οι άνθρωποι αλληλεπιδρούν με έναν εξατομικευμένο ελεγκτή AI fake news των αναρτήσεων στα μέσα κοινωνικής δικτύωσης. Έμαθε να μειώνει τον αριθμό των αναρτήσεων σε μια ροή ειδήσεων σε εκείνες που έκρινε αληθινές.
Ως απόδειξη της έννοιας, μια άλλη μελέτη που χρησιμοποίησε αναρτήσεις στα μέσα κοινωνικής δικτύωσης προσάρμοσε πρόσθετο ειδησεογραφικό περιεχόμενο σε κάθε ανάρτηση στα μέσα ενημέρωσης για να ενθαρρύνει τους χρήστες να δουν εναλλακτικές προοπτικές.
Ακριβής εντοπισμός των fake news
Όμως, είτε όλα αυτά ακούγονται εντυπωσιακά είτε δυστοπικά, πριν παρασυρθούμε, ίσως αξίζει να θέσουμε ορισμένα βασικά ερωτήματα.
Πολλές, αν όχι όλες, οι εργασίες σχετικά με τις ψευδείς ειδήσεις, τα deep fakes, την προπαγάνδα και την παραπληροφόρηση αναδεικνύουν το ίδιο πρόβλημα που θα αντιμετώπιζε οποιοσδήποτε ανιχνευτής ψεύδους.
Υπάρχουν πολλοί τύποι ανιχνευτών ψεύδους, όχι μόνο το τεστ πολυγράφου. Ορισμένοι εξαρτώνται αποκλειστικά από τη γλωσσική ανάλυση. Άλλοι είναι συστήματα σχεδιασμένα να διαβάζουν τα πρόσωπα των ανθρώπων για να ανιχνεύουν αν διαρρέουν μικροσυναισθήματα που προδίδουν ότι λένε ψέματα. Με την ίδια λογική, υπάρχουν συστήματα τεχνητής νοημοσύνης που έχουν σχεδιαστεί για να ανιχνεύουν αν ένα πρόσωπο είναι γνήσιο ή βαθιά ψεύτικο.
Πριν αρχίσει η ανίχνευση, πρέπει όλοι να συμφωνήσουμε στο πώς μοιάζει ένα ψέμα, αν θέλουμε να το εντοπίσουμε. Στην πραγματικότητα, στην έρευνα για την εξαπάτηση η έρευνα δείχνει ότι μπορεί να είναι ευκολότερη επειδή μπορείτε να καθοδηγήσετε τους ανθρώπους πότε να λένε ψέματα και πότε να λένε την αλήθεια. Και έτσι έχετε κάποιο τρόπο να γνωρίζετε την βασική αλήθεια πριν εκπαιδεύσετε έναν άνθρωπο ή μια μηχανή να διακρίνει τη διαφορά, επειδή τους παρέχονται παραδείγματα στα οποία θα βασίσουν τις κρίσεις τους.
Η γνώση του πόσο καλός είναι ένας ειδικός ανιχνευτής ψεύδους εξαρτάται από το πόσο συχνά αναφέρουν ένα ψέμα όταν υπάρχει (χτύπημα). Αλλά και από το αν δεν μπερδεύουν συχνά κάποιον ότι λέει την αλήθεια, ενώ στην πραγματικότητα έλεγε ψέματα (miss). Αυτό σημαίνει ότι πρέπει να γνωρίζουν ποια είναι η αλήθεια όταν τη βλέπουν (σωστή απόρριψη) και να μην κατηγορούν κάποιον για ψέμα όταν έλεγε την αλήθεια (ψευδής συναγερμός). Αυτό στο οποίο αναφέρεται αυτό είναι η ανίχνευση σήματος και η ίδια λογική ισχύει και για την ανίχνευση ψευδών ειδήσεων, την οποία μπορείτε να δείτε στο παρακάτω διάγραμμα.
Αν η Τεχνητή Νοημοσύνη είχε σχεδιαστεί για να ανιχνεύει ψευδείς ειδήσεις, ιδού οι τρόποι με τους οποίους θα μπορούσε να έχει δίκιο (επιτυχία, σωστή απόρριψη) καθώς και οι τρόποι με τους οποίους θα μπορούσε να κάνει λάθος (αστοχία, ψευδής συναγερμός).
Προκειμένου ένα σύστημα AI που ανιχνεύει ψεύτικες ειδήσεις, να είναι εξαιρετικά ακριβές, τα hits πρέπει να είναι πολύ υψηλά (π.χ. 90%) και έτσι τα misses θα είναι πολύ χαμηλά (π.χ. 10%), και οι ψευδείς συναγερμοί πρέπει να παραμένουν χαμηλοί (π.χ. 10%), πράγμα που σημαίνει ότι οι πραγματικές ειδήσεις δεν ονομάζονται ψεύτικες. Αν μας προταθεί ένα σύστημα ελέγχου γεγονότων από τεχνητή νοημοσύνη ή ένα ανθρώπινο σύστημα, με βάση την ανίχνευση σημάτων, μπορούμε να καταλάβουμε καλύτερα πόσο καλό είναι.
Είναι πιθανό να υπάρχουν περιπτώσεις, όπως έχει αναφερθεί σε πρόσφατη έρευνα, όπου το περιεχόμενο των ειδήσεων μπορεί να μην είναι εντελώς ψευδές ή εντελώς αληθινό, αλλά μερικώς ακριβές. Το γνωρίζουμε αυτό επειδή η ταχύτητα των ειδησεογραφικών ροών επισημαίνει ότι αυτό που θεωρείται ακριβές σε μια στιγμή, μπορεί αργότερα να αποδειχθεί ανακριβές ή το αντίστροφο. Έτσι, ένα σύστημα ελέγχου ψευδών ειδήσεων έχει αρκετή δουλειά.
Εάν, από μόνοι μας, γνωρίζαμε εκ των προτέρων τι ήταν ψεύτικο και τι πραγματικό ως είδηση, πόσο ακριβείς είναι οι βιοδείκτες στο να υποδεικνύουν ασυνείδητα ποια είναι ποια; Η απάντηση δεν είναι πολύ καλή στην προκειμένη περίπτωση. Η νευρωνική δραστηριότητα είναι τις περισσότερες φορές η ίδια, όταν συναντάμε αληθινά και ψεύτικα άρθρα ειδήσεων.
Όσον αφορά τις μελέτες ανίχνευσης των ματιών, αξίζει να γνωρίζουμε ότι υπάρχουν διαφορετικοί τύποι δεδομένων που συλλέγονται από τις τεχνικές ανίχνευσης των ματιών (π.χ. η διάρκεια του χρόνου που το μάτι μας σταθεροποιείται σε ένα αντικείμενο, η συχνότητα που το μάτι μας κινείται σε μια οπτική σκηνή).
Έτσι, ανάλογα με το τι αναλύεται, ορισμένες μελέτες δείχνουν ότι δείχνουμε περισσότερη προσοχή, όταν βλέπουμε ψευδές περιεχόμενο, ενώ άλλες δείχνουν το αντίθετο.
Πόσο κοντά είμαστε σε κάτι τέτοιο;
Τα συστήματα ανίχνευσης ψευδών ειδήσεων με AI που κυκλοφορούν στην αγορά, χρησιμοποιούν ήδη γνώσεις από την επιστήμη της συμπεριφοράς για να μας βοηθήσουν να επισημάνουμε και να μας προειδοποιήσουν για το περιεχόμενο των ψευδών ειδήσεων. Επομένως, δεν θα είναι καθόλου απίθανο τα ίδια συστήματα Τεχνητής Νοημοσύνης να αρχίσουν να εμφανίζονται στις ροές ειδήσεων μας με προσαρμοσμένη προστασία για το μοναδικό προφίλ του χρήστη μας. Το πρόβλημα με όλα αυτά είναι ότι έχουμε ακόμα πολύ μεγάλο έδαφος να καλύψουμε, ώστε να μάθουμε τι λειτουργεί, αλλά και να ελέγξουμε αν το θέλουμε αυτό.
Στη χειρότερη περίπτωση, βλέπουμε τις ψευδείς ειδήσεις ως πρόβλημα στο διαδίκτυο μόνο ως δικαιολογία για να το λύσουμε με τη χρήση Τεχνητής Νοημοσύνης. Αλλά το ψευδές και ανακριβές περιεχόμενο είναι παντού και συζητείται offline. Και όχι μόνο αυτό, δεν πιστεύουμε εξ ορισμού όλες τις ψευδείς ειδήσεις, αλλά μερικές φορές τις χρησιμοποιούμε σε συζητήσεις για να καταδείξουμε κακές ιδέες.
Σε ένα ιδεατό σενάριο, η επιστήμη των δεδομένων και η επιστήμη της συμπεριφοράς είναι σίγουρη για την κλίμακα των διαφόρων βλαβών που μπορεί να προκαλέσουν οι ψευδείς ειδήσεις. Αλλά, ακόμη και εδώ, οι εφαρμογές τεχνητής νοημοσύνης σε συνδυασμό με την επιστημονική μαγεία μπορεί να εξακολουθούν να είναι πολύ φτωχά υποκατάστατα λιγότερο εξελιγμένων αλλά πιο αποτελεσματικών λύσεων.
* Η Magda Osman είναι Καθηγήτρια Επιπτώσεων Πολιτικής στο Πανεπιστήμιο του Leeds. Το άρθρο της αναδημοσιεύεται αυτούσιο στο Liberal μέσω άδειας Creative Commons από τον ιστότοπο TheConversation.com.