Όταν κάποιος βλέπει κάτι που δεν υπάρχει, οι άνθρωποι συχνά αναφέρονται στην εμπειρία ως παραισθήσεις. Οι παραισθήσεις συμβαίνουν όταν η αισθητηριακή σας αντίληψη δεν αντιστοιχεί σε εξωτερικά ερεθίσματα.
Οι τεχνολογίες που βασίζονται στην Τεχνητή Νοημοσύνη μπορούν επίσης να έχουν παραισθήσεις.
Όταν ένα αλγοριθμικό σύστημα δημιουργεί πληροφορίες που φαίνονται εύλογες αλλά είναι στην πραγματικότητα ανακριβείς ή παραπλανητικές, οι επιστήμονες υπολογιστών το αποκαλούν παραίσθηση Τεχνητής Νοημοσύνης. Οι ερευνητές έχουν εντοπίσει αυτές τις συμπεριφορές σε διάφορους τύπους συστημάτων Τεχνητής Νοημοσύνης, από chatbots όπως το ChatGPT έως γεννήτριες εικόνων όπως το DALL-E και αυτόνομα οχήματα. Εμείς είμαστε ερευνητές της επιστήμης της πληροφορίας που έχουμε μελετήσει τις παραισθήσεις στα συστήματα αναγνώρισης ομιλίας της ΑΙ.
Όπου χρησιμοποιούνται συστήματα Τεχνητής Νοημοσύνης στην καθημερινή ζωή, οι παραισθήσεις τους μπορεί να ενέχουν κινδύνους.
Μερικές μπορεί να είναι ασήμαντες – όταν ένα chatbot δίνει λάθος απάντηση σε μια απλή ερώτηση, ο χρήστης μπορεί απλώς να είναι λανθασμένα ενημερωμένος.
Αλλά σε άλλες περιπτώσεις, το διακύβευμα είναι πολύ υψηλότερο.
Από δικαστικές αίθουσες, όπου λογισμικό AI χρησιμοποιείται για τη λήψη αποφάσεων σχετικά με ποινές, έως ασφαλιστικές εταιρείες, όπου αλγόριθμοι καθορίζουν την επιλεξιμότητα ενός ασθενούς για κάλυψη, οι παραισθήσεις της AI μπορεί να έχουν επιπτώσεις που αλλάζουν ζωές.
Μπορούν ακόμη και να είναι απειλητικές για τη ζωή: Τα αυτόνομα οχήματα χρησιμοποιούν AI για να εντοπίζουν εμπόδια, άλλα οχήματα και πεζούς.
Επινοώντας πληροφορίες
Οι παραισθήσεις και οι επιπτώσεις τους εξαρτώνται από τον τύπο του συστήματος Τεχνητής Νοημοσύνης. Στα μεγάλα γλωσσικά μοντέλα – που αποτελούν την υποκείμενη τεχνολογία των chatbots AI – οι παραισθήσεις είναι κομμάτια πληροφοριών που ακούγονται πειστικά αλλά είναι λανθασμένα, επινοημένα ή άσχετα. Ένα chatbot AI μπορεί να δημιουργήσει μια αναφορά σε ένα επιστημονικό άρθρο που δεν υπάρχει ή να παρέχει ένα ιστορικό γεγονός που είναι απλά λάθος, αλλά να το κάνει να ακούγεται απόλυτα αληθινό.
Σε μια δικαστική υπόθεση το 2023, για παράδειγμα, ένας δικηγόρος στη Νέα Υόρκη υπέβαλε μια νομική αναφορά που είχε γράψει με τη βοήθεια του ChatGPT. Ένας παρατηρητικός δικαστής αργότερα παρατήρησε ότι η αναφορά παρέθετε μια ανύπαρκτη υπόθεση που το ChatGPT είχε επινοήσει. Αυτό θα μπορούσε να οδηγήσει σε διαφορετικά αποτελέσματα στις δικαστικές αίθουσες, εάν οι άνθρωποι δεν μπορούσαν να εντοπίσουν την πλαστή πληροφορία.
Με τα εργαλεία Τεχνητής Νοημοσύνης που μπορούν να αναγνωρίζουν αντικείμενα σε εικόνες, οι παραισθήσεις συμβαίνουν όταν η ΑΙ δημιουργεί λεζάντες που δεν ανταποκρίνονται πιστά στην παρεχόμενη εικόνα. Φανταστείτε να ζητήσετε από ένα σύστημα να απαριθμήσει τα αντικείμενα σε μια εικόνα που δείχνει μια γυναίκα από το στήθος και πάνω να μιλάει στο τηλέφωνο και να λάβετε ως απάντηση ότι πρόκειται για μια γυναίκα που μιλάει στο τηλέφωνο ενώ κάθεται σε ένα παγκάκι. Αυτή η ανακριβής πληροφορία μπορεί να οδηγήσει σε διαφορετικές συνέπειες, ειδικά σε περιβάλλοντα όπου η ακρίβεια είναι κρίσιμη.
Τι προκαλεί τις παραισθήσεις
Οι μηχανικοί δημιουργούν συστήματα Τεχνητής Νοημοσύνης συλλέγοντας τεράστιες ποσότητες δεδομένων και τροφοδοτώντας τα σε ένα υπολογιστικό σύστημα που εντοπίζει μοτίβα σε αυτά τα δεδομένα. Το σύστημα αναπτύσσει μεθόδους για να απαντά σε ερωτήσεις ή να εκτελεί εργασίες με βάση αυτά τα μοτίβα.
Αν τροφοδοτήσετε ένα σύστημα Τεχνητής Νοημοσύνης με 1.000 φωτογραφίες από διαφορετικές ράτσες σκύλων, σωστά επισημασμένες, το σύστημα θα μάθει σύντομα να διακρίνει τη διαφορά μεταξύ ενός κανίς και ενός γκόλντεν ρετρίβερ. Ωστόσο, αν του δώσετε μια φωτογραφία από ένα μάφιν με μύρτιλα, όπως έχουν δείξει οι ερευνητές της μηχανικής μάθησης, το μοντέλο ενδέχεται να το αναγνωρίσει λανθασμένα ως ένα τσιουάουα.
Object recognition AIs can have trouble distinguishing between chihuahuas and blueberry muffins and between sheepdogs and mops. Shenkman et al, CC BY
Όταν ένα σύστημα δεν κατανοεί την ερώτηση ή τις πληροφορίες που του παρέχονται, μπορεί να παρουσιάσει παραισθήσεις. Οι παραισθήσεις συμβαίνουν συχνά όταν το μοντέλο συμπληρώνει κενά με βάση παρόμοια συμφραζόμενα από τα δεδομένα εκπαίδευσής του ή όταν έχει εκπαιδευτεί με προκατειλημμένα ή ελλιπή δεδομένα. Αυτό οδηγεί σε λανθασμένες εκτιμήσεις, όπως στην περίπτωση του εσφαλμένα χαρακτηρισμένου μάφιν με μύρτιλα.
Είναι σημαντικό να διακρίνουμε τις παραισθήσεις της AI από τα σκόπιμα δημιουργικά αποτελέσματα της Τεχνητής Νοημοσύνης. Όταν ένα σύστημα AI καλείται να είναι δημιουργικό – όπως όταν γράφει μια ιστορία ή δημιουργεί καλλιτεχνικές εικόνες – οι καινοτόμες αποκρίσεις του είναι αναμενόμενες και επιθυμητές. Αντίθετα, οι παραισθήσεις συμβαίνουν όταν ένα σύστημα AI καλείται να παρέχει ακριβείς πληροφορίες ή να εκτελέσει συγκεκριμένες εργασίες, αλλά παράγει λανθασμένο ή παραπλανητικό περιεχόμενο παρουσιάζοντάς το ως ορθό.
Η βασική διαφορά βρίσκεται στο πλαίσιο και στον σκοπό: Η δημιουργικότητα είναι επιθυμητή για καλλιτεχνικά έργα, ενώ οι παραισθήσεις είναι προβληματικές όταν απαιτείται ακρίβεια και αξιοπιστία.
Για την αντιμετώπιση αυτών των προβλημάτων, οι εταιρείες έχουν προτείνει τη χρήση υψηλής ποιότητας δεδομένων εκπαίδευσης και τον περιορισμό των AI απαντήσεων βάσει συγκεκριμένων κατευθυντήριων οδηγιών. Ωστόσο, αυτά τα ζητήματα ενδέχεται να συνεχίσουν να υφίστανται σε δημοφιλή εργαλεία Τεχνητής Νοημοσύνης.
Ποιες είναι οι επιπτώσεις
Το να αποκαλέσει η Τεχνητή Νοημοσύνη ένα μάφιν «τσιουάουα» μπορεί να φαίνεται ασήμαντο, αλλά σκεφτείτε τα διαφορετικά είδη τεχνολογιών που χρησιμοποιούν συστήματα αναγνώρισης εικόνας:
Ένα αυτόνομο όχημα που αποτυγχάνει να αναγνωρίσει αντικείμενα θα μπορούσε να οδηγήσει σε θανατηφόρο τροχαίο ατύχημα.
Ένα στρατιωτικό drone που λανθασμένα αναγνωρίζει έναν στόχο θα μπορούσε να θέσει σε κίνδυνο αμάχους.
Για τα εργαλεία Τεχνητής Νοημοσύνης που παρέχουν αυτόματη αναγνώριση ομιλίας, οι παραισθήσεις είναι λανθασμένες μεταγραφές που περιλαμβάνουν λέξεις ή φράσεις που δεν ειπώθηκαν ποτέ στην πραγματικότητα. Αυτό είναι πιο πιθανό να συμβεί σε θορυβώδη περιβάλλοντα, όπου ένα σύστημα AI μπορεί να προσθέσει νέες ή άσχετες λέξεις στην προσπάθειά του να αποκρυπτογραφήσει θόρυβο στο παρασκήνιο, όπως έναν διερχόμενο φορτηγό ή ένα κλάμα μωρού.
Καθώς αυτά τα συστήματα ενσωματώνονται όλο και περισσότερο στην υγειονομική περίθαλψη, τις κοινωνικές υπηρεσίες και τα νομικά πλαίσια, οι παραισθήσεις στην αυτόματη αναγνώριση ομιλίας θα μπορούσαν να οδηγήσουν σε ανακριβείς κλινικές ή νομικές αποφάσεις, βλάπτοντας ασθενείς, κατηγορούμενους ή οικογένειες που χρειάζονται κοινωνική στήριξη.
Ελέγχοντας τα αποτελέσματα της Τεχνητής Νοημοσύνης
Παρά τις προσπάθειες των εταιρειών Τεχνητής Νοημοσύνης να περιορίσουν τις παραισθήσεις, οι χρήστες πρέπει να είναι προσεκτικοί και να αμφισβητούν τα αποτελέσματα των AI συστημάτων, ειδικά σε τομείς όπου απαιτείται ακρίβεια. Επαλήθευση AI πληροφοριών με αξιόπιστες πηγές, διασταύρωση δεδομένων και αναγνώριση των περιορισμών αυτών των εργαλείων είναι τα απαραίτητα βήματα για τη μείωση των κινδύνων.
* Η Anna Choi είναι υποψήφια Διδάκτορας στην Επιστήμη της Πληροφορίας, στο Πανεπιστήμιο Κορνέλ. Η Katelyn Mei είναι διδακτορική φοιτήτρια στην Επιστήμη της Πληροφορίας, στο Πανεπιστήμιο της Ουάσινγκτον (UW). Το άρθρο τους αναδημοσιεύεται αυτούσιο στο Liberal, μέσω άδειας Creative Commons από τον ιστότοπο TheConversation.