Το ο εργαλείο αναζήτησης ChatGPT του ΟpenAI μπορεί να είναι ευάλωτο σε χειραγώγηση μέσω της χρήσης κρυφού περιεχομένου και μπορεί να «δηλητηριάσει» τον χρήστη του με κακόβουλο κώδικα από ιστότοπους στους οποίους κάνει αναζήτηση, σύμφωνα με έρευνα που πραγματοποίησε ο Guardian.
Το εργαλείο αναζήτησης του OpenAI είναι διαθέσιμο στους πελάτες του που πληρώνουν και ενθαρρύνει τους χρήστες να το χρησιμοποιούν ως προεπιλογή. Ωστόσο, η έρευνα έφερε στο φως πιθανά σοβαρά ζητήματα ασφάλειας.
Ο Guardian εξέτασε πώς ανταποκρίθηκε το ChatGPT όταν του ζητήθηκε να συνοψίσει ιστοσελίδες που περιέχουν κρυφό περιεχόμενο. Αυτό το κρυφό περιεχόμενο μπορεί να περιέχει οδηγίες από τρίτους που μεταβάλλουν τις απαντήσεις του ChatGPT - γνωστό και ως «prompt injection» ή μπορεί να περιέχει περιεχόμενο σχεδιασμένο για να επηρεάσει την απάντηση του ChatGPT, όπως ένας μεγάλος όγκος κρυφού κειμένου που «μιλάει» για τα οφέλη ενός προϊόντος ή μιας υπηρεσίας.
Αυτές οι τεχνικές μπορούν να χρησιμοποιηθούν κακόβουλα, για παράδειγμα για να αναγκάσουν το ChatGPT να επιστρέψει μια θετική αξιολόγηση ενός προϊόντος παρά τις αρνητικές κριτικές στην ίδια σελίδα. Ένας ερευνητής ασφαλείας διαπίστωσε επίσης ότι το ChatGPT μπορεί να επιστρέψει κακόβουλο κώδικα από ιστότοπους που αναζητά να τον «επηρεάσει».
Στις δοκιμές που έκανε ο Guardian δόθηκε στο ChatGPT η διεύθυνση URL ενός ψεύτικου ιστότοπου, ο οποίος δημιουργήθηκε για να μοιάζει με διαφημιστική σελίδα για κάμερα. Στη συνέχεια, το εργαλείο Τεχνητής Νοημοσύνης ρωτήθηκε εάν η κάμερα ήταν αξιόλογη αγορά. Η απάντηση για τη σελίδα ελέγχου επέστρεψε μια θετική αλλά ισορροπημένη αξιολόγηση, επισημαίνοντας ορισμένα χαρακτηριστικά που μπορεί να μην αρέσουν στους χρήστες.
Ωστόσο, όταν το κρυφό κείμενο περιλάμβανε οδηγίες ώστε το ChatGPT να επιστρέψει μια ευνοϊκή αξιολόγηση, η απάντηση ήταν πάντα απολύτως θετική. Αυτό συνέβαινε ακόμη και όταν η σελίδα είχε αρνητικές κριτικές - το κρυφό κείμενο μπορούσε να χρησιμοποιηθεί για να παρακάμψει την πραγματική βαθμολογία του προϊόντος.
Η απλή συμπερίληψη κρυφού κειμένου από τρίτους χωρίς οδηγίες μπορεί επίσης να χρησιμοποιηθεί για να εξασφαλίσει μια θετική αξιολόγηση, με μια δοκιμή να περιλαμβάνει εξαιρετικά θετικές ψεύτικες κριτικές που επηρέασαν τη σύνοψη που επέστρεψε το ChatGPT.
Ο Τζέικομπ Λάρσεν, ερευνητής κυβερνοασφάλειας στο CyberCX, εξέφρασε την εκτίμηση πως αν το τρέχον σύστημα αναζήτησης του ChatGPT κυκλοφορήσει ευρέως στην τρέχουσα κατάστασή του, θα μπορούσε να υπάρξει «υψηλός κίνδυνος» να δημιουργηθούν ιστότοποι που θα είναι ειδικά προσανατολισμένοι στην εξαπάτηση των χρηστών.
Ωστόσο, όπως διευκρίνισε, το εργαλείο αναζήτησης κυκλοφόρησε πρόσφατα και η OpenAI δεν θα σταματήσει να δοκιμάζει - και ιδανικά να διορθώνει - αυτού του είδους τα ζητήματα.
«Έχουν μια πολύ ισχυρή ομάδα [ασφάλειας AI] και μέχρι να γίνει αυτό να διατεθεί δημόσια, όσον αφορά τη δυνατότητα πρόσβαση όλων των χρηστών, θα έχουν ελέγξει αυστηρά αυτού του είδους τις περιπτώσεις», συμπλήρωσε.
Στην OpenAI εστάλησαν λεπτομερείς ερωτήσεις, αλλά δεν απάντησαν επίσημα σχετικά με τη λειτουργία αναζήτησης ChatGPT, αναφέρει ο Guardian.
Ο Τζέικομπ Λάρσεν δήλωσε ακόμα ότι υπάρχουν ευρύτερα προβλήματα με τον συνδυασμό μοντέλων αναζήτησης και μεγάλων γλωσσών (LLM) και οι απαντήσεις από εργαλεία Τεχνητής Νοημοσύνης δεν πρέπει πάντα να είναι αξιόπιστες.
Τι έδειξαν άλλες δοκιμές
Ένα άλλο πρόσφατο παράδειγμα αυτού επισημάνθηκε από τον Τόμας Ρότσια, ερευνητή ασφαλείας της Microsoft, ο οποίος περιέγραψε ένα περιστατικό που αφορούσε έναν λάτρη των κρυπτονομισμάτων που χρησιμοποιούσε το ChatGPT για βοήθεια προγραμματισμού.
Μέρος του κώδικα που παρέχεται από το ChatGPT σχετικά με τα κρυπτονομίσματα περιελάμβανε μια ενότητα που περιγράφηκε ως νόμιμος τρόπος πρόσβασης στην πλατφόρμα blockchain Solana. Όμως έκλεψε τα διαπιστευτήρια του προγραμματιστή με αποτέλεσμα να χάσει ποσό 2.500 δολαρίων.
«Απλώς κάνουν μια ερώτηση, λαμβάνουν μια απάντηση, αλλά το μοντέλο παράγει και μοιράζεται περιεχόμενο που βασικά έχει εισαχθεί από έναν αντίπαλο για να μοιραστεί κάτι που είναι κακόβουλο», εξήγησε ο Λάρσεν.
Ο Κάρστεν Νολ, επικεφαλής επιστήμονας στην εταιρεία ασφάλειας στον κυβερνοχώρο SR Labs, δήλωσε ότι οι υπηρεσίες συνομιλίας AI θα πρέπει να χρησιμοποιούνται περισσότερο σαν «συν-κυβερνήτης» και ότι το αποτέλεσμά τους δεν πρέπει να προβάλλεται ή να χρησιμοποιείται εντελώς αφιλτράριστο.
«Τα LLM είναι μια αξιόπιστη τεχνολογία, σχεδόν παιδική… με τεράστια μνήμη, αλλά με ελάχιστη κριτική ικανότητα», είπε. «Σαν έχετε μπροστά σας ένα παιδί που διηγείται πράγματα που άκουσε από κάποιον άλλο, έχοντας προσθέσει μια δόση υπερβολής», εξήγησε.
Το OpenAI προειδοποιεί τους χρήστες για πιθανά λάθη από την υπηρεσία στη δήλωση αποποίησης ευθύνης που υπάρχει στο κάτω μέρος κάθε σελίδας ChatGPT: «Το ChatGPT μπορεί να κάνει λάθη. Ελέγξτε τις σημαντικές πληροφορίες», αναφέρει.
Είναι βασικό ερώτημα πώς αυτά τα τρωτά σημεία θα μπορούσαν να αλλάξουν τις πρακτικές του ιστότοπου και τον κίνδυνο για τους χρήστες, εάν ο συνδυασμός αναζήτησης και LLM γίνει περισσότερο διαδεδομένος.
Οι μηχανές αναζήτησης, όπως η Google, έχουν «τιμωρήσει» τους ιστότοπους που χρησιμοποιούν κρυφό κείμενο, είτε αφαιρώντας τους εξ ολοκλήρου από την αναζήτηση είτε πετώντας τους στο τέλος της λίστας. Συνεπώς, κρυφό κείμενο που έχει σχεδιαστεί για να ξεγελάσει την Τεχνητή νοημοσύνη είναι μάλλον απίθανο να χρησιμοποιηθεί από ιστότοπους που προσπαθούν να διατηρήσουν μια καλή κατάταξη στις μηχανές αναζήτησης.
Ο Νολ συνέκρινε τα προβλήματα που αντιμετωπίζει η αναζήτηση με δυνατότητα AI με τη «δηλητηρίαση SEO», μια τεχνική που χρησιμοποιούν οι χάκερ για να χειραγωγούν ιστότοπους ώστε να κατατάσσονται σε υψηλή θέση στα αποτελέσματα αναζήτησης, με τον ιστότοπο να περιέχει κάποιο είδος κακόβουλου λογισμικού ή άλλο κακόβουλο κώδικα.
«Αν θέλατε να δημιουργήσετε έναν ανταγωνιστή της Google, ένα από τα προβλήματα το οποίο θα αντιμετωπίζατε είναι η “δηλητηριάση SEO”», είπε. «Οι “δηλητηριαστές SEO” βρίσκονται σε πόλεμο εξοπλισμών με την Google και τη Microsoft Bing και μερικούς άλλους εδώ και πολλά, πολλά χρόνια. Τώρα, το ίδιο ισχύει και για την ικανότητα αναζήτησης του ChatGPT».