Η OpenAI βρίσκεται αντιμέτωπη με άλλη μια καταγγελία για την προστασία προσωπικών δεδομένων στην Ευρώπη σχετικά με την τάση του AI chatbot της να παράγει ψευδείς πληροφορίες, κάτι που μπορεί να αποδειχθεί δύσκολο για τις ρυθμιστικές αρχές να το αγνοήσουν.
Η ομάδα υπεράσπισης των δικαιωμάτων προστασίας της ιδιωτικής ζωής Noyb υποστηρίζει ένα άτομο στη Νορβηγία, το οποίο με τρόμο διαπίστωσε ότι το ChatGPT έδινε κατασκευασμένες πληροφορίες που υποστήριζαν ότι είχε καταδικαστεί για τη δολοφονία δύο εκ των παιδιών του αλλά και για την απόπειρα δολοφονίας του τρίτου.
Προηγούμενες καταγγελίες για την προστασία της ιδιωτικής ζωής σχετικά με τη δημιουργία εσφαλμένων προσωπικών δεδομένων από το ChatGPT, αφορούσαν θέματα όπως λανθασμένη ημερομηνία γέννησης ή ψευδή βιογραφικά στοιχεία.
Παρόλα αυτά, υπάρχει η ανησυχία ότι το OpenAI δεν αφήνει τα άτομα να διορθώσουν τις λανθασμένες πληροφορίες που παράγει.
Όμως, σύμφωνα με τον Γενικό Κανονισμό Προστασίας Δεδομένων της Ευρωπαϊκής Ένωσης (GDPR), οι Ευρωπαίοι έχουν μια σειρά από δικαιώματα πρόσβασης στα προσωπικά δεδομένα που περιλαμβάνουν το δικαίωμα διόρθωσης τους.
Μια άλλη συνιστώσα αυτού του νόμου περί προστασίας δεδομένων απαιτεί από τους υπεύθυνους επεξεργασίας δεδομένων, να διασφαλίζουν ότι τα αυτά που παράγουν για τα άτομα είναι ακριβή - και αυτή είναι μια ανησυχία που επισημαίνει η Noyb με την τελευταία καταγγελία της ChatGPT.
«Ο ΓΚΠΔ είναι σαφής. Τα προσωπικά δεδομένα πρέπει να είναι ακριβή», δήλωσε ο Χοακίμ Σόντερμπεργκ, δικηγόρος προστασίας δεδομένων της Noyb, σε δήλωσή του.
«Οι χρήστες έχουν το δικαίωμα να τα αλλάξουν ώστε να αντικατοπτρίζουν την αλήθεια. Το να δείχνετε στους χρήστες του ChatGPT μια μικροσκοπική δήλωση αποποίησης ευθυνών ότι το chatbot μπορεί να κάνει λάθη είναι σαφές ότι δεν αρκεί. Δεν μπορείτε απλώς να διαδίδετε ψευδείς πληροφορίες και στο τέλος να προσθέτετε μια μικρή αποποίηση ευθυνών που να λέει ότι όλα όσα είπατε μπορεί απλώς να μην είναι αλήθεια».
Σημειώνεται ότι οι επιβεβαιωμένες παραβάσεις του ΓΚΠΔ μπορούν να οδηγήσουν σε κυρώσεις έως και 4% του παγκόσμιου ετήσιου κύκλου εργασιών.
Οι κυρώσεις αυτές μπορούν επίσης να επιβάλλουν αλλαγές στα προϊόντα AI. Ειδικότερα, μια πρώιμη παρέμβαση του GDPR από το Παρατηρητήριο Προστασίας Δεδομένων της Ιταλίας που είδε την πρόσβαση στο ChatGPT να μπλοκάρεται προσωρινά στη χώρα την άνοιξη του 2023 οδήγησε την OpenAI να κάνει αλλαγές στις πληροφορίες που αποκαλύπτει στους χρήστες. Το παρατηρητήριο προχώρησε στη συνέχεια στην επιβολή προστίμου ύψους 15 εκατομμυρίων ευρώ στην OpenAI για την επεξεργασία των δεδομένων των ανθρώπων χωρίς κατάλληλη νομική βάση.
Έκτοτε, όμως, είναι δίκαιο να πούμε ότι οι παρατηρητές προστασίας της ιδιωτικής ζωής σε όλη την Ευρώπη έχουν υιοθετήσει μια πιο προσεκτική προσέγγιση στο GenAI, καθώς προσπαθούν να καταλάβουν πώς να εφαρμόσουν καλύτερα τον ΓΚΠΔ σε αυτά τα εργαλεία Τεχνητής Νοημοσύνης.
Πριν από δύο χρόνια, η Επιτροπή Προστασίας Δεδομένων της Ιρλανδίας (DPC) - η οποία έχει ηγετικό ρόλο στην επιβολή του ΓΚΠΔ σε προηγούμενη καταγγελία της Noyb ChatGPT - προέτρεψε, για παράδειγμα, να μην σπεύσουν να απαγορεύσουν τα εργαλεία GenAI. Αυτό υποδηλώνει ότι οι ρυθμιστικές αρχές θα πρέπει αντ' αυτού να πάρουν χρόνο για να επεξεργαστούν τον τρόπο εφαρμογής του νόμου.
Και είναι αξιοσημείωτο ότι μια καταγγελία για την προστασία της ιδιωτικής ζωής κατά της ChatGPT, η οποία βρίσκεται υπό διερεύνηση από τον εποπτικό φορέα προστασίας δεδομένων της Πολωνίας από τον Σεπτέμβριο του 2023, δεν έχει ακόμη οδηγήσει σε απόφαση.
Η νέα καταγγελία της Noyb για την ChatGPT φαίνεται ότι έχει ως στόχο να αφυπνίσει τις ρυθμιστικές αρχές προστασίας της ιδιωτικής ζωής όσον αφορά τους κινδύνους που εγκυμονούν από το AI.
«Ποιος είναι ο Άρβε Χιάλμαρ Χόλμεν;»
Ο μη κερδοσκοπικός οργανισμός παραθέτει μια αλληλεπίδραση με το ChatGPT, στην οποία η Τεχνητή Νοημοσύνη απαντά σε μια ερώτηση που ρωτά «ποιος είναι ο Άρβε Χιάλμαρ Χόλμεν;». - το όνομα του ατόμου που υπέβαλε την καταγγελία - παράγοντας μια τραγική μυθοπλασία που αναφέρει ψευδώς ότι καταδικάστηκε σε 21 χρόνια φυλάκισης για παιδοκτονία.
Ενώ ο δυσφημιστικός ισχυρισμός ότι ο Χιάλμαρ Χόλμεν είναι δολοφόνος παιδιών είναι εντελώς ψευδής, ο Noyb σημειώνει ότι η απάντηση του ChatGPT περιλαμβάνει κάποιες αλήθειες, καθώς το εν λόγω άτομο έχει πράγματι τρία παιδιά. Ωστόσο, το chatbot έγραψε σωστά τα φύλα των παιδιών του και το όνομα της γενέτειράς του. Αλλά αυτό ακριβώς κάνει ακόμα πιο παράξενο και ανησυχητικό το γεγονός ότι η Τεχνητή Νοημοσύνη «είπε» τόσο φρικτά ψέματα αρχικά.
Ένας εκπρόσωπος της Noyb δήλωσε ότι δεν ήταν σε θέση να προσδιορίσει γιατί το chatbot παρήγαγε ένα τόσο συγκεκριμένο αλλά ψευδές ιστορικό.
Και ενώ η OpenAI εμφανίζει μια μικροσκοπική δήλωση αποποίησης ευθυνών στο κάτω μέρος της οθόνης που λέει: «Το ChatGPT μπορεί να κάνει λάθη. Ελέγξτε σημαντικές πληροφορίες», ο Noyb αναφέρει ότι αυτό δεν μπορεί να απαλλάξει τον προγραμματιστή AI από το καθήκον του βάσει του GDPR να μην παράγει εξαρχής κραυγαλέα ψεύδη για τους ανθρώπους.