Τη διττή υπόσταση της Τεχνητής Νοημοσύνης, ως εργαλείο βελτίωσης της ανθρώπινης καθημερινότητας, αλλά και ως επικίνδυνο όπλο στα χέρια επιτηδείων, αναλύει στο Liberal ο Αθανάσιος Μποζίνης, Επίκουρος Καθηγητής Παγκόσμιας Πολιτικής Οικονομίας, Νέων Τεχνολογιών και Βιοασφάλειας στο Τμήμα Διεθνών και Ευρωπαϊκών Σπουδών του Πανεπιστημίου Μακεδονίας.
Ο διαπρεπής ακαδημαϊκός δίνει ένα νέο, δικό του ορισμό αναφορικά με την Ηθική στην Τεχνητή Νοημοσύνη, ενώ παράλληλα επισημαίνει τους κινδύνους που πηγάζουν από την παραπληροφόρηση, τα fake news και τα deep fakes, στα οποία βρισκόμαστε καθημερινά εκτεθειμένοι, ιδίως ενόψει των ευρωεκλογών της 9ης Ιουνίου.
Ο ίδιος υπογραμμίζει ότι η Τεχνητή Νοημοσύνη δεν διαδραματίζει αυτούσια ρόλο game changer, αλλά ότι «game changer είναι η χρήση της ΤΝ και ο συνδυασμός της με άλλες στρατηγικές τεχνολογίες, όπως είναι η Ρομποτική, η Νευροτεχνολογία, η Νανοτεχνολογία και η Κβαντική Μηχανική».
Συνέντευξη στον Χρήστο Θ. Παναγόπουλο
Κύριε Μποζίνη, στο βιβλίο σας με τίτλο «Ηθική της Τεχνητής Νοημοσύνης»*, δεν εξετάζετε μόνο το πώς θα πρέπει να συμπεριφέρεται η ανθρωπότητα απέναντι στην Τεχνητή Νοημοσύνη (ΤΝ), αλλά και πώς θα πρέπει να συμπεριφέρεται το AI έναντι της ανθρωπότητας. Πρόκειται για μια σχέση αμοιβαιότητας ή υπάρχει κάτι άλλο, κατά την άποψή σας;
Πρόκειται, σίγουρα, για μια σχέση αλληλεξάρτησης κι αυτό γιατί είναι μια σχέση που θα μας απασχολήσει τα επόμενα χρόνια οπωσδήποτε. Είναι μια σχέση αλγοριθμική, γιατί η Τεχνητή Νοημοσύνη βασίζεται σε αλγόριθμους, η δημιουργία των οποίων προκύπτει από τους ανθρώπους.
Άρα, λοιπόν, όταν ο άνθρωπος είναι ένας δημιουργός μιας τεχνολογίας όπως είναι η Τεχνητή Νοημοσύνη – γιατί για εμένα η ΤΝ είναι μια στρατηγική τεχνολογία – τότε σίγουρα βρισκόμαστε ενώπιον μιας σχέσης αλληλεξάρτησης, η οποία καθημερινά θα μεταβάλλεται. Μπορεί να είναι συγκρουσιακή, αλλά μπορεί, παράλληλα, να είναι και συνεργατική.
Στο σημείο αυτό έρχεται το κρίσιμο ερώτημα: Πώς θέλουμε ακριβώς την ΤΝ; Πώς θα τη χρησιμοποιήσουμε και ποιοι θα είναι οι πιθανοί κίνδυνοι από τη χρήση της; Αυτό, ακριβώς, διαπραγματεύεται το βιβλίο των 1.000 σελίδων, το οποίο είναι το πρώτο που εκδίδεται και αφορά αποκλειστικά στην Ηθική της Τεχνητής Νοημοσύνης, ακόμη κι αν έχει γίνει πολύ μεγάλη κουβέντα ως προς τα ηθικά ζητήματα της ΤΝ. Το βιβλίο ασχολείται με τις πολιτικές και τις στρατηγικές της ΤΝ και πώς αυτές θα μπορέσουν να αποσοβήσουν κάποιους κινδύνους πάνω από μια στρατηγική τεχνολογία. Όπως παλαιότερα λέγαμε, κύριε Παναγόπουλε, για την πυρηνική τεχνολογία, η οποία ναι μεν μπορεί να χρησιμοποιηθεί ως όπλο στην κατασκευή πυραύλων, αλλά μπορεί να χρησιμοποιηθεί και ως ενέργεια.
Υπό το ίδιο πρίσμα, η ΤΝ ήδη σιγά – σιγά διευρύνεται και εφαρμόζεται καθημερινά, στα κινητά μας τηλέφωνα, στις έξυπνες συσκευές μας, στην Υγεία. Βλέπουμε, λοιπόν, μια κλιμάκωση στη χρήση εφαρμογών που βασίζονται στην ΤΝ. Οπότε έρχεται αυτό το βιβλίο να δώσει μια βάση συζήτησης για τα επόμενα δέκα χρόνια και για τις επόμενες γενιές, σχετικά με το πώς θα κινηθεί η ανθρωπότητα με την ΤΝ και τι επιπτώσεις θα έχει αυτή στην ανθρωπότητα, ανάλογα με τις αποφάσεις που θα λάβουμε.
Επειδή αναφερθήκατε σε κινδύνους, πώς τους ορίζουμε αυτούς στο πλαίσιο της Τεχνητής Νοημοσύνης;
Ένας από τους βασικούς κινδύνους, κατά τη γνώμη μου, είναι η οπλοποίηση της Τεχνητής Νοημοσύνης. Καταλαβαίνετε πώς όταν έχετε στη διάθεσή σας ένα ευφυέστατο τεχνολογικό επίτευγμα, το οποίο μπορεί να σκεφτεί και να κάνει χιλιάδες υπολογισμούς αλλά και να σας προτείνει λύσεις για τη διαχείριση κρίσεων, τότε αυτό είναι ένα θέμα που θα πρέπει να απασχολήσει τα κράτη στο άμεσο μέλλον.
Οι κίνδυνοι, λοιπόν, είναι καθημερινοί, διότι πολύ απλά όταν ένα σκεπτόμενο τεχνολογικό επίτευγμα μπορεί να αποφασίσει μόνο του, δεν γνωρίζουμε ποιες αποφάσεις θα πάρει υπέρ ή κατά της ανθρωπότητας. Με απλά λόγια, η πλειονότητα των ανθρώπων φοβάται τη δημιουργία ενός ψηφιακά ευφυούς «Μεγάλου Αδελφού», ο οποίος μπορεί να επικρατήσει έναντι του ανθρώπινου γένους μέσα στα επόμενα 20-30 χρόνια.
Προσωπικά, δεν θεωρώ ότι μπορεί να υπάρξει κάτι τόσο εκτενές. Βεβαίως οι προκλήσεις από την εφαρμογή της ΤΝ είναι πάρα πολύ σημαντικές.
Στο σημείο αυτό, όμως, θα πρέπει να σημειώσω κάτι: Για μένα η Τεχνητή Νοημοσύνη δεν συνιστά από μόνη της game changer. Game changer είναι η χρήση της ΤΝ και ο συνδυασμός της με άλλες στρατηγικές τεχνολογίες, όπως είναι η Ρομποτική, η Νευροτεχνολογία, η Νανοτεχνολογία και η Κβαντική Μηχανική. Εκεί, λοιπόν, θα δούμε μια πολλαπλή χρήση και εφαρμογή της Τεχνητής Νοημοσύνης, η οποία θα ενδυναμώσει τις εφαρμογές της στην καθημερινότητα του ανθρώπου.
Το ακούω με εξαιρετικό ενδιαφέρον αυτό που λέτε. Θα ήθελα, ωστόσο, να σταθούμε στο ζήτημα της Ηθικής, κύριε καθηγητά. Τελικά πού αρχίζουν και πού τελειώνουν τα όρια της Ηθικής στην Τεχνητή Νοημοσύνη; Ποιο είναι, με βάση την επιστημονική σας άποψη, το κρίσιμο σημείο;
Κατά την άποψή μου, το όριο της Ηθικής ξεπερνιέται εκεί ακριβώς όπου η Τεχνητή Νοημοσύνη αρχίζει ουσιαστικά να απειλεί τις βασικές κοινωνικές δομές και τις πολιτικές μιας κοινωνίας, έτσι ώστε να μπορεί να λειτουργεί αποτελεσματικά και συνεχόμενα. Σας δίνω, λοιπόν, ένα δικό μου ορισμό της Ηθικής στο πλαίσιο της Τεχνητής Νοημοσύνης.
Η Ηθική είναι η βάση πάνω στην οποία μπορεί να λειτουργεί απρόβλεπτα μια κοινωνία που να εξελίσσεται και να συνεργάζεται. Από εκεί και πέρα, όταν δεν υπάρχουν οι ηθικές δομές μέσα σε μια κοινωνία, υπάρχουν συγκρούσεις που έχουν πολιτικό κόστος και αυτό με τη σειρά του φέρνει αστάθεια, οι οποίες - αν μη τι άλλο - σε ένα ασταθές παγκοσμιοποιημένο περιβάλλον, φέρνουν επιπλοκές στην εθνική ασφάλεια.
Πρόσφατα, η ΕΕ πραγματοποίησε τα stress tests με τις μεγάλες πλατφόρμες κοινωνικής δικτύωσης (Meta, TikTok, X, Google κλπ.) και με κύριο θέμα τα ζητήματα της παραπληροφόρησης ενόψει των ευρωεκλογών της 9ης Ιουνίου. Ήδη, μάλιστα, η Meta βρίσκεται στο «μικροσκόπιο» των Βρυξελλών εν μέσω ανησυχιών για ενδεχόμενη εμπλοκή της Ρωσίας με τεχνολογίες AI και deepfakes σε ενδεχόμενη αλλοίωση των εκλογικών αποτελεσμάτων. Υπάρχει τρόπος να χρησιμοποιηθεί η Τεχνητή Νοημοσύνη ως «όπλο» κατά της παραπληροφόρησης;
Η Τεχνητή Νοημοσύνη συνιστά τεχνολογικό επίτευγμα, το οποίο προσπαθεί να προσομοιώσει την ανθρώπινη σκέψη και τις ανθρώπινες αποφάσεις. Άρα, λοιπόν, έχουμε μια ευρεία χρήση της ΤΝ και για την αντιμετώπιση της παραπληροφόρησης, αλλά παράλληλα και για τη δημιουργία επιπλέον παραπληροφόρησης.
Ας μην ξεχνάμε το γεγονός ότι η ΤΝ είναι υπεύθυνη για πολλές φοβερές φωτογραφίες, στις οποίες δεν μπορείς να διακρίνεις εάν είναι πραγματικές ή όχι. Ως key study χρησιμοποιούμε οι φοιτητές μου κι εγώ τον Πάπα Φραγκίσκο με το μεγάλο άσπρο παλτό ή αντίστοιχα τον Ντόναλντ Τραμπ, ο οποίος έχει συλληφθεί και βρίσκεται στη φυλακή. Αυτό το περιεχόμενο είναι AI Generated και με μια πρώτη ματιά δεν μπορεί να διακρίνεις άμεσα εάν πρόκειται για fake news ή όχι.
Σε κάθε περίπτωση, η δική μου τοποθέτηση είναι η εξής: Καλώς ή κακώς ξεκινήσαμε από το τέλος του Ψυχρού Πολέμου και μετά σε έναν ψηφιακό κόσμο, ο οποίος κλιμακώθηκε συνεχόμενα και στη συνέχεια μεγεθύνθηκε κυριολεκτικά κατά τη διάρκεια της πανδημίας Covid-19. Αν δεν υπήρχε η ψηφιακή λειτουργία όλων των επιχειρήσεων και γενικότερα του κράτους, τότε θα είχε καταρρεύσει το παγκόσμιο σύστημα. Αυτή είναι η δική μου τοποθέτηση και είμαι κάθετος ως προς αυτό. Αν δεν υπήρχε ψηφιοποίηση στην εκπαίδευση, την οικονομία και στην πολιτική, τότε στην ουσία ο πλανήτης μας θα γυρνούσε πολλά χρόνια πίσω, όσον αφορά την ανάπτυξη αλλά και την κατάρρευση των οικονομικών, εμπορικών και των κοινωνικών καταστάσεων.
Από εκεί και πέρα, το θέμα είναι ότι η ΤΝ λόγω της ψηφιοποίησης θα εμβαθύνει και θα ενισχύσει τόσο την αντιμετώπιση των fake news, αλλά ταυτόχρονα θα ενισχύει και αυτή καθαυτή την παραπληροφόρηση. Η ΤΝ έχει μια διττή ιδιότητα, κύριε Παναγόπουλε: Είναι σα να έχεις ένα μαχαίρι, το οποίο στα χέρια ενός γιατρού μπορεί να καταστεί ένα σωτήριο εργαλείο, αλλά στα χέρια ενός δολοφόνου ενδέχεται να αφαιρέσει την ανθρώπινη ζωή.
Και, δυστυχώς, δεν μπορεί να ελεγχθεί. Δεν μπορεί, για παράδειγμα, να ελέγξει εμένα ως κυβερνοτρομοκράτη, όταν εγώ γράφω έναν αλγόριθμό ΤΝ, ο οποίος θα χρησιμοποιηθεί για την ευρεία παραγωγή fake news. Και δεν είναι η πρώτη φορά που στην ουσία φοβάται η ΕΕ τη Ρωσία. Ξέρετε γιατί; Γιατί η Ρωσία έχει επέμβει ούτως ή άλλως στις εκλογές και στην ανάληψη της προεδρίας του Ντόναλντ Τραμπ στις ΗΠΑ κι αυτό συνιστά γεγονός αδιαμφισβήτητο. Στις ΗΠΑ είχε διεξαχθεί ένας φοβερός πληροφοριακός πόλεμος. Σας θυμίζω τι είχε συμβεί με την Χίλαρι Κλίντον, όταν τα fake news την παρουσίαζαν ως άρρωστη ή μισοπεθαμένη. Συνεπώς, φανταστείτε τι θα μπορούσε να συμβεί, αν είχαμε τα ίδια ακριβώς φαινόμενα και στην Ευρώπη με φόντο τις ευρωεκλογές.
Και βεβαίως υπάρχει και το Deep Web, όπου εκεί υπάρχουν πολλοί περισσότερες τεχνολογίες για την παραγωγή fake news.
Κρατώ αυτό που μόλις αναφέρατε και θέλω να πάμε στο μείζον ζήτημα των deepfakes. Πώς μπορούμε να προστατευθούμε από αυτά; Υπάρχει τρόπος;
Δεν υπάρχει τρόπος. Δυστυχώς ή ευτυχώς ο ψηφιακός κόσμος δίνει την αυτονομία και την καλύτερη λειτουργία του πλανήτη – αυτό που ονομάζουμε Ψηφιακή Παγκοσμιοποίηση. Από την άλλη, όμως, καταλαβαίνετε ότι όταν παίρνετε ένα αμάξι, υπάρχει η περίπτωση να τρακάρετε. Η Τεχνητή Νοημοσύνη είναι ένα τέτοιο αμάξι.
Εάν θέλεις να κερδίσεις τις αποστάσεις, τότε μπαίνεις στο «αμάξι» της Τεχνητής Νοημοσύνης. Από εκεί και πέρα έρχεσαι αντιμέτωπος με όλα τα προβλήματα, τα οποία συνοδεύουν αυτό το τεχνολογικό επίτευγμα.
Φανταστείτε, για λίγο, τα πυρηνικά όπλα: Επί μακρόν συνιστούσαν μέσο αποτροπής στο πλαίσιο, ειδικότερα, του Ψυχρού Πολέμου – γι’ αυτό και δεν έγινε ποτέ πυρηνικός πόλεμος. Από την άλλη, όμως, η κατοχή και συντήρησή τους ήταν ένα πάρα πολύ μεγάλο πρόβλημα για την παγκόσμια κοινότητα, ακόμη κι όταν έληξε ο Ψυχρός Πόλεμος. Αυτή τη στιγμή ξαναχρησιμοποιούνται ως μέσο απειλής.
Καταλαβαίνετε, λοιπόν, αυτό που σας είπα προηγουμένως, ότι η στρατηγική χρήση της ΤΝ σε συνεργασία με άλλες τεχνολογίες του μέλλοντος, θα ισχυροποιήσει, όχι μόνο τα fake news, αλλά γενικότερα και την καθημερινότητά μας. Φανταστείτε εξωσκελετούς στο στρατό, με ευρεία χρήση ΤΝ, φανταστείτε νανορομπότ, τα οποία θα μπαίνουν μέσα στον άνθρωπο και θα καθαρίζουν όλους τους μεταστατικούς καρκίνους που υπάρχουν στον ανθρώπινο οργανισμό.
Φανταστείτε το γεγονός ότι άτομα που είναι τυφλά, θα μπορούν να δουν με τη χρήση της ΤΝ ή και με άλλες τεχνολογίες Βιονικής και Νευροτεχνολογίας. Φανταστείτε άτομα που έχουν πάθει εγκεφαλικό και έχουν χάσει ένα μέρος της κινητικής τους ικανότητας, να μπορούν να ξαναπερπατήσουν. Και φυσικά δεν μπορεί κανείς να παραβλέψει τη θετική συμβολή της ΤΝ σε καταστάσεις διαχείρισης κρίσεων, όπως για παράδειγμα οι φυσικές καταστροφές, ή στη διαχείριση κρίσεων σε οικονομικό και κοινωνικό επίπεδο.
Τελικά, η Τεχνητή Νοημοσύνη θα πρέπει να αντιμετωπίζεται ως εργαλείο ή ως πανάκεια στην ανθρώπινη καθημερινότητα;
Θα το πω απλά: Για μένα η Τεχνητή Νοημοσύνη είναι ένα τεχνολογικό επίτευγμα, το οποίο συνεχώς θα εξελίσσεται. Ας μην ξεχνάμε το γεγονός ότι τόσα χρόνια που μιλάμε για ευφυή συστήματα. Η ευφυής χρήση και αυτονομία αυτών των συστημάτων παραμένει σε χαμηλό επίπεδο, θα μπορούσαμε να πούμε στο επίπεδο ενός μικρού παιδιού.
Από εκεί και πέρα, εάν σε αυτή την «εξίσωση» μπουν τα βιοκβαντικά δεδομένα και οι βιολογικοί υπολογιστές, θα μπορούμε να συζητήσουμε κατά πόσον θα εξελιχθεί η Τεχνητή Νοημοσύνη. Όμως, η μεγάλη προβληματική αυτή τη στιγμή δεν αφορά μόνο στο πώς θα επέλθει η εξέλιξη της ΤΝ, γιατί ούτως ή άλλως μέσα σε λίγα χρόνια μπορεί να γιγαντωθεί, όπως ακριβώς συνέβη και με το Διαδίκτυο. Για παράδειγμα, το Διαδίκτυο δημιουργήθηκε για να επιβλέπουν οι πολίτες τις κυβερνήσεις ή τανάπαλιν;
Για μένα το σημείο καμπής αφορά στο ποιος θα πάρει τις αποφάσεις για την Τεχνητή Νοημοσύνη και πώς αυτή θα χρησιμοποιηθεί. Μπορώ να σας πω, επειδή έχουν βγει πάρα πολλές φωνές στην Ελλάδα και εκφέρουν γνώμη και διδάσκουν θέματα ΤΝ, είναι ιδιαίτερα ανησυχητικό ότι όλοι έχουν μια άποψη. Το ζήτημα για εμένα, ως ακαδημαϊκός, είναι να εκπαιδευτούν σωστά οι νεότερες γενιές των ανθρώπων. Και αυτό επιδιώκω μέσα από το βιβλίο «Ηθική της Τεχνητής Νοημοσύνης».
*Το βιβλίο «Ηθική της Τεχνητής Νοημοσύνης» κυκλοφορεί από τις εκδόσεις Παπαζήση