«Τεχνητή Νοημοσύνη και ηθική είναι δύο έννοιες που πρέπει να βαδίζουν χέρι - χέρι», υπογραμμίζει στο Liberal o Αθανάσιος Μποζίνης, Επίκουρος Καθηγητής Παγκόσμιας Πολιτικής Οικονομίας, Νέων Τεχνολογιών και Βιοασφάλειας στο Τμήμα Διεθνών και Ευρωπαϊκών Σπουδών του Πανεπιστημίου Μακεδονίας. Σε συνέντευξή του στον Χρήστο Θ. Παναγόπουλο, ο καθηγητής Μποζίνης αναλύει διεξοδικά τους κινδύνους και τις συνέπειες από τη χρήση των Deepfakes σε κρίσιμους τομείς, όπως η Πολιτική και η Διπλωματία.
Εκτιμά πως «η υπερπαραγωγή πληροφοριών και η διάδοση τους είναι άκρως επικίνδυνη σήμερα», ενώ υπογραμμίζει ότι η Ευρωπαϊκή Ένωση θα πρέπει να κάνει περισσότερα βήματα σε ό,τι αφορά τον έλεγχο της δράσης και τη θέσπιση ορίων απέναντι στην Τεχνητή Νοημοσύνη. Εξάλλου, αναφέρεται στους νέους τύπους διακυβέρνησης που φέρνουν οι τεχνολογίες AI, ενώ εμφανίζεται καθησυχαστικός ως προς τα τυχόν προβλήματα που δημιουργούν εφαρμογές Τεχνητής Νοημοσύνης στην ακαδημαϊκή κοινότητα.
Συνέντευξη στον Χρήστο Θ. Παναγόπουλο
- Κύριε Μποζίνη, βλέπουμε το τελευταίο διάστημα ότι παρατηρείται μια έκρηξη σε ό,τι αφορά την χρήση των Deepfakes. Πόσο επικίνδυνη είναι η χρήση τους, ιδιαίτερα σε κρίσιμους τομείς, όπως είναι η πολιτική και η διπλωματία;
Η τεχνολογία των Deepfakes ή αλλιώς προπαγάνδα υπήρχε πάντοτε τόσο στην εσωτερική πολιτική, στην οικονομία, στην κοινωνία αλλά και στη στρατιωτική ιστορία. Αυτή τη στιγμή λοιπόν μιλάμε για μια διαφορετική, γιατί στην ουσία τα deep fake κυκλοφορούν μέσω του Διαδικτύου. Αυτό το οποίο πρέπει να γνωρίζουμε είναι ότι οτιδήποτε είναι ψηφιακό είναι και παγκόσμιο. Οπότε παγκοσμιοποιείται σε ελάχιστο χρόνο, με ελάχιστο κόστος και με πολύ μεγάλες, σοβαρές συνέπειες.
Αυτή είναι η μεγάλη αλλαγή στο πλαίσιο των fake news ή αλλιώς παραπληροφόρηση. Από δω και πέρα, στην ουσία, λοιπόν, αυτή είναι η πρώτη μεγάλη αλλαγή: η ψηφιοποίηση.
Η δεύτερη μεγάλη αλλαγή είναι ότι, στην ουσία, τα Deepfakes, τα fake news γιγαντώθηκαν στο πλαίσιο της πανδημίας εκεί καταλάβαμε στην ουσία ότι υπάρχει αυτό που ονομάζουμε «infopandemics». Και οι παγκόσμιοι οργανισμοί και από εκεί και πέρα και στην πολιτική και στο πλαίσιο του πληροφοριακού και ψυχολογικού πολέμου τα χρησιμοποιούσαν παλαιότερα, όπως τα χρησιμοποιούν και τώρα.
Η βασική αλλαγή στο πλαίσιο της διεθνούς πολιτικής και του Deepfake είναι το γεγονός ότι ακόμα κι ένα άτομο από μόνο του μπροστά σε έναν υπολογιστή μπορεί να δημιουργήσει μια ψευδή πληροφορία, η οποία θα διακινηθεί σε ελάχιστο χρόνο, με ελάχιστο κόστος.
Άρα, αυτό το καθιστά εν γένει επικίνδυνο διότι μπορεί φυσικά, ενώ ο σκοπός του Deepfake ξεκίνησε εν είδει αστείου μεταξύ φίλων, κατέληξε να γίνει ένα ουσιαστικό «όπλο» σε όσους θέλουν να προωθήσουν την προπαγάνδα τους.
Στην ουσία, το μόνο που μπορούμε να πούμε μετά βεβαιότητας είναι ότι κανένας δεν μπορεί να ελέγξει την εικοσιτετράωρη παραγωγή των Deepfake και μέχρι να ελεγχθεί η ορθότητά τους μπορεί να έχει, ήδη, δημιουργήσει μεγάλο κακό και να έχει φοβερές επιπτώσεις, παγκοσμίως.
Για παράδειγμα, αν πούμε ότι ένας παγκόσμιος ηγέτης δέχθηκε μια δολοφονική επίθεση ή οτιδήποτε άλλο στο πλαίσιο ενός ψυχολογικού πολέμου και αυτό δεν μπορεί να διαψευστεί άμεσα, τότε καταλαβαίνετε τι μπορεί να γίνει σε επίπεδο διεθνούς πολιτικής. Μπορεί να είναι ασθενής και να λένε ότι έγινε απόπειρα δολοφονίας.
Ποιος ευθύνεται; Κάποια ομάδα, κάποια σέκτα, κάποια οργάνωση. Επί της ουσίας, μπορεί να παραποιηθούν τα πάντα. Η υπερπαραγωγή πληροφοριών και η διάδοση τους είναι άκρως επικίνδυνη σήμερα. Αν βάλουμε στην εξίσωση μέσα και το γεγονός της Τεχνητής Νοημοσύνης, η οποία, πλέον, παράγει δικούς της ήχους και κείμενα, τα οποία δεν μπορούν να ελεγχθούν σε παγκόσμιο επίπεδο - δηλαδή έχουν κυκλοφορήσει φοβερές φωτογραφίες με εικόνες του Ντόναλντ Τραμπ ο οποίος ήδη είχε οδηγηθεί στη φυλακή. Η κουβέντα για τα Deepfake είχε ξεκινήσει από μία φωτογραφία του Πάπα όπου είχε φορέσει κάποια ρούχα, η οποία δεν μπορέσουν να καταλάβουν πώς έγινε.
Από εκεί ξεκίνησε η μεγάλη κουβέντα για τα Deepfakes και πώς μπορούν να αλλάξουν την πραγματικότητα.
- Μιας και αναφερθήκατε στο κομμάτι της Τεχνητής Νοημοσύνης θέλω να επισημάνω στη συζήτησή μας δυο σημαντικές ημερομηνίες: Την 1η Νοεμβρίου του 2023 η Βρετανία κατέληξε στη Διακήρυξη του Μπλέτσλεϊ, μια συμφωνία 28 χωρών για την ασφάλεια έναντι της Τεχνητής Νοημοσύνης. Σχεδόν ένα μήνα αργότερα, στις 9 Δεκεμβρίου 2023 η Ευρώπη των 27 προχώρησε σε μια κατ’ αρχήν συμφωνία αναφορικά με τη θέσπιση ενός ολοκληρωμένου νομοθετικού πλαισίου για τον έλεγχο της ΤΝ. Κατά την επιστημονική σας άποψη, πόσο επαρκής είναι η νομοθεσία που προτείνεται για τον έλεγχο της Τεχνητής Νοημοσύνης; Πού πιστεύετε ότι πρέπει, πλέον, να εστιάσουν περισσότερο τα κράτη;
Η Τεχνητή Νοημοσύνη στην ουσία είναι ένα σύστημα προγραμματισμού αλγορίθμου. Μπορεί οποιοσδήποτε να καθίσει σπίτι του, σε ένα υπόγειο να παράγει Τεχνητή Νοημοσύνη. Δηλαδή, στην ουσία, είναι μια προσομοίωση ανθρώπινων εγκεφαλικών λειτουργιών έτσι ώστε να μπορεί ο καθένας να μιμείται ανθρώπινες διαδικασίες, όπως είναι η κατανόηση της γλώσσας, η κατανόηση του περιβάλλοντος και τη διαδικασίας αποφάσεων και κρίσεων.
Επειδή έχω παρακολουθήσει από κοντά τις εξελίξεις ως συνεργάτης της Ειδικής Επιτροπής για την Τεχνητή Νοημοσύνη στην Ψηφιακή Εποχή (AIDA) στο Ευρωπαϊκό Κοινοβούλιο, η δική μου εκτίμηση είναι ότι η ΕΕ είναι αρκετά πίσω σε επίπεδο Τεχνητής Νοημοσύνης και σε επίπεδο Στρατηγικής Τεχνητής Νοημοσύνης. Η Στρατηγική Τεχνητή Νοημοσύνη, όπως την ονομάζω, προσωπικά, είναι η χρήση της Τεχνητής Νοημοσύνης ως σύστημα προγραμματισμού αλγορίθμων προκειμένου να μπορέσει να βοηθήσει ένα κράτος στους συντελεστές ισχύος και ανάπτυξης.
Από εκεί και πέρα θεωρώ ότι βρισκόμαστε σε πάρα πολύ πρώιμο στάδιο, ώστε να υπάρξει αποτελεσματικός έλεγχος Τεχνητής Νοημοσύνης, διότι στο παιχνίδι πλέον, εκτός από τα ίδια τα κράτη, στην παραγωγή, στη χρήση και την απλοποίηση της Τεχνητής Νοημοσύνης μπαίνουν οι πολυεθνικές επιχειρήσεις, ομάδες τεχνοκρατών, ακόμα και πολίτες ή ομάδες ακτιβιστών που κατέχουν τη σχετική τεχνογνωσία.
Και ας μην ξεχνάμε το γεγονός ότι η Πληροφοριακή και Ψηφιακή Επανάσταση έχει ξεκινήσει προ πολλού 1980 - 1990 και μετά όπου μετά το τέλος του ψυχρού πολέμου πολυεθνικές επιχειρήσεις πληροφορικής και επικοινωνιών πήγαν σε παγκόσμιο επίπεδο λόγω της παγκοσμιοποίησης του εμπορίου και λόγω της παγκοσμιοποίησης της παραγωγικής διαδικασίας. Έτσι λοιπόν ψηφιοποιήθηκαν τα πάντα και πλέον μιλάμε για τη χρήση Τεχνητής Νοημοσύνης.
Η Τεχνητή Νοημοσύνη δεν είναι κάτι καινούργιο, ολοκαίνουργιο. Απλώς τώρα εξειδικεύεται, στην ουσία, στην παραγωγή πολλαπλών εφαρμογών.
Τόσο σε επίπεδο ΕΕ όσο και σε διεθνές επίπεδο έχουν αρχίσει να γίνονται τα πρώτα βήματα για την σωστή, ηθική και αποτελεσματική χρήση της Τεχνητής Νοημοσύνης, όμως είμαστε πάλι σε πολύ πρώιμο επίπεδο. Θεωρώ, λοιπόν, ότι θα υπάρξουν αρκετές κρίσιμες καταστάσεις όσον αφορά την απλοποίηση της Τεχνητής Νοημοσύνης ή το πώς στις ευρείες εφαρμογές Τεχνητής Νοημοσύνης θα μπορούν τα προσωπικά δεδομένα ή οτιδήποτε άλλο να προστατευθούν. Μιλάμε, δηλαδή για μια αλγοριθμική διακυβέρνηση: Πλέον κοινωνία μπαίνει σε καινούργια και αχαρτογράφητα νερά, για τα οποία πρέπει βήμα – βήμα, μέρα με την ημέρα να λαμβάνονται στρατηγικές αποφάσεις για την σωστή, ηθική και αποτελεσματική χρήση της Τεχνητής Νοημοσύνης.
- Σε πρόσφατη συνέντευξή σας είχατε αναφερθεί στον όρο «Αστροκυβερνοβιοασφάλεια». Επειδή πρόσφατα είχαμε και την εισδοχή της Ελλάδας στο διαστημικό πρόγραμμα «Άρτεμις» που υπεγράφη πριν από περίπου μια εβδομάδα στις ΗΠΑ ανάμεσα στον Γιώργο Γεραπετρίτη και τον Άντονι Μπλίνκεν, θα ήθελα να σας ρωτήσω τι σημαίνει αυτός ο όρος και πώς σχετίζεται με την συμφωνία αυτή που συνήψαν Αθήνα και Ουάσινγκτον;
Ο όρος είναι «Αστροκυβερνοβιοασφάλεια» (αγγλ. Astrocyberbiosecurity). Ξεκινήσαμε αρχικά μέσω της κυβερνοασφάλειας που είναι τα ευαίσθητα προσωπικά δεδομένα, ενσωματώθηκε η βιοασφάλεια, στο πλαίσιο της πανδημίας, οπότε υπήρχαν προσωπικά δεδομένα ιατρικής φύσεως αλλά και πολύ περισσότερο της ίδιας της σωματικής βιοασφάλειας. Στο κομμάτι αυτό έχουμε περάσει πλέον από τον κίνδυνο υποκλοπής προσωπικών δεδομένων στην επικινδυνότητα έναντι της ανθρώπινης ζωής. Για παράδειγμα, στο Διαδίκτυο των Πραγμάτων (Internet of Things), όπου και εκεί εμπλέκονται στρατηγικές τεχνολογίας, πλέον, η Τεχνητή Νοημοσύνη και η «οπλοποίησή» της θα μπορεί κάλλιστα, με ηλεκτρονικό πόλεμο ή με cyber hacking, να «χακάρει» τα όργανα ενός τρ;eνου, ενός αεροπλάνου, ενός αυτοκινήτου όπου εκεί θα υπάρχουν ζωές. Θα υπάρχει σοβαρή πιθανότητα πλέον να υπάρχουν αυτό που ονομάζεται «bio deaths», δηλαδή βιολογικούς και όχι ψηφιακούς θανάτους.
Υπάρχουν τουλάχιστον 200 με 250 σημεία σε πόλεις ακόμη και σε χωριά όπου πρέπει να υπάρχει αυτό που λέμε ασφάλεια (security). Από το water security ως το drug security (αποθήκες φαρμάκων). Όλα αυτά, μέχρι το σημείο αυτό εντάσσονται στο πλαίσιο της «κυβερνοβιοασφάλειας» (cyber biosecurity), καθώς υπάρχουν συστήματα πλέον που ελέγχουν θέματα ζωής.
Σε αυτό, ακριβώς, το σημείο μπαίνει στην εξίσωση το τρίτο θέμα προ είναι το «astro», στην ουσία οι δορυφόροι. Global Positioning System, επικοινωνία με τα fake news, deep fakes, τα οποία μπορούν να επηρεάσουν τις δορυφορικές επικοινωνίες που είναι ψηφιακές, άρα και τον κυβερνοχώρο και εν συνεχεία να πλήξουν απευθείας τον άνθρωπο.
Πώς και με ποιους τρόπους διαταράσσει η Τεχνητή Νοημοσύνη την ακαδημαϊκή δραστηριότητα στην καθημερινότητά της; Έχουμε δηλαδή, για παράδειγμα περιπτώσεις όπου υποψήφιοι μεταπτυχιακοί φοιτητές ή διδάκτορες να έχουν γράψει ολόκληρες διατριβές, κάνοντας χρήση μιας εφαρμογής AI. Πείτε μας την άποψή σας σε αυτό.
Νομίζω ότι αυτό είναι το ελάχιστο στην κακή εφαρμογή της Τεχνητής Νοημοσύνης στην ακαδημαϊκή ζωή και δη στην διδασκαλία. Αναφέρεστε, προφανώς, στο ChatGPT, το οποίο μπορεί να απαντήσει, μπορεί, όντως να θέσει θέματα, αλλά δεν είναι μόνο οι εξετάσεις η ακαδημαϊκή ζωή. Είναι πλέον και η γνώση, η οποία μπορείς να βρεις, όπως για παράδειγμα μέσω του Google Scholar. Μπορείς να βρεις ανάμεσα σε τρισεκατομμύρια πληροφορίες αυτό που αναζητάς. Να μην βλέπουμε μόνο την άσχημη πλευρά της Τεχνητής Νοημοσύνης, να βλέπουμε και την καλή.
Προσωπικά, πιστεύω πως είναι κάτι παροδικό. Πάντοτε βρίσκεται μια λύση. Και στη λύση αυτή θα βρεθεί μια νέα αντίδραση, η οποία θα φέρει μια νέα λύση, μια αλυσιδωτή δράση, η οποία, όπως υπήρχε πάντα στις τεχνολογίες, έτσι ακριβώς υπάρχει και στην ακαδημαϊκή ζωή. Δεν είναι κάτι το οποίο πρέπει να μας απασχολεί.
Πρέπει να δούμε και τις θετικές πλευρές. Η Τεχνητή Νοημοσύνη ως μια στρατηγική τεχνολογία έχει τα υπέρ και τα κατά: Ένα μαχαίρι στα χέρια ενός γιατρού μπορεί να σώσει ζωές και στα χέρια ενός δολοφόνου μπορεί να αφαιρέσει. Άρα το θέμα είναι πώς θα χρησιμοποιηθεί η Τεχνητή Νοημοσύνη. Και να υπογραμμίσω με μεγάλα κεφαλαία γράμματα το εξής: Η Τεχνητή Νοημοσύνη από μόνη της δεν είναι αυτή η οποία στην ουσία θα δημιουργήσει πρόβλημα σε παγκόσμι ο επίπεδο, ώστε να πούμε ότι πρέπει να υπάρξει Παγκόσμια Διακυβέρνηση Τεχνητής Νοημοσύνης. Παρά το γεγονός ότι ο ίδιος ο Πούτιν έχει πει και το έχει υποστηρίξει και ο Ίλον Μασκ ότι το κράτος το οποίο θα βγει μπροστά τα επόμενα χρόνια σε επίπεδο Τεχνητής Νοημοσύνης, πιθανότατα με drones, έκτης και έβδομης γενιάς μαχητικά, τα οποία θα είναι χωρίς πιλότους ή τα τανκς ή στρατιώτες οι οποίοι υπάρχουν σε πειραματικό επίπεδο και κάπου στον κόσμο εφαρμόζονται.
Το βασικό θέμα, για εμένα, με την Τεχνητή Νοημοσύνη είναι η αλληλοδιασύνδεσή της με άλλες τεχνολογίες όπως είναι τα neuro, η νευροτεχνολογία όπου εκεί πάμε σε μια εμπνευσμένη Τεχνητή Νοημοσύνη που εκεί θα έχουμε σοβαρές αλλαγές. Φανταστείτε τηνεφαρμογή της Τεχνητής Νοημοσύνης στα drones, στη Ρομποτική και γενικότερα στο Internet of Things, όπου εκεί γενικότερα θα υπάρχει αυτό που αποκαλούμε ένα «ντόμινο» τεχνολογικών εξελίξεων.
Νομίζω ότι το μέλλον είναι ιδιαίτερα ενδιαφέρον. Μπορεί να φαντάζει δύσκολο αλλά είναι σίγουρο ότι μας κρύβει καθημερινά εκπλήξεις. Ως ένας στρατηγικός αναλυτής των σύγχρονων τεχνολογιών του μέλλοντος - δεν είμαι προγραμματιστής αλλά διεθνολόγος που ασχολούμαι με το Science Technology - θεωρώ ότι μέρα με τη μέρα η αλληλοδιασύνδεση των πολλαπλών τεχνολογιών, είτε είναι nano technology είτε είναι nano robotics technology, είτε Τεχνητή Νοημοσύνη είτε cyber ή space, όλα αυτά θα ξεπεράσουν πάρα πολύ τις γνώσεις μας τα επόμενα πέντε χρόνια σε σχέση με όσα υπάρχουν ήδη ή θα έχουν παραχθεί τις προηγούμενες δεκαετίες.
- «Έχετε αναλάβει την επιστημονική επιμέλεια στην ελληνική γλώσσα για το βιβλίο «Ηθική της Τεχνητής Νοημοσύνης» που κυκλοφορεί από τις εκδόσεις Παπαζήση. Τελικά, υπάρχει ηθική στην Τεχνητή Νοημοσύνη; Μήπως ηθική και Τεχνητή Νοημοσύνη είναι δύο έννοιες ασύμβατες μεταξύ τους; Θα ήθελα το σχόλιό σας.
Το συγκεκριμένο βιβλίο κυκλοφορεί στη σειρά «Κυβερνοπολιτική και Ψηφιακή Στρατηγική» και ο βασικός του στόχος είναι να δώσει σκαλοπάτι ακαδημαϊκών, κοινωνικών, οικογενειακών και φιλικών συζητήσεων για το τι επιπτώσεις θα έχει η Τεχνητή Νοημοσύνη και πώς μπορεί να διακυβερνηθεί.
Εν κατακλείδι, Τεχνητή Νοημοσύνη και ηθική είναι δύο έννοιες που πρέπει να βαδίζουν χέρι – χέρι. Η ηθική κρίση της Τεχνητής Νοημοσύνης εξαρτάται αποκλειστικά από εμάς. Όταν γράφεις έναν κώδικα, αλγοριθμικό εσύ ο ίδιος καθορίζεις τι θα κάνει. Άρα, λοιπόν, δεν πρέπει να δαιμονοποιούμε την Τεχνητή Νοημοσύνη, αλλά πρέπει να δούμε και τις θετικές πλευρές της και κάποιες αρνητικές της, οι οποίες μπορούν ξεφύγουν από τη διακυβέρνηση κάποιου κράτους, των ομάδων, των οικογενειών και εντέλει του ίδιου του πολίτη.