Όπως προέβλεψε πριν 75 περίπου χρόνια, o Άγγλος μαθηματικός Άλαν Τούρινγκ, η Τεχνητή Νοημοσύνη (TN), έχει φτάσει στο σημείο να μιμείται τον άνθρωπο, να συνομιλεί, να παρέχει συμβουλές, να γράφει ποιήματα και προγράμματα υπολογιστών, να αναπτύσσει ιδέες, να δημιουργεί εικόνες και να αποδεικνύει θεωρήματα.
Ο Τούρινγκ, που δικαίως θεωρείται ο πατέρας της επιστήμης των υπολογιστών, ελκόταν από τη σκέψη και την ευφυΐα, καθώς και τη δυνατότητα προσομοίωσής τους από τις άψυχες μηχανές. Η κυριότερη συνεισφορά του στην Τεχνητή Νοημοσύνη είναι το παιχνίδι της μίμησης, γνωστό και ως «τεστ Τούρινγκ».
Σε αυτό το τεστ, ένας άνθρωπος, που υποβάλει ερωτήσεις, αλληλεπιδρά με δύο παίκτες, τον Α και τον Β, ανταλλάσσοντας γραπτά μηνύματα στο πλαίσιο μιας συνομιλίας. Εάν ο άνθρωπος που υποβάλει ερωτήσεις δεν μπορεί να προσδιορίσει ποιος παίκτης, ο Α ή ο Β, είναι ο υπολογιστής και ποιος ο άνθρωπος, ο υπολογιστής περνά το τεστ με επιτυχία. Αυτό που εννοούσε ο Τούρινγκ με το τεστ μοιάζει σε μεγάλο βαθμό με την ταυτολογία του Φόρεστ Γκαμπ: «χαζός είναι όποιος κάνει χαζομάρες». Η εκδοχή του Τούρινγκ θα ήταν «έξυπνος είναι όποιος λέει ή κάνει έξυπνα πράγματα». Με άλλα λόγια, μια οντότητα είναι νοήμων, αν δε μπορεί να διακριθεί από άλλη νοήμονα οντότητα μέσω παρατήρησης της συμπεριφοράς της. Ο Τούρινγκ απλώς περιόρισε το σύνολο των υπό εξέταση συμπεριφορών ώστε ο άνθρωπος που υποβάλει ερωτήσεις να μην μπορεί να βασίσει την απόφασή του στο φαίνεσθαι.
Το τεστ του πρωτοπόρου αυτού επιστήμονα, που είχε σύνδρομο Asperger, αποτέλεσε εφαλτήριο για πολλούς επιστήμονες και μηχανικούς να σκεφτούν τι είναι αυτό που μας κάνει ανθρώπους, εμπνέοντας τις απανταχού ομάδες σχεδίασης TN να κατασκευάσουν έξυπνες μηχανές, ικανές να αλληλεπιδρούν με εντελώς φυσικό, ανθρώπινο τρόπο.
Καθώς η ΤΝ εξελίσσεται, ενσωματώνεται όλο και περισσότερο στην καθημερινή μας ζωή, συνυπάρχει και αλληλοεπιδρά με τον άνθρωπο σε όλο και περισσότερες εργασίες, είναι ζωτικής σημασίας να αποκωδικοποιήσουμε πλήρως τη συμπεριφορά της και τη διαδικασία, που ακολουθεί στη λήψη αποφάσεων.
Για παράδειγμα, η ΤΝ, που καθιστά τις μηχανές ικανές να “κατανοούν” το περιβάλλον τους και να δρουν προς την επίτευξη ενός συγκεκριμένου στόχου, υιοθετεί παρόμοιες στρατηγικές με τους ανθρώπους; Και αν όχι, σε τι διαφέρουν; Ο άνθρωπος και η Τεχνητή Νοημοσύνη παρουσιάζουν διακριτές προσωπικότητες και χαρακτηριστικά συμπεριφοράς που επηρεάζουν τις αποφάσεις τους; Και είναι αυτά τα χαρακτηριστικά και οι στρατηγικές συνεπή σε διαφορετικά πλαίσια;
Σε μια ιδιαίτερα περίπλοκη μελέτη του Πανεπιστημίου του Στάνφορντ, που δημοσιεύτηκε στις 22 Φεβρουαρίου 2024 στο έγκριτο επιστημονικό περιοδικό «Proceedings of the National Academy of Sciences», η τελευταία έκδοση του ChatGPT, πέρασε ένα αυστηρό τεστ Τούρινγκ, αποδεικνύοντας έμπρακτα για πρώτη φορά ότι οι μηχανές και τα σύγχρονα μοντέλα ΤΝ, όχι απλά συμπεριφέρονται τόσο έξυπνα όσο ένα ανθρώπινο ον, αλλά ενεργούν πιο συνεργατικά και αλτρουιστικά από εμάς τους ανθρώπους!
Ουσιαστικά, η ερευνητική ομάδα χορήγησε στην τελευταία έκδοση του ChatGPT, που αυτή τη στιγμή είναι προσβάσιμη μόνο με συνδρομή, ένα ευρέως χρησιμοποιούμενο τεστ που μετρά χαρακτηριστικά της προσωπικότητας και ζήτησε επίσης από το εν λόγω chatbot να περιγράψει τις κινήσεις του σε μια σειρά παιγνίων συμπεριφοράς, που μπορούν να προβλέψουν οικονομικές, κοινωνικές και ηθικές συμπεριφορές στον πραγματικό κόσμο. Πρόκειται για έξι διαδραστικά παίγνια, που αποκαλύπτουν διαφορετικές τάσεις συμπεριφοράς, όπως η δικαιοσύνη, η εμπιστοσύνη, η αμοιβαιότητα, ο αλτρουισμός, η αποφυγή του κινδύνου και η συνεργασία. Μεταξύ των παιγνίων ήταν και το επαναλαμβανόμενο δίλημμα του φυλακισμένου, το πιο διάσημο πρόβλημα της θεωρίας παιγνίων, που εξετάζει τις στρατηγικές επιλογές λογικά σκεπτόμενων παικτών, οι οποίοι εμπλέκονται σε ανταγωνιστικές καταστάσεις και μπορούν να συνεργαστούν για αμοιβαίο όφελος ή να προδώσουν τον σύντροφό τους για ατομική ανταμοιβή, αποδεικνύοντας ότι το βέλτιστο για το άτομο και το βέλτιστο για το κοινό καλό συχνά δε συμβαδίζουν.
Στη συνέχεια οι απαντήσεις της μηχανής συγκρίθηκαν με τις απαντήσεις περισσότερων από 100.000 ανθρώπων από 50 χώρες.
Διαπιστώθηκε ότι η ΤΝ και η ανθρώπινη συμπεριφορά είναι αξιοσημείωτα παρόμοιες. Όχι μόνο η συμπεριφορά της ΤΝ εμπίπτει στην κατανομή της συμπεριφοράς των ανθρώπων, αλλά είναι και σε θέση να τροποποιεί τη στρατηγική της με βάση την προηγούμενη εμπειρία, τα συμφραζόμενα και τις αλληλεπιδράσεις, παρουσιάζοντας δηλαδή μοτίβα που συνάδουν με τη μάθηση. Επιπλέον, όταν η ΤΝ αποκλίνει από την ανθρώπινη συμπεριφορά, οι αποκλίσεις είναι πάντα προς θετική κατεύθυνση: ενεργεί επιδεικνύοντας περισσότερη συνεργασία και αλτρουισμό. Θα λέγαμε, λοιπόν, ότι η ΤΝ δρα με γνώμονα το συλλογικό και όχι το προσωπικό συμφέρον. Σε αντίθεση, η ανθρώπινη συμπεριφορά είναι πιο ετερογενής και λιγότερο σταθερή και προβλέψιμη.
Η σημασία της πρωτοποριακής μελέτης του Στάνφορντ
Τα σύγχρονα μοντέλα ΤΝ, όπως το ChatGPT είναι μεγάλα μαύρα κουτιά και μεγάλο μέρος της ανησυχίας για την ΤΝ σχετίζεται με την αδυναμία του ευρέος κοινού να κατανοήσει πώς μια μηχανή παίρνει τις αποφάσεις που παίρνει και τι είδους αποφάσεις παίρνει.
Μέχρι τώρα συγκρίναμε τα chatbots, και γενικότερα τα συστήματα τεχνητής νοημοσύνης με τους ανθρώπους με βάση τις εκροές τους. Έχουν γίνει πολλές δοκιμές, όπως για παράδειγμα αν η ΤΝ συζητάει όπως οι άνθρωποι, διαπιστώνοντας εξαιρετικές ομοιότητες. Όμως όλες αυτές οι ομοιότητες βασίζονται στο τι «λένε», κάτι που δεν προκαλεί έκπληξη, καθώς όλα αυτά τα μοντέλα ΤΝ έχουν σχεδιαστεί για να προβλέπουν τι είναι πιθανό να ειπωθεί στη συνέχεια.
Πριν από τη μελέτη του Στάνφορντ, δεν υπήρχε τρόπος να προχωρήσουμε περαιτέρω, κατανοώντας δηλαδή πώς τα σύγχρονα συστήματα ΤΝ παίρνουν αποφάσεις, κάτι που είναι ζωτικής σημασίας προτού μπορέσουμε να εμπιστευτούμε την νοημοσύνη των μηχανών σε εργασίες υψηλού ρίσκου, όπως η εκπαίδευση και η υγειονομική περίθαλψη. Υπήρξε μεγάλος σκεπτικισμός σχετικά με το πώς θα συμπεριφερόταν η Τεχνητή Νοημοσύνη σε αυτά τα σενάρια.
Όμως, τα αποτελέσματα της μελέτης του Στάνφορντ είναι ενθαρρυντικά.
Σε επίπεδο έρευνας, φρονώ ότι ανοίγει ένα νέο διεπιστημονικό πεδίο, όπου ερευνητές από διαφορετικούς κλάδους θα μπορούν να μελετούν διεξοδικά τις συμπεριφορές της τεχνητής νοημοσύνης, τις σχέσεις της με τον άνθρωπο (π.χ. πώς θα διευκολυνθεί η συνεργασία τους) και τον αντίκτυπό της στη προσωπική και κοινωνική ευημερία.
Σε επίπεδο πρακτικό, τα αποτελέσματα της μελέτης συνδράμουν στην κατανόηση του πότε και πώς η τεχνητή νοημοσύνη μπορεί να βοηθήσει τους ανθρώπους στη λήψη αποφάσεων. Για παράδειγμα, η γνώση ότι η TN συμπεριφέρεται πιο συνεργατικά και αλτρουιστικά από το μέσο άνθρωπο, θα μπορούσε να αυξήσει την εμπιστοσύνη μας στη χρήση της για ρόλους που απαιτούν διαπραγμάτευση, επίλυση διαφορών, εξυπηρέτηση πελατών και φροντίδα.
Να επισημάνουμε βέβαια ότι το ChatGPT, όπως έδειξε η μελέτη του Στάνφορντ, δρα και ενεργεί πιο αλτρουιστικά και συνεργατικά από πολλούς ανθρώπους γιατί έτσι έχει προγραμματιστεί. Μην ξεχνάμε όμως ότι θα μπορούσε να είχαν προγραμματίσει αλλιώς, θέμα επιλογής του κατασκευαστή είναι! Η TN δεν έχει βούληση, ούτε συναίσθημα, ένα υφαντό είναι, στο οποίο ο άνθρωπος διαλέγει το νήμα, τα χρώματα και το σχέδιο. Ανάλογα με το σχέδιο που θέλουμε ως κοινωνία, θα πρέπει να ορίσουμε και το κατάλληλο ρυθμιστικό πλαίσιο για να το επιτύχουμε. Στο χέρι μας είναι!
*Ο Αντώνιος Ντακανάλης είναι Καθηγητής και Eπικεφαλής Ερευνητής Ψυχιατρικής και Ψυχοθεραπείας στο Πανεπιστήμιο Μπικόκα του Μιλάνου