Πόσο ασφαλής είναι η Τεχνητή Νοημοσύνη;
Shutterstock
Shutterstock

Πόσο ασφαλής είναι η Τεχνητή Νοημοσύνη;

Οι φράουλες πλησιάζουν, σύντομα θα είναι κοντά μας. Φυσικά, δεν αναφερόμαστε στο γνωστό μας φρούτο. Strawberry είναι η κωδική ονομασία που έχουν δώσει οι ερευνητές και τα στελέχη της OpenAI στο νέο μοντέλο Τεχνητής Νοημοσύνης της εταιρείας που, τουλάχιστον κατά τις πληροφορίες του διεθνούς Τύπου, θα μπορεί να εκτελεί εργασίες που θα μοιάζουν με την ανθρώπινη σκέψη.

Το σχετικό άρθρο του Bloomberg από την 12η Σεπτεμβρίου ανέφερε πως η εφαρμογή αυτή, της οποίας το εμπορικό όνομα δεν έχει γίνει ακόμα γνωστό, θα μπορεί να λύσει προβλήματα πολλών σταδίων, όπως για παράδειγμα πολύπλοκα μαθηματικά προβλήματα και ερωτήσεις σχετικές με κώδικες λογισμικού. Εφόσον αυτές οι πληροφορίες αληθεύουν, θα πρόκειται για ένα μεγάλο βήμα της βιομηχανίας Τεχνητής Νοημοσύνης, καθώς πολλές από τις εξειδικευμένες επιχειρήσεις του τομέα προσπαθούν εδώ και καιρό να αναπτύξουν τέτοιες εφαρμογές που να μπορούν εύκολα να λύνουν πολύπλοκα μαθηματικά προβλήματα. Όπως επισήμανε το Bloomberg, η φράουλα της OpenAI δεν είναι η μόνη τέτοια προσπάθεια που βρίσκεται στα σκαριά. Ανταγωνιστές όπως η Google και η Anthropic υποστηρίζουν πως και αυτές έχουν ήδη κάνει σημαντική πρόοδο.

Κατά σύμπτωση – ίσως  και όχι – σχεδόν ταυτόχρονα με τις πληροφορίες για την πρόοδο των ερευνών της OpenAI, κυκλοφόρησαν οι πληροφορίες σχετικά με την πορεία των συζητήσεων της εταιρείας για την άντληση χρηματοδότησης από επενδυτές. Όπως είχαμε δει στην αρχή του μήνα (Η OpenAI και ο χορός των δισεκατομμυρίων με τους τεχνολογικούς κολοσσούς | Liberal.gr), ο διεθνής Τύπος ανέφερε πως οι συζητήσεις με τους υποψήφιους επενδυτές τοποθετούσαν την αποτίμηση του συνόλου της εταιρείας κοντά στα 100 δισεκατομμύρια δολάρια.

Σχεδόν ταυτόχρονα με τις πληροφορίες για το μοντέλο Strawberry, μάθαμε από τον διεθνή Τύπο πως η εκτιμώμενη αποτίμηση της αξίας της επιχείρησης ανέβηκε κατά 50% και πήγε στα 150 δισεκατομμύρια δολάρια. Η αλλαγή αυτή ήταν αρκετά εντυπωσιακή και δεν είναι εύκολο να οφείλεται μόνο στο μοντέλο Strawberry και την πρόοδο των ερευνών. Η εξήγηση που έδωσε ο Jonathan Guilford του Reuters Breakingviews μας είναι αρκετά λογική. Με τη βοήθεια και των πληροφοριών του Reuters, ο Guilford εκτίμησε πως για να ανεβεί τόσο πολύ η αποτίμηση πρέπει να έχουν ανεβεί και οι εκτιμήσεις των μελλοντικών κερδών, κάτι που σημαίνει πως η OpenAI μάλλον έχει υποσχεθεί να ανεβάσει τους στόχους της για τη μελλοντική κερδοφορία.

Εδώ πρέπει να πούμε πως παλαιότερα η εταιρεία είχε θέσει κάποιους στόχους για τα κέρδη που θα προσπαθήσει να πετύχει, υποσχόμενη πως οι στόχοι θα μειώνονται καθώς θα εισέρχονται στην εταιρεία νέοι επενδυτές. Ο Guilford πιθανολογεί πως, προκειμένου να ανεβάσει την αποτίμησή της, η εταιρεία υπόσχεται μεγαλύτερα κέρδη από πριν για τους νέους μετόχους της. 

Δεν είναι παράλογο να υποθέσουμε πως η επίτευξη ακόμα μεγαλύτερης κερδοφορίας στο μέλλον σημαίνει και την ανάληψη μεγαλύτερου κινδύνου. Συνήθως, όταν μιλάμε για κινδύνους σε μία εταιρεία, αναφερόμαστε σε επιχειρηματικούς. Όμως, όταν έχουμε να κάνουμε με μία πρωτοπόρα επιχείρηση ενός νέου τομέα με μεγάλες δυνατότητες και άγνωστες «κακοτοπιές», τα πράγματα αλλάζουν και στο μυαλό μας έρχονται οι πολλές συζητήσεις σχετικά με τους κινδύνους που περικλείει η ανάπτυξη των εφαρμογών Τεχνητής Νοημοσύνης. Σε αυτούς αναφέρεται και η δημόσια δήλωση που έκαναν στις 16 Σεπτεμβρίου ορισμένοι από τους πιο γνωστούς επιστήμονες που έχουν ασχοληθεί με τον τομέα.

Στην ομάδα αυτή περιλαμβάνονται κάποιες «μυθικές» μορφές της Τεχνητής Νοημοσύνης, όπως ο Geoffry Hinton, ο Yoshua Bengio και ο Andrew Yao, κάτοχοι και οι τρεις του Βραβείου Turing, που θεωρείται το αντίστοιχο του βραβείου Nobel για την επιστήμη των ηλεκτρονικών υπολογιστών. Στην ομάδα συμμετείχαν και πολλοί άλλοι διακεκριμένοι επιστήμονες από τις ΗΠΑ, τον Καναδά, τη Σινγκαπούρη, την Κίνα και το Ηνωμένο Βασίλειο, όπως και ερευνητές από αρκετά κινεζικά ερευνητικά ιδρύματα που ασχολούνται με τον τομέα.

Στην κοινή τους δήλωση, η οποία ήρθε μετά από συναντήσεις (δια ζώσης και διαδικτυακές) που κράτησαν αρκετές ημέρες, οι επιστήμονες γνωστοποίησαν τις ανησυχίες τους σχετικά με το μέλλον της Τεχνητής Νοημοσύνης, στα πρώτα βήματα της οποίας έχουν παίξει σημαντικό ρόλο. Αυτό που τους φοβίζει είναι το ενδεχόμενο, μέσα στα επόμενα λίγα χρόνια, να χαθεί ο ανθρώπινος έλεγχος αυτών των συστημάτων ή να περάσουν κάτω από τον έλεγχο ανθρώπων με «κακές προθέσεις».

Κατά τους επιστήμονες, κάτι τέτοιο θα μπορούσε να έχει καταστροφικές συνέπειες για όλη την ανθρωπότητα. Η ομάδα πιστεύει πως για την αποφυγή τέτοιων εξελίξεων θα πρέπει να υπάρχει συντονισμός μεταξύ των κατά τόπους εθνικών αρχών οι οποίες θα καταγράφουν τις επιχειρήσεις και τα εργαστήρια που ειδικεύονται στην Τεχνητή Νοημοσύνη, και ταυτόχρονα θα τις επιβλέπουν.

Οι εθνικές αρχές θα πρέπει να συντονιστούν μεταξύ τους και να καταλήξουν στο τι συνιστά «κόκκινη γραμμή» και στο πότε θα πρέπει να σημάνουν συναγερμό. Σύμφωνα με αυτούς, όλες οι εθνικές αρχές θα πρέπει να κινούνται κάτω από τον συντονισμό μίας υπερεθνικής αρχής. Οι προτάσεις των επιστημόνων ακούγονται πολύ λογικές αλλά θα απαιτήσουν τη στενή και ειλικρινή συνεργασία μεταξύ των μεγάλων δυνάμεων του κόσμου, κάτι που είναι σπανίως εύκολο. Παρόλα αυτά, η παρουσία Κινέζων και Δυτικών επιστημόνων μέσα στην ίδια ομάδα είναι ένα ελπιδοφόρο σημάδι.

Μέχρι όμως να δημιουργηθούν οι εθνικές και η υπερεθνική αρχή που οραματίζονται οι πρωτοπόροι της Τεχνητής Νοημοσύνης, ίσως να πρέπει να βασιστούμε στην ιδιωτική πρωτοβουλία. Εκεί βρίσκουμε τον Ilia Sutskever, τον πρώην επικεφαλής ερευνητή της OpenAI και διακεκριμένο επιστήμονα του τομέα. Ο Sutskever, ο οποίος αποχώρησε την άνοιξη από την εταιρεία ύστερα από την περσινή του σύγκρουση με τον Sam Altman που τη διευθύνει ακόμα, δημιούργησε μαζί με άλλα δύο πολύ γνωστά στελέχη του τομέα, τον Daniel Gross και τον Daniel Levy, την εταιρεία Safe Superintelligence (Ασφαλής Υπερευφυΐα).

Σκοπός της SSI είναι η δημιουργία προηγμένων συστημάτων Τεχνητής Νοημοσύνης τα οποία θα υπερβαίνουν τις ανθρώπινες δυνατότητες αλλά δεν θα μπορούν να βλάψουν την ανθρωπότητα. Όπως μετέδωσε το Reuters στις 4 Σεπτεμβρίου, η SSI απέκτησε τους πρώτους εξωτερικούς επενδυτές της οι οποίοι εισέφεραν περίπου 1 δισεκατομμύριο δολάρια και απέκτησαν περίπου το 20% της εταιρείας (στο τελευταίο σκέλος δεν υπήρξε επιβεβαίωση από την SSI). Στους επενδυτές περιλαμβάνονται πολύ μεγάλα ονόματα του χώρου του τεχνολογικού venture capital, όπως η Andreesen Horowitz, η Sequoia Capital και άλλες ακόμα.

Τα κεφάλαια θα χρησιμοποιηθούν για την απόκτηση υπολογιστικής ισχύος για να μπορεί να ξεκινήσει η ερευνητική προσπάθεια των επιστημόνων της εταιρείας. Φυσικά, δεν έχει νόημα να περιμένουμε να ακούσουμε κάτι σύντομα από την SSI, καθώς η προσπάθειά της ξεκινά τώρα, αλλά είναι βέβαιο πως θα την παρακολουθούν στενά όσοι ασχολούνται με τον χώρο της Τεχνητής Νοημοσύνης. 

Μέσα σε όλα αυτά, στις 18 Σεπτεμβρίου μάθαμε πως η κυβέρνηση Μπάιντεν σχεδιάζει τη σύγκληση διεθνούς διάσκεψης με αντικείμενο την ασφάλεια της Τεχνητής Νοημοσύνης. Όπως ανακοινώθηκε, η υπουργός εμπορίου Gina Raimondo και ο υπουργός εξωτερικών Anthony Blinken θα είναι οι οικοδεσπότες της πρώτης συνάντησης του Διεθνούς Δικτύου των Ινστιτούτων για την ασφάλεια της Τεχνητής Νοημοσύνης.

Η διάσκεψη θα λάβει χώρα στο Σαν Φρανσίσκο την 20η και την 21η Νοεμβρίου και θα έχει ως σκοπό την «προαγωγή της διεθνούς συνεργασίας προς την ασφαλή και άξια εμπιστοσύνης ανάπτυξη της Τεχνητής Νοημοσύνης». Τα μέλη του Δικτύου είναι οι ΗΠΑ, η Ευρωπαϊκή Ένωση, το Ηνωμένο Βασίλειο, ο Καναδάς, η Αυστραλία, η Γαλλία, η Κένυα, η Νότια Κορέα και η Σιγκαπούρη. Αρκετά μέλη αλλά και σημαντικές απουσίες, αφού η Κίνα δεν είναι ανάμεσά τους. Παρόλα αυτά, πρόκειται για ένα μάλλον θετικό βήμα, το οποίο θα είναι ευχής έργο να μετεξελιχθεί σε έναν οργανισμό με πολύ μεγαλύτερη διεθνή συμμετοχή.

Ολοκληρώνοντας, ομολογούμε πως δεν είμαστε σε θέση να απαντήσουμε το ερώτημα που έθεσε ο σημερινός μας τίτλος. Αυτό όμως είναι απόλυτα λογικό, αφού απ’ ότι φαίνεται και οι σημαντικότεροι ειδικοί του τομέα κάνουν τα πρώτα βήματα στον δρόμο προς την απάντηση αυτού του ερωτήματος και προς τον ορισμό των επικίνδυνων στοιχείων της. Χωρίς όμως να είμαστε ούτε κατά διάνοια ειδικοί στον τομέα, αν έπρεπε να δώσουμε μία απάντηση, αυτή θα ήταν «όχι και πολύ». Γι’ αυτό και ελπίζουμε πως όσοι εργάζονται για να μας προστατεύσουν από τους πιθανούς κινδύνους θα καταφέρουν να τους εντοπίσουν πριν ξεπροβάλουν μπροστά μας.