Η δημιουργία Τεχνητής Γενικής Νοημοσύνης, ή AGI, είναι ο διακηρυγμένος στόχος όλων των μεγάλων ερευνητικών εργαστηρίων ΑΙ. Με μια πρώτη ματιά, το OpenAI φαίνεται να έχει κάνει τουλάχιστον ένα σημαντικό βήμα προς αυτόν τον στόχο.
Από την AI στην Τεχνητή Γενική Νοημοσύνη: Ένα ελπιδοφόρο πείραμα της OpenAI με το βλέμμα στο 2025
Shutterstock
Shutterstock

Από την AI στην Τεχνητή Γενική Νοημοσύνη: Ένα ελπιδοφόρο πείραμα της OpenAI με το βλέμμα στο 2025

Η δημιουργία Τεχνητής Γενικής Νοημοσύνης, ή AGI, είναι ο διακηρυγμένος στόχος όλων των μεγάλων ερευνητικών εργαστηρίων ΑΙ. Με μια πρώτη ματιά, το OpenAI φαίνεται να έχει κάνει τουλάχιστον ένα σημαντικό βήμα προς αυτόν τον στόχο.

Ένα νέο μοντέλο Τεχνητής Νοημοσύνης (AI) μόλις πέτυχε αποτελέσματα ανθρώπινου επιπέδου σε ένα τεστ που σχεδιάστηκε για να μετρήσει τη «γενική νοημοσύνη».

Στις 20 Δεκεμβρίου, το σύστημα Omnia 3 (o3) της OpenAI σημείωσε βαθμολογία 85% στο τεστ αναφοράς (benchmark) ARC-AGI πολύ πάνω από το προηγούμενο καλύτερο σκορ Τεχνητής Νοημοσύνης 55% και στο ίδιο επίπεδο με το μέσο ανθρώπινο σκορ. Επίσης, σημείωσε καλή βαθμολογία σε ένα πολύ δύσκολο τεστ μαθηματικών.

Η δημιουργία Τεχνητής Γενικής Νοημοσύνης, ή AGI, είναι ο διακηρυγμένος στόχος όλων των μεγάλων ερευνητικών εργαστηρίων ΑΙ. Με μια πρώτη ματιά, το OpenAI φαίνεται να έχει κάνει τουλάχιστον ένα σημαντικό βήμα προς αυτόν τον στόχο.

Ενώ ο σκεπτικισμός παραμένει, πολλοί ερευνητές και προγραμματιστές ΤΝ αισθάνονται ότι κάτι μόλις άλλαξε. Για πολλούς, η προοπτική της AGI φαίνεται τώρα πιο πραγματική, επείγουσα και πιο κοντά απ' ό,τι αναμενόταν. Έχουν δίκιο;

Γενίκευση και Nοημοσύνη

Για να καταλάβετε τι σημαίνει το αποτέλεσμα o3, πρέπει να καταλάβετε τι σημαίνει το τεστ ARC-AGI. Με τεχνικούς όρους, πρόκειται για ένα τεστ της «δειγματοληπτικής αποτελεσματικότητας» ενός συστήματος AI στην προσαρμογή σε κάτι νέο - πόσα παραδείγματα μιας νέας κατάστασης χρειάζεται να δει το σύστημα για να καταλάβει πώς λειτουργεί.

Ένα σύστημα Τεχνητής Νοημοσύνης όπως το ChatGPT (GPT-4) δεν είναι πολύ αποδοτικό ως προς το δείγμα. «Εκπαιδεύτηκε» σε εκατομμύρια παραδείγματα ανθρώπινου κειμένου, κατασκευάζοντας «κανόνες» με βάση το ποιοι συνδυασμοί λέξεων είναι πιο πιθανοί.

Το αποτέλεσμα είναι αρκετά καλό σε κοινές εργασίες. Είναι κακό σε πιο πολύπλοκες εργασίες, επειδή έχει λιγότερα δεδομένα (σ.σ. λιγότερα δείγματα) σχετικά με αυτές τις εργασίες.

Μέχρι τα συστήματα AI να μπορούν να μαθαίνουν από μικρό αριθμό παραδειγμάτων και να προσαρμόζονται με μεγαλύτερη αποτελεσματικότητα των δειγμάτων, θα χρησιμοποιούνται μόνο για πολύ επαναλαμβανόμενες εργασίες και για εργασίες όπου η περιστασιακή αποτυχία είναι ανεκτή.

Η ικανότητα ακριβούς επίλυσης προηγουμένως άγνωστων ή νέων προβλημάτων από περιορισμένα δείγματα δεδομένων είναι γνωστή ως ικανότητα γενίκευσης. Θεωρείται ευρέως απαραίτητο, ακόμη και θεμελιώδες στοιχείο της νοημοσύνης.

Πλέγματα και μοτίβα

Το σημείο αναφοράς ARC-AGI ελέγχει την αποτελεσματική προσαρμογή σε δείγματα χρησιμοποιώντας προβλήματα μικρών τετραγωνικών πλεγμάτων όπως το παρακάτω. Η τεχνητή νοημοσύνη πρέπει να βρει το μοτίβο που μετατρέπει το πλέγμα στα αριστερά στο πλέγμα στα δεξιά.

Ένα παράδειγμα εργασίας από το τεστ αναφοράς ARC-AGI. Βραβείο ARC

Κάθε ερώτηση δίνει τρία παραδείγματα για να μάθει από αυτά. Το σύστημα τεχνητής νοημοσύνης πρέπει στη συνέχεια να βρει τους κανόνες που «γενικεύουν» από τα τρία παραδείγματα στο τέταρτο.

Αυτά μοιάζουν πολύ με τα τεστ IQ που μερικές φορές μπορεί να θυμάστε από το σχολείο.

Αδύναμοι κανόνες και προσαρμογή

Δεν ξέρουμε ακριβώς πώς το έχει κάνει το OpenAI, αλλά τα αποτελέσματα υποδηλώνουν ότι το μοντέλο o3 είναι εξαιρετικά προσαρμόσιμο. Από λίγα μόνο παραδείγματα, βρίσκει κανόνες που μπορούν να γενικευτούν.

Για να βρούμε ένα μοτίβο, δεν πρέπει να κάνουμε περιττές υποθέσεις ή να είμαστε πιο συγκεκριμένοι από ό,τι πραγματικά χρειάζεται. Θεωρητικά, αν μπορείτε να εντοπίσετε τους πιο «αδύναμους» κανόνες που κάνουν αυτό που θέλετε, τότε έχετε μεγιστοποιήσει την ικανότητά σας να προσαρμόζεστε σε νέες καταστάσεις.

Τι εννοούμε με τον όρο «οι πιο αδύναμοι κανόνες»; Ο τεχνικός ορισμός είναι περίπλοκος, αλλά οι πιο αδύναμοι κανόνες είναι συνήθως αυτοί που μπορούν να περιγραφούν με απλούστερες δηλώσεις.

Στο παραπάνω παράδειγμα, μια απλή αγγλική έκφραση του κανόνα θα μπορούσε να είναι κάτι σαν: «Οποιοδήποτε σχήμα με προεξέχουσα γραμμή θα μετακινηθεί στο τέλος αυτής της γραμμής και θα «καλύψει» οποιαδήποτε άλλα σχήματα με τα οποία επικαλύπτεται».

Αναζητώντας «αλυσίδες σκέψης»

Αν και δεν γνωρίζουμε ακόμη πώς το OpenAI πέτυχε αυτό το αποτέλεσμα, φαίνεται απίθανο να βελτιστοποίησαν σκόπιμα το σύστημα o3 για να βρουν αδύναμους κανόνες. Ωστόσο, για να πετύχει στις εργασίες του τεστ αναφοράς ARC-AGI πρέπει να τους βρίσκει.

Γνωρίζουμε ότι το OpenAI ξεκίνησε με μια έκδοση γενικής χρήσης του μοντέλου o3 (το οποίο διαφέρει από τα περισσότερα άλλα μοντέλα, επειδή μπορεί να ξοδέψει περισσότερο χρόνο για να «σκεφτεί» τις δύσκολες ερωτήσεις) και στη συνέχεια το εκπαίδευσε ειδικά για τη δοκιμασία ARC-AGI.

Ο Γάλλος ερευνητής Τεχνητής Νοημοσύνης Francois Chollet, ο οποίος σχεδίασε το τεστ αναφοράς ARC-AGI, πιστεύει ότι το o3 ψάχνει μέσα από διαφορετικές «αλυσίδες σκέψης» που περιγράφουν τα βήματα για την επίλυση της εργασίας. Στη συνέχεια επιλέγει την «καλύτερη» σύμφωνα με κάποιον χαλαρά καθορισμένο κανόνα ή «ευρετική».

Αυτό δεν θα ήταν «διαφορετικό» από τον τρόπο με τον οποίο το σύστημα AlphaGo της Google έψαχνε μέσα από διαφορετικές πιθανές ακολουθίες κινήσεων για να νικήσει τον παγκόσμιο πρωταθλητή του Go.

Το 2016, το σύστημα Τεχνητής Νοημοσύνης AlphaGo νίκησε τον παγκόσμιο πρωταθλητή (Go Lee Sedol. Lee Jin-man / AP)

Μπορείτε να σκεφτείτε αυτές τις αλυσίδες σκέψης σαν προγράμματα που ταιριάζουν στα παραδείγματα. Βέβαια, αν είναι σαν το ΤΝ που παίζει Γκο, τότε χρειάζεται μια ευρετική (heuristic), ή έναν χαλαρό κανόνα, για να αποφασίσει ποιο πρόγραμμα είναι το καλύτερο.

Θα μπορούσαν να δημιουργηθούν χιλιάδες διαφορετικά, φαινομενικά εξίσου έγκυρα προγράμματα. Αυτή η μέθοδος εύρεσης θα μπορούσε να είναι «επιλέξτε το πιο αδύναμο» ή «επιλέξτε το πιο απλό».

Ωστόσο, αν είναι σαν το AlphaGo, τότε απλά έβαλαν μια Τεχνητή νοημοσύνη να δημιουργήσει μια ευρετική. Αυτή ήταν η διαδικασία για το AlphaGo. Η Google εκπαίδευσε ένα μοντέλο για να αξιολογεί διαφορετικές ακολουθίες κινήσεων ως καλύτερες ή χειρότερες από άλλες.

Τι δεν γνωρίζουμε ακόμα

Το ερώτημα λοιπόν είναι, είναι αυτό πραγματικά πιο κοντά στην AGI; Αν έτσι λειτουργεί το o3, τότε το υποκείμενο μοντέλο μπορεί να μην είναι πολύ καλύτερο από τα προηγούμενα μοντέλα.

Οι έννοιες που μαθαίνει το μοντέλο από τη γλώσσα μπορεί να μην είναι πιο κατάλληλες για γενίκευση από ό,τι πριν. Αντίθετα, μπορεί απλώς να βλέπουμε μια πιο γενικεύσιμη «αλυσίδα σκέψης» που βρέθηκε μέσω των επιπλέον βημάτων της εκπαίδευσης μιας ευρετικής που εξειδικεύεται σε αυτή τη δοκιμασία. Η απόδειξη, όπως πάντα, θα βρίσκεται στην πουτίγκα.

Σχεδόν τα πάντα για την o3 παραμένουν άγνωστα. Το OpenAI έχει περιορίσει την αποκάλυψη σε μερικές παρουσιάσεις στα μέσα μαζικής ενημέρωσης και τις πρώτες δοκιμές σε μια χούφτα ερευνητές, εργαστήρια και ιδρύματα ασφάλειας της τεχνητής νοημοσύνης.

Η πραγματική κατανόηση των δυνατοτήτων του o3 θα απαιτήσει εκτεταμένη εργασία, συμπεριλαμβανομένων των αξιολογήσεων, της κατανόησης της κατανομής των δυνατοτήτων του, του πόσο συχνά αποτυγχάνει και πόσο συχνά πετυχαίνει.

Όταν τελικά κυκλοφορήσει το o3, θα έχουμε μια πολύ καλύτερη ιδέα για το αν είναι περίπου τόσο προσαρμόσιμο όσο ένας μέσος άνθρωπος.

Αν ναι, θα μπορούσε να έχει τεράστιο, επαναστατικό, οικονομικό αντίκτυπο, εγκαινιάζοντας μια νέα εποχή αυτοβελτιούμενης επιταχυνόμενης νοημοσύνης. Θα χρειαστούμε νέα κριτήρια αναφοράς για την ίδια την AGI και σοβαρή εξέταση του τρόπου με τον οποίο θα πρέπει να κυβερνηθεί.

Αν όχι, τότε και πάλι θα είναι ένα εντυπωσιακό αποτέλεσμα. Ωστόσο, η καθημερινή ζωή θα παραμείνει σε μεγάλο βαθμό η ίδια.


* Ο Michael Timothy Bennett είναι υποψήφιος διδάκτορας στη Σχολή Πληροφορικής του Εθνικού Πανεπιστημίου Αυστραλίας. Ο Elija Perrier είναι ερευνητής στο Κέντρο Υπεύθυνης Κβαντικής Τεχνολογίας του Πανεπιστημίου Στάνφορντ στις ΗΠΑ. Το άρθρο τους αναδημοσιεύεται αυτούσιο στο Liberal μέσω άδειας Creative Commons από τον ιστότοπο TheConversation.com.