Στο Εργαστήριο Λίνκολν του Τεχνολογικού Ινστιτούτου της Μασαχουσέτης (MIT Lincoln Lab) οι επιστήμονες θέλησαν να ελέγξουν, εάν πράγματι ο ανθρώπινος νους μπορεί να ερμηνεύσει τις αποφάσεις που λαμβάνουν ρομποτικοί οργανισμοί και συστήματα ΤΝ.
Ερμηνεύοντας την Τεχνητή Νοημοσύνη: Η ΑΙ «εξηγείται», οι άνθρωποι την καταλαβαίνουν;
Shutterstock
Shutterstock

Ερμηνεύοντας την Τεχνητή Νοημοσύνη: Η ΑΙ «εξηγείται», οι άνθρωποι την καταλαβαίνουν;

Στο Εργαστήριο Λίνκολν του Τεχνολογικού Ινστιτούτου της Μασαχουσέτης (MIT Lincoln Lab) οι επιστήμονες θέλησαν να ελέγξουν, εάν πράγματι ο ανθρώπινος νους μπορεί να ερμηνεύσει τις αποφάσεις που λαμβάνουν ρομποτικοί οργανισμοί και συστήματα ΤΝ.

Τα ρομποτικά συστήματα και η Τεχνητή Νοημοσύνη γίνονται ολοένα και πιο συνήθη στην καθημερινή δραστηριότητα, όμως το μείζον ζήτημα που απασχολεί τους επιστήμονες είναι εάν και κατά πόσον ο σύγχρονος άνθρωπος μπορεί να ερμηνεύσει τις αποφάσεις που λαμβάνει ένα σύστημα AI κι αν αυτό είναι σε θέση να συμπεριφέρεται κατά το αναμενόμενο.

Το τελευταίο διάστημα έχουν αναπτυχθεί νέες μέθοδοι, που έχουν ως στόχο να βοηθήσουν τους ανθρώπους να ελέγξουν τις παραπάνω υποθέσεις. Μία από αυτές είναι η μέθοδος των Τυπικών Προδιαγραφών (Formal Specifications): Χρησιμοποιεί μαθηματικούς τύπους, οι οποίοι μπορούν να μεταφραστούν σε εκφράσεις φυσικής γλώσσας. Η συγκεκριμένη μέθοδος συνιστά μια αυστηρή προσέγγιση για την επαλήθευση της ορθότητας, της ασφάλειας και της αξιοπιστίας των συστημάτων ΤΝ χρησιμοποιώντας μαθηματική λογική και εξειδικευμένα εργαλεία.

Ορισμένοι ερευνητές υποστηρίζουν ότι η μέθοδος αυτή μπορεί να χρησιμοποιηθεί για να διευκρινίσει τις αποφάσεις που θα λάβει ένα σύστημα Τεχνητής Νοημοσύνης με τρόπο που να είναι ερμηνεύσιμος από τους ανθρώπους.

Στο Εργαστήριο Λίνκολν του Τεχνολογικού Ινστιτούτου της Μασαχουσέτης (MIT Lincoln Lab) οι επιστήμονες θέλησαν να ελέγξουν, εάν πράγματι ο ανθρώπινος νους μπορεί να ερμηνεύσει τις αποφάσεις που λαμβάνουν ρομποτικοί οργανισμοί και συστήματα ΤΝ.

Τα ευρήματά τους οδήγησαν σε μία μάλλον μη αναμενόμενη εξέλιξη: Η μέθοδος των Τυπικών Προδιαγραφών δεν φαίνεται να είναι ερμηνεύσιμη από τον άνθρωπο. Στο πλαίσιο αυτό οι επιστήμονες του MIT Lincoln Laboratory πραγματοποίησαν ένα εικονικό παιχνίδι, με τη συμμετοχή ανθρώπων που κλήθηκαν να ελέγξουν εάν το σχέδιο ενός ρομποτικού συστήματος θα ήταν επιτυχές. Οι ερευνητές χρησιμοποίησαν την παραπάνω μέθοδο, παρουσιάζοντας τις τυπικές προδιαγραφές του σχεδίου αυτού. Όμως οι συμμετέχοντες στο παιχνίδι υπήρξαν σωστοί, ως προς τις απαντήσεις που έδωσαν, λιγότερο από τις μισές φορές.

Η εργασία των ερευνητών Ho Chit Siu, Kevin Leahy, and Makai Mann έγινε δεκτή στο Διεθνές Συνέδριο για τα Έξυπνα Ρομπότ και Συστήματα 2023 (International Conference on Intelligent Robots and Systems 2023) που πραγματοποιήθηκε νωρίτερα τον Οκτώβριο στο Ντιτρόιτ των Ηνωμένων Πολιτειών.

Το «μαύρο κουτί» της Τεχνητής Νοημοσύνης

Για να γίνει αντιληπτό αυτό που περιγράφουν οι επιστήμονες του MIT, θα πρέπει να εξετάσουμε τα πράγματα μέσα από το δίπολο «Άνθρωπος - Τεχνητή Νοημοσύνη»: Ο άνθρωπος λαμβάνει συγκεκριμένες αποφάσεις, αξιοποιώντας τις νευροχημικές διεργασίες που γίνονται στον εγκέφαλό του και τις «φιλτράρει» μέσα από τις γνώσεις αλλά και τις εμπειρίες που αποκομίζει στη διάρκεια του βίου του. Όπως είναι φυσικό, η λογική και το θυμικό διαδραματίζουν καταλυτικό ρόλο στη διαδικασία λήψης των αποφάσεων και ως εκ τούτου ερμηνεύονται βάσει όλων των παραπάνω παραμέτρων.

Τι συμβαίνει, όμως, στην περίπτωση ενός συστήματος Τεχνητής Νοημοσύνης, όταν αναφερόμαστε στη διαδικασία λήψης αποφάσεων; Πώς ερμηνεύεται η διαδικασία αυτή από τον ανθρώπινο παράγοντα, ποιες παράμετροι χρησιμοποιούνται και γιατί είναι σημαντική;

Η ερμηνευσιμότητα είναι σημαντική, επειδή επιτρέπει στους ανθρώπους να εμπιστεύονται μια μηχανή όταν χρησιμοποιείται στον πραγματικό κόσμο. Εάν ένα ρομπότ ή μια Tεχνητή Nοημοσύνη μπορεί να εξηγήσει τις ενέργειές του, τότε οι άνθρωποι μπορούν να αποφασίσουν αν χρειάζεται προσαρμογές ή αν μπορούν να το εμπιστευτούν, ώστε να λάβει δίκαιες αποφάσεις. Ένα ερμηνεύσιμο σύστημα δίνει επίσης τη δυνατότητα στους χρήστες της τεχνολογίας - όχι μόνο στους προγραμματιστές - να κατανοήσουν και να εμπιστευτούν τις δυνατότητές της.

Ωστόσο, η ερμηνευσιμότητα αποτελεί εδώ και καιρό μια πρόκληση στον τομέα της Τεχνητής νοημοσύνης και της Ρομποτικής. Η διαδικασία μηχανικής μάθησης συμβαίνει σε ένα «μαύρο κουτί», οπότε οι προγραμματιστές των μοντέλων συχνά δεν μπορούν να εξηγήσουν πώς και γιατί ένα σύστημα κατέληξε σε μια συγκεκριμένη απόφαση.

Όπως ανέφερε σε πρόσφατη συνέντευξή του ο επικεφαλής της ομάδας του MIT, Ho Chit Siu, «οι ερευνητές συγχέουν το γεγονός ότι οι τυπικές προδιαγραφές έχουν ακριβή σημασιολογία με το ότι είναι ερμηνεύσιμες από τους ανθρώπους. Αυτά δεν είναι το ίδιο πράγμα. Συνειδητοποιήσαμε ότι σχεδόν κανείς δεν ελέγχει αν οι άνθρωποι κατανοούν πραγματικά τα αποτελέσματα των αποφάσεων που λαμβάνει η Τεχνητή Νοημοσύνη».

Η έρευνα του MIT διεξήχθη στο πλαίσιο μιας ευρύτερης επιστημονικής εργασίας, στο οποίο απασχολούνται ο Siu και οι συνεργάτες του για τη βελτίωση της σχέσης μεταξύ ρομπότ και ανθρώπινων χειριστών, ιδίως στο στρατό. Η διαδικασία προγραμματισμού της Ρομποτικής μπορεί συχνά να αφήνει τους χειριστές σε άγνοια. Με παρόμοιο στόχο τη βελτίωση της ερμηνευσιμότητας και της εμπιστοσύνης, η συγκεκριμένη μελέτη προσπαθεί να επιτρέψει στους χειριστές να διδάσκουν εργασίες στα ρομπότ απευθείας, με τρόπους που προσιδιάζουν στην εκπαίδευση των ανθρώπων. Μια τέτοια διαδικασία θα μπορούσε να βελτιώσει τόσο την εμπιστοσύνη του χειριστή στο ρομπότ όσο και την προσαρμοστικότητα του ρομπότ στην καθημερινή ανθρώπινη δραστηριότητα και τη διαδικασία λήψης αποφάσεων.

Εν κατακλείδι, η Τεχνητή Νοημοσύνη μπορεί να κάνει πλέον δυναμική την παρουσία της στο ανθρώπινο γίγνεσθαι. Ωστόσο, το μεγάλο στοίχημα θα είναι να βγει τελικά στο φως και έξω από αυτό «μαύρο κουτί» η ανθρώπινη ερμηνεία των αποφάσεων που λαμβάνουν τα ρομποτικά συστήματα. Ίσως, με αυτό τον τρόπο, κατανοήσουμε πώς σκέφτεται και αποφασίζει τελικά η ΤΝ. Όπως φαίνεται, έχουμε ακόμη πολύ δρόμο μπροστά μας.

Με πληροφορίες από το ΜΙΤ Lincoln Lab