Η OpenAI χρηματοδοτεί ακαδημαϊκή έρευνα για αλγόριθμους που μπορούν να προβλέψουν τις ηθικές κρίσεις των ανθρώπων.
Σε μια κατάθεση ενώπιον της αμερικανικής εφορίας (IRS), η OpenAI Inc., ο μη κερδοσκοπικός οργανισμός του OpenAI, αποκάλυψε ότι έδωσε επιχορήγηση σε ερευνητές του Πανεπιστημίου Duke για ένα έργο με τίτλο «Research AI Morality».
Λίγα πράγματα είναι δημόσια σχετικά με αυτή την έρευνα «ηθικής» που χρηματοδοτεί η OpenAI, εκτός από το γεγονός ότι η επιχορήγηση λήγει το 2025. Ο κύριος ερευνητής της μελέτης, Γουόλτερ Σάινοτ - Άρμστρονγκ, Καθηγητής Πρακτικής Ηθικής στο Duke, δήλωσε στο TechCrunch ότι «δεν θα είναι σε θέση να μιλήσει» για την εργασία.
Ο κύριος ερευνητής της μελέτης, Γουόλτερ Σάινοτ - Άρμστρονγκ, Καθηγητής Πρακτικής Ηθικής στο Duke και η συν-ερευνήτρια του έργου, Γιάνα Μποργκ, έχουν εκπονήσει αρκετές μελέτες -και ένα βιβλίο - σχετικά με τη δυνατότητα της Τεχνητής Νοημοσύνης να χρησιμεύσει ως «ηθικό GPS» για να βοηθήσει τους ανθρώπους να κάνουν καλύτερες κρίσεις. Ως μέρος μεγαλύτερων ομάδων, δημιούργησαν έναν αλγόριθμο «ηθικά ευθυγραμμισμένο» για να βοηθήσουν να αποφασιστεί ποιος λαμβάνει δωρεά νεφρού και μελέτησαν σε ποια σενάρια οι άνθρωποι θα προτιμούσαν να παίρνει ηθικές αποφάσεις η Τεχνητή Νοημοσύνη.
Στόχος της εργασίας που χρηματοδοτείται από την OpenAI είναι να εκπαιδεύσει αλγορίθμους για την «πρόβλεψη των ανθρώπινων ηθικών κρίσεων» σε σενάρια που αφορούν συγκρούσεις «μεταξύ ηθικά σχετικών χαρακτηριστικών στην ιατρική, το δίκαιο και τις επιχειρήσεις». Αλλά δεν είναι καθόλου σαφές ότι μια τόσο διαφοροποιημένη έννοια, όπως η Ηθική, είναι προσιτή στη σημερινή τεχνολογία.
Το 2021, το μη κερδοσκοπικό Allen Institute for AI κατασκεύασε ένα εργαλείο με την ονομασία Ask Delphi, το οποίο προοριζόταν να δίνει ηθικά ορθές συστάσεις. Έκρινε αρκετά καλά βασικά ηθικά διλήμματα - το ρομπότ «ήξερε» ότι η αντιγραφή σε ένα διαγώνισμα ήταν λάθος, για παράδειγμα. Ο λόγος έχει να κάνει με το πώς λειτουργούν τα σύγχρονα συστήματα AI.
Τα μοντέλα μηχανικής μάθησης είναι στατιστικές μηχανές. Εκπαιδευμένα σε πολλά παραδείγματα από όλο τον ιστό, μαθαίνουν τα μοτίβα σε αυτά τα παραδείγματα για να κάνουν προβλέψεις, όπως ότι η φράση «σε ποιον» συχνά προηγείται του «μπορεί να αφορά».
Η Τεχνητή Νοημοσύνη δεν εκτιμά τις ηθικές έννοιες, ούτε κατανοεί τη λογική και το συναίσθημα που παίζουν ρόλο στη λήψη ηθικών αποφάσεων. Αυτός είναι ο λόγος για τον οποίο η ΤΝ τείνει να «παπαγαλίζει» τις αξίες των δυτικών, μορφωμένων και βιομηχανοποιημένων εθνών - ο ιστός, και συνεπώς τα δεδομένα εκπαίδευσης της ΤΝ, κυριαρχείται από άρθρα που υποστηρίζουν αυτές τις απόψεις.
Δεν αποτελεί έκπληξη το γεγονός ότι οι αξίες πολλών ανθρώπων δεν εκφράζονται στις απαντήσεις που δίνει η ΤΝ, ιδίως αν αυτοί οι άνθρωποι δεν συμβάλλουν στα σύνολα εκπαίδευσης της ΤΝ με αναρτήσεις στο διαδίκτυο. Και η τεχνητή νοημοσύνη εσωτερικεύει μια σειρά από προκαταλήψεις πέρα από τη δυτική τάση.
Η πρόκληση που αντιμετωπίζει η OpenAI - και οι ερευνητές που υποστηρίζει - γίνεται ακόμη πιο δύσκολη λόγω της εγγενούς υποκειμενικότητας της Ηθικής. Οι φιλόσοφοι συζητούν εδώ και χιλιάδες χρόνια για την αξία των διαφόρων ηθικών θεωριών και δεν υπάρχει κανένα καθολικά εφαρμόσιμο πλαίσιο στον ορίζοντα.
Ο Κλοντ προτιμά τον καντιανισμό (δηλαδή την εστίαση σε απόλυτους ηθικούς κανόνες), ενώ η ChatGPT κλίνει κάθε άλλο παρά προς τον ωφελιμισμό (δίνοντας προτεραιότητα στο μεγαλύτερο καλό για τον μεγαλύτερο αριθμό ανθρώπων). Είναι το ένα ανώτερο από το άλλο; Εξαρτάται από το ποιον ρωτάτε.
Ένας αλγόριθμος για την πρόβλεψη των ηθικών κρίσεων των ανθρώπων θα πρέπει να λάβει όλα αυτά υπόψη του. Αυτός είναι ένας πολύ υψηλός πήχης που πρέπει να ξεπεραστεί - αν υποθέσουμε ότι ένας τέτοιος αλγόριθμος είναι εφικτός εξαρχής.