Του Γιάννη Παλιούρη
Το 1942 ο μέγιστος, ίσως, των συγγραφέων επιστημονικής φαντασίας, Ισαάκ Ασίμοφ, διατύπωσε τους περίφημους «Τρεις Νόμους της Ρομποτικής» που θα πρέπει να διέπουν την λειτουργία των ρομπότ προκειμένου να μην τεθεί σε κίνδυνο η ανθρωπότητα. Σχεδόν ογδόντα χρόνια μετά, τα ρομπότ δεν ανήκουν πια στη σφαίρα της φαντασίας. Σε συνδυασμό, μάλιστα, με την ανάδυση της Μηχανικής Μάθησης η απάντηση στο ερώτημα «τι Τεχνητή Νοημοσύνη θέλουμε» παύει να αποτελεί… φιλολογική συζήτηση και αποκτά χαρακτηριστικά επείγοντος.
Σε αυτό το ερώτημα προσπαθεί να απαντήσει η Κομισιόν, η οποία δημοσίευσε πριν λίγες ημέρες μια σειρά κατευθυντήριων γραμμών σχετικά με τον τρόπο με τον οποίο εταιρείες και κυβερνήσεις πρέπει να αναπτύξουν «ηθικές» εφαρμογές Τεχνητής Νοημοσύνης.
Προφανώς δεν πρόκειται για κανόνες όπως οι νόμοι του Ασίμοφ, που θα μας βοηθήσουν να ελέγξουμε… δολοφονικά ρομπότ. Αντιθέτως, διαμορφώνουν ένα πλαίσιο αντιμετώπισης των προβλημάτων που θα επηρεάσουν την κοινωνία καθώς ενσωματώνουμε την Τεχνητή Νοημοσύνη σε τομείς όπως η υγειονομική περίθαλψη, η εκπαίδευση κ.λπ.
Κοντολογίς, η Ευρωπαϊκή Επιτροπή θέλει μια Τεχνητή Νοημοσύνη η οποία θα περιλαμβάνει τα εξής χαρακτηριστικά:
-Ανθρώπινη διοίκηση και εποπτεία: Η ΤΝ δεν θα πρέπει να θέσει εν αμφιβόλω την ανθρώπινη αυτονομία. Οι άνθρωποι δεν θα πρέπει να χειραγωγούνται από συστήματα ΤΝ και θα πρέπει να είναι σε θέση να παρεμβαίνουν ή να επιβλέπουν κάθε απόφαση που λαμβάνουν αυτά.
-Τεχνική ευρωστία και ασφάλεια: Η ΤΝ πρέπει να είναι ασφαλής και ακριβής. Δεν θα πρέπει να διακυβεύεται εύκολα από εξωτερικές επιθέσεις και θα πρέπει να είναι αξιόπιστη.
-Διαφύλαξη της ιδιωτικότητας και των δεδομένων: Τα προσωπικά δεδομένα που συλλέγονται από συστήματα ΤΝ πρέπει να είναι ασφαλή και να παραμένουν ιδιωτικά.
-Διαφάνεια: Πρέπει να είναι προσβάσιμα τα δεδομένα και οι αλγόριθμοι που χρησιμοποιούνται για τη δημιουργία ενός συστήματος ΤΝ ενώ οι αποφάσεις που λαμβάνονται από το λογισμικό πρέπει να «κατανοούνται και να ανιχνεύονται από ανθρώπους». Με άλλα λόγια, οι φορείς εκμετάλλευσης των συστημάτων ΤΝ πρέπει να είναι σε θέση να εξηγούν τις αποφάσεις που λαμβάνουν τα συστήματά τους.
-Διαφορετικότητα, μη διακριτική μεταχείριση: Οι υπηρεσίες που παρέχει η ΤΝ θα πρέπει να είναι διαθέσιμες σε όλους, ανεξάρτητα από την ηλικία, το φύλο, τη φυλή ή άλλα χαρακτηριστικά. Ομοίως, τα συστήματα δεν πρέπει να είναι προκατειλημμένα σε αυτό το πλαίσιο.
-Περιβαλλοντική και κοινωνική ευημερία: Τα συστήματα ΤΝ θα πρέπει να είναι βιώσιμα, δηλαδή οικολογικά υπεύθυνα, και «να ενισχύουν τις θετικές κοινωνικές αλλαγές».
-Λογοδοσία: Τα συστήματα ΤΝ θα πρέπει να ελέγχονται και να καλύπτονται από τις υφιστάμενες νομικές προβλέψεις. Τυχόν, αρνητικές επιπτώσεις τους πρέπει να αναγνωρίζονται και να δηλώνονται εκ των προτέρων στις αρμόδιες αρχές.
Ο συγκεκριμένος «κώδικας ηθικής» είναι αποτέλεσμα εργασίας 52 εμπειρογνωμόνων και σε μια πρώτη ανάγνωση γίνεται άμεσα αντιληπτό ότι αρκετές από τις προβλέψεις του είναι από υποκειμενικές έως αφηρημένες. Δεν θα μπορούσε, όμως, να γίνει διαφορετικά, αφού παρά την πρόοδο στο επιστημονικό πεδίο της Τεχνητής Νοημοσύνης, οι πρακτικές εφαρμογές της τώρα αρχίζουν να επηρεάζουν τις κοινωνίες. Επίσης πρόκειται για κατευθυντήριες γραμμές οι οποίες δεν είναι νομικά δεσμευτικές, αλλά έχουν ως στόχο να διαμορφώσουν οποιαδήποτε μελλοντική νομοθεσία που θα εκπονήσει η Ευρωπαϊκή Ένωση.
Αν και έχουν εκφραστεί αμφιβολίες κατά πόσον συμφέρει την ΕΕ να θεσπίσει κανόνες «ηθικής» για την ΤΝ, φαίνεται πως η Ευρώπη θέλει να χρησιμοποιήσει την «ηθική» ως την «ασημένια σφαίρα» στην προσπάθεια να ανταγωνιστεί τις ΗΠΑ και την Κίνα. Συγκεκριμένα, καθώς η Ευρώπη δεν δείχνει, προς το παρόν τουλάχιστον, ικανή να παρακολουθήσει τον φρενήρη ρυθμό επενδύσεων των ανταγωνιστών της στην ΤΝ, επιλέγει να ποντάρει στη θέσπιση ενός «ηθικού» πλαισίου. Με αυτό τον τρόπο φιλοδοξεί να πείσει τους πολίτες ότι η «ευρωπαϊκή τεχνητή νοημοσύνη» θα είναι εξ ορισμού ταγμένη να τους υπηρετεί με ασφαλή τρόπο. Το αν η επιλογή αυτή καθορίσει τον τελικό νικητή, μένει να αποδεχθεί…