Νομπελίστας μιλάει για το ενδεχόμενο η AI να εξαφανίσει την ανθρωπότητα
AP Photo
AP Photo

Νομπελίστας μιλάει για το ενδεχόμενο η AI να εξαφανίσει την ανθρωπότητα

Ο Βρετανοκαναδός επιστήμονας πληροφορικής που συχνά προβάλλεται ως «νονός» της Τεχνητής Νοημοσύνης  αναφέρθηκε στις πιθανότητες η Τεχνητή Νοημοσύνη να εξαφανίσει την ανθρωπότητα μέσα στις επόμενες τρεις δεκαετίες, προειδοποιώντας ότι ο ρυθμός αλλαγής της τεχνολογίας είναι «πολύ ταχύτερος» από ό,τι αναμενόταν, σύμφωνα με τον Guardian.

Ο καθηγητής Τζέφρι Χίντον, στον οποίο απονεμήθηκε φέτος το βραβείο Νόμπελ Φυσικής για το έργο του στην Τεχνητή Νοημοσύνη, δήλωσε ότι υπάρχει μια πιθανότητα «10% έως 20%» ότι η Τεχνητή Νοημοσύνη θα οδηγήσει στην εξαφάνιση του ανθρώπου μέσα στις επόμενες τρεις δεκαετίες.

Προηγουμένως ο Χίντον είχε δηλώσει ότι υπάρχει 10% πιθανότητα η τεχνολογία να προκαλέσει καταστροφική έκβαση για την ανθρωπότητα.

Ερωτηθείς στην εκπομπή Today του BBC Radio 4 αν άλλαξε την ανάλυσή του για μια πιθανή αποκάλυψη της Τεχνητής Νοημοσύνης και την πιθανότητα να συμβεί μία στις 10, είπε: «Όχι πραγματικά, 10% με 20%».

Η εκτίμηση του Χίντον ώθησε τον καλεσμένο συντάκτη του Today, τον πρώην καγκελάριο Sajid Javid, να πει «ανεβαίνεις», στον οποίο ο Χίντον απάντησε: «Αν μη τι άλλο. Βλέπετε, δεν είχαμε ποτέ στο παρελθόν να αντιμετωπίσουμε πράγματα πιο έξυπνα από εμάς».

Και πρόσθεσε: «Και πόσα παραδείγματα γνωρίζετε που ένα πιο έξυπνο πράγμα ελέγχεται από ένα λιγότερο έξυπνο πράγμα; Υπάρχουν πολύ λίγα παραδείγματα. Υπάρχει μια μητέρα και ένα μωρό. Η εξέλιξη έκανε πολλή δουλειά για να επιτρέψει στο μωρό να ελέγχει τη μητέρα, αλλά αυτό είναι το μόνο παράδειγμα που γνωρίζω».

Ο γεννημένος στο Λονδίνο Χίντον, ομότιμος καθηγητής στο Πανεπιστήμιο του Τορόντο, δήλωσε ότι οι άνθρωποι θα είναι σαν νήπια σε σύγκριση με τη νοημοσύνη των πολύ ισχυρών συστημάτων Τεχνητής Νοημοσύνης.

«Μου αρέσει να το σκέφτομαι ως εξής: φανταστείτε τον εαυτό σας και ένα τρίχρονο παιδί. Εμείς θα είμαστε τα τρίχρονα», είπε.

Η Τεχνητή Νοημοσύνη μπορεί να οριστεί χαλαρά ως συστήματα υπολογιστών που εκτελούν εργασίες που συνήθως απαιτούν ανθρώπινη νοημοσύνη.

Πέρυσι, ο Χίντον έγινε πρωτοσέλιδο αφού παραιτήθηκε από τη θέση του στην Google για να μιλήσει πιο ανοιχτά για τους κινδύνους που εγκυμονεί η απεριόριστη ανάπτυξη της Τεχνητής Νοημοσύνης, επικαλούμενος ανησυχίες ότι οι «κακοί παράγοντες» θα χρησιμοποιούσαν την τεχνολογία για να βλάψουν άλλους. Μια βασική ανησυχία των ακτιβιστών για την ασφάλεια της Τεχνητής Νοημοσύνης είναι ότι η δημιουργία τεχνητής γενικής νοημοσύνης, ή συστημάτων που είναι πιο έξυπνα από τους ανθρώπους, θα μπορούσε να οδηγήσει την τεχνολογία να αποτελέσει υπαρξιακή απειλή, καθώς διαφεύγει του ανθρώπινου ελέγχου.

Αναλογιζόμενος πού πίστευε ότι θα είχε φτάσει η ανάπτυξη της Τεχνητής Νοημοσύνης όταν ξεκίνησε την εργασία του πάνω στην τεχνολογία, ο Χίντον δήλωσε: «Δεν πίστευα ότι θα φτάναμε εδώ που είμαστε τώρα. Πίστευα ότι κάποια στιγμή στο μέλλον θα φτάναμε εδώ».