Φοβάστε την υπερευφυή τεχνητή νοημοσύνη; Έτσι πρέπει, μας λέει ο νευροεπιστήμων και φιλόσοφος Σαμ Χάρις - και όχι μόνο σε θεωρητικό επίπεδο. Πρόκειται να φτιάξουμε υπεράνθρωπες μηχανές, λέει ο Χάρις, αλλά ακόμα δεν έχουμε λύσει τα προβλήματα που σχετίζονται με τη δημιουργία κάποιου πράγματος που μπορεί να μας μεταχειριστεί όπως εμείς μεταχειριζόμαστε τα μυρμήγκια.
Θα σας μιλήσω για ένα σφάλμα στη λογική που έχουν πολλοί από εμάς. Στην ουσία είναι αδυναμία να δούμε ένα ορισμένο είδος κινδύνου. Θα περιγράψω ένα σενάριο που θεωρώ ταυτόχρονα τρομακτικό, αλλά και πιθανό να συμβεί, και δεν είναι καλός συνδυασμός, όπως τελικά αποδεικνύεται. Αλλά αντί να τρομοκρατείστε, οι περισσότεροι πιστεύετε ότι αυτό που σας λέω είναι μάλλον ωραίο.
Θα σας περιγράψω πώς τα οφέλη που θα δρέψουμε από την τεχνητή νοημοσύνη μπορούν εν τέλει να μας καταστρέψουν. Και μάλιστα το θεωρώ απίθανο είτε να μην μας καταστρέψουν ή να μας εμπνεύσουν να καταστραφούμε μόνοι μας. Αν όμως σκέφτεστε όπως εγώ, θα το απολαμβάνετε να σκέφτεστε αυτά τα πράγματα. Κι αυτή η αντίδραση είναι μέρος του προβλήματος. Εντάξει; Αυτή η αντίδραση θα πρέπει να σας ανησυχεί. Κι αν επρόκειτο να σας πείσω με αυτή την ομιλία ότι είναι πιθανόν να αντιμετωπίσουμε παγκόσμιο λιμό, είτε λόγω κλιματικής αλλαγής ή κάποιας άλλης καταστροφής, και ότι τα εγγόνια σας, ή τα δικά τους εγγόνια, είναι πολύ πιθανόν να ζήσουν κάπως έτσι, δεν θα σκεφτόσασταν, «Ενδιαφέρον. Μου αρέσει αυτή η ομιλία TED».
Ο λιμός δεν είναι κάτι διασκεδαστικό. Από την άλλη, ο θάνατος μέσω επιστημονικής φαντασίας είναι διασκεδαστικός, και κάτι που με ανησυχεί σε αυτό το στάδιο της εξέλιξης της τεχνητής νοημοσύνης είναι ότι αδυνατούμε να επιδείξουμε μια κατάλληλη συναισθηματική αντίδραση στους επικείμενους κινδύνους. Ούτε εγώ μπορώ να έχω αυτή την αντίδραση και κάνω αυτή την ομιλία.
Είναι σαν να στεκόμαστε μπροστά σε δύο πόρτες. Πίσω από την πρώτη πόρτα, παύουμε να κάνουμε πρόοδο στην παραγωγή ευφυών μηχανών. Για κάποιον λόγο παύουμε να βελτιώνουμε υλισμικό και λογισμικό στους υπολογιστές. Τώρα σκεφτείτε για λίγο γιατί μπορεί να συμβεί αυτό. Εννοώ ότι, δεδομένης της μεγάλης αξίας της ευφυίας και των αυτοματισμών, εφόσον μπορούμε, θα συνεχίσουμε να βελτιώνουμε την τεχνολογία μας. Τι μπορεί να μας αποτρέψει; Ένας πυρηνικός πόλεμος πλήρους κλίμακας; Μια παγκόσμια πανδημία; Μια σύγκρουση με αστεροειδή; Να γίνει ο Τζάστιν Μπίμπερ πρόεδρος των ΗΠΑ;
Το θέμα είναι ότι κάτι θα πρέπει να καταστρέψει τον σύγχρονο πολιτισμό. Θα πρέπει να φανταστείτε πόσο οδυνηρό πρέπει να είναι για να μας αποτρέψει από το να βελτιώσουμε την τεχνολογία μας σε μόνιμη βάση, στις επόμενες γενεές. Αυτό είναι σχεδόν εξ ορισμού ό,τι χειρότερο έχει ποτέ συμβεί στην ανθρώπινη ιστορία.
Έτσι η μόνη εναλλακτική -κι αυτή βρίσκεται πίσω από τη δεύτερη πόρτα- είναι να συνεχίσουμε να βελτιώνουμε τις έξυπνες μηχανές μας χρόνο με τον χρόνο. Σε κάποιο σημείο, θα φτιάξουμε μηχανές που θα είναι πιο έξυπνες από εμάς, κι όταν θα έχουμε μηχανές εξυπνότερες από εμάς, θα αρχίσουν να βελτιώνονται μόνες τους. Τότε διακινδυνεύουμε να έχουμε κάτι που ο μαθηματικός Ι. Τζ. Γκουντ αποκάλεσε «έκρηξη ευφυίας», όπου η διαδικασία μπορεί να φύγει από τον έλεγχό μας.
Αυτό συχνά απεικονίζεται, όπως σας δείχνω εδώ, ως ένας φόβος ότι στρατιές από κακόβουλα ρομπότ θα μας επιτεθούν. Αλλά αυτό δεν είναι το πιο πιθανό σενάριο. Δεν είναι ότι οι μηχανές μας θα γίνουν αυθόρμητα κακόβουλες. Η πραγματική ανησυχία είναι ότι θα φτιάξουμε μηχανές που θα είναι τόσο πιο ικανές από εμάς που η ελάχιστη απόκλιση μεταξύ των δικών τους στόχων και των δικών μας θα μπορούσε να μας καταστρέψει.
Σκεφτείτε τη σχέση μας με τα μυρμήγκια. Δεν τα μισούμε. Δεν τα βλάπτουμε εκουσίως. Συχνά μάλιστα κάνουμε προσπάθεια να μην τα βλάψουμε. Αποφεύγουμε να τα πατήσουμε στο πεζοδρόμιο. Αλλά όταν η παρουσία τους αντιτίθεται σοβαρά με τους στόχους μας, ας πούμε, όταν φτιάχνουμε ένα τέτοιο κτήριο, τα εκμηδενίζουμε χωρίς δεύτερη σκέψη. Η ανησυχία είναι ότι μια μέρα θα φτιάξουμε μηχανές που, είτε ενσυνείδητα ή όχι, θα μας μεταχειριστούν με παρόμοια αδιαφορία.
Υποψιάζομαι ότι οι περισσότεροι το θεωρείτε παρατραβηγμένο. Βάζω στοίχημα ότι κάποιοι αμφιβάλλουν αν η υπερευφυής τεχνητή νοημοσύνη είναι εφικτή, πολύ δε λιγότερο αναπόφευκτη. Τότε όμως πρέπει να βρείτε κάποιο λάθος στις ακόλουθες υποθέσεις. Και είναι μόνο τρεις υποθέσεις.
Η ευφυΐα είναι θέμα επεξεργασίας της πληροφορίας σε υλικά συστήματα. Βασικά, αυτό είναι κάτι παραπάνω από μια υπόθεση. Έχουμε ήδη ενσωματώσει περιορισμένη ευφυΐα στις μηχανές μας, και πολλές από αυτές ήδη αποδίδουν σε επίπεδο υπεράνθρωπης ευφυΐας. Και ξέρουμε πως η απλή ύλη μπορεί να δημιουργήσει αυτό που λέγεται «γενική ευφυΐα», μια ικανότητα να σκεφτούμε ευέλικτα σε πολλαπλά επίπεδα, επειδή τα μυαλά μας τα έχουν καταφέρει, σωστά; Εξάλλου μόνο άτομα υπάρχουν εκεί, και όσο συνεχίζουμε να φτιάχνουμε συστήματα από άτομα που επιδεικνύουν όλο και περισσότερο ευφυή συμπεριφορά, αν δεν μας σταματήσει κάποιος, τελικά θα βάλουμε τη γενική ευφυΐα μέσα στις μηχανές μας.
Είναι σημαντικό να καταλάβουμε ότι δεν έχει σημασία ο ρυθμός της προόδου, γιατί κάθε πρόοδος είναι αρκετή για να οδηγήσει σε αυτή την κατάληξη. Δεν χρειάζεται ο Νόμος του Μουρ, ούτε κάποια εκθετική πρόοδος. Χρειάζεται απλώς να συνεχίσουμε. Η συνέχεια εδώ:
* Οι απόψεις του ιστολογίου μπορεί να μη συμπίπτουν με τις απόψεις του/της αρθρογράφου ή τα περιεχόμενα του άρθρου.
0 Σχόλια