Η κοινή και επαναλαμβανόμενη άποψη των τελευταίων ανακαλύψεων στην έρευνα τεχνητής νοημοσύνης είναι ότι τα αισθανόμενα και ευφυή μηχανήματα βρίσκονται ακριβώς στον ορίζοντα. Οι μηχανές κατανοούν λεκτικές εντολές, διακρίνουν εικόνες, οδηγούν αυτοκίνητα και παίζουν παιχνίδια καλύτερα από όσο κάνουμε. Πόσο ακόμα μπορεί να είναι πριν περπατήσουν ανάμεσα μας;
Η νέα έκθεση του Λευκού Οίκου για την τεχνητή νοημοσύνη παίρνει μια κατάλληλα σκεπτικιστική άποψη αυτού του ονείρου. Αναφέρει ότι τα επόμενα 20 χρόνια πιθανότατα δεν θα δουν μηχανές "να παρουσιάζουν ευρέως εφαρμοστέα νοημοσύνη συγκρίσιμη ή μεγαλύτερη από αυτή των ανθρώπων", αν και συνεχίζει να λέει ότι τα επόμενα χρόνια "οι μηχανές θα φτάσουν και θα ξεπεράσουν τις ανθρώπινες επιδόσεις σε περισσότερο και περισσότερες εργασίες. " Αλλά οι υποθέσεις του για το πώς θα αναπτυχθούν αυτές οι δυνατότητες έλειπαν μερικά σημαντικά σημεία.
Ως ερευνητής του AI, θα παραδεχτώ ότι ήταν ωραίο να επισημάνω το δικό μου πεδίο στο υψηλότερο επίπεδο της αμερικανικής κυβέρνησης, αλλά η έκθεση επικεντρώθηκε σχεδόν αποκλειστικά σε αυτό που ονομάζω "το βαρετό είδος AI". Απέρριψε σε μισή πρόταση το υποκατάσταμά μου στην έρευνα του AI, στο πώς η εξέλιξη μπορεί να βοηθήσει στην ανάπτυξη συστημάτων AI που συνεχώς βελτιώνονται και πώς τα υπολογιστικά μοντέλα μπορούν να μας βοηθήσουν να καταλάβουμε πώς εξελίχθηκε η ανθρώπινη νοημοσύνη μας.
Η έκθεση επικεντρώνεται σε αυτά που θα μπορούσαν να ονομαστούν mainstream AI εργαλεία: μηχανική μάθηση και βαθιά μάθηση. Αυτά είναι τα είδη των τεχνολογιών που μπόρεσαν να παίξουν "Τραυματισμοί!" καλά, και χτύπησε τους ανθρώπους Go master στο πιο περίπλοκο παιχνίδι που εφευρέθηκε ποτέ. Αυτά τα τρέχοντα έξυπνα συστήματα είναι σε θέση να χειρίζονται τεράστια ποσά δεδομένων και να κάνουν σύνθετους υπολογισμούς πολύ γρήγορα. Αλλά δεν έχουν ένα στοιχείο που θα είναι το κλειδί για την οικοδόμηση των αισθανόμενων μηχανών που έχουμε να φανταστούμε να έχουμε στο μέλλον.
Πρέπει να κάνουμε περισσότερα από τη διδασκαλία των μηχανών για να μάθουμε. Πρέπει να ξεπεράσουμε τα όρια που ορίζουν τα τέσσερα διαφορετικά είδη τεχνητής νοημοσύνης, τα εμπόδια που χωρίζουν τα μηχανήματα από εμάς - και εμείς από αυτά.
Τύπος I AI: Αντιδραστικά μηχανήματα
Οι πιο βασικοί τύποι συστημάτων AI είναι καθαρά αντιδραστικοί και δεν έχουν τη δυνατότητα ούτε να σχηματίσουν αναμνήσεις ούτε να χρησιμοποιήσουν προηγούμενες εμπειρίες για να ενημερώσουν τις τρέχουσες αποφάσεις. Ο Deep Blue, ο σούπερ υπολογιστής που παίζει το σκάκι της IBM, ο οποίος νίκησε τον διεθνή γκραντς Γκάρυ Κασπάροφ στα τέλη της δεκαετίας του 1990, είναι το τέλειο παράδειγμα αυτού του τύπου μηχανής.
Το Deep Blue μπορεί να ταυτοποιήσει τα κομμάτια σε ένα σκάκι σκάφους και να ξέρει πώς κινείται το καθένα. Μπορεί να κάνει προβλέψεις για τις κινήσεις που θα ακολουθήσουν για αυτό και τον αντίπαλό του. Και μπορεί να επιλέξει τις πιο βέλτιστες κινήσεις από τις δυνατότητες.
Αλλά δεν έχει καμία έννοια του παρελθόντος, ούτε μνήμη για το τι έχει συμβεί πριν. Εκτός από έναν σπάνια χρησιμοποιούμενο κανόνα για το σκάκι κατά της επανάληψης της ίδιας κίνησης τρεις φορές, ο Deep Blue αγνοεί τα πάντα πριν από την παρούσα στιγμή. Το μόνο που κάνει είναι να δούμε τα κομμάτια στον πίνακα σκακιού όπως βρίσκεται τώρα και να επιλέξουν από τις πιθανές επόμενες κινήσεις.
Αυτός ο τύπος νοημοσύνης σημαίνει ότι ο υπολογιστής αντιλαμβάνεται τον κόσμο άμεσα και ενεργεί με αυτό που βλέπει. Δεν βασίζεται σε μια εσωτερική αντίληψη του κόσμου. Σε ένα σημαντικό τεύχος, ο ερευνητής της AI Rodney Brooks υποστήριξε ότι πρέπει να κατασκευάσουμε μόνο μηχανές όπως αυτό. Ο κύριος λόγος του ήταν ότι οι άνθρωποι δεν είναι πολύ καλοί στον προγραμματισμό ακριβών προσομοιωμένων κόσμων για χρήση από τους υπολογιστές, αυτό που ονομάζεται στην υποτροφία AI μια "αναπαράσταση" του κόσμου.
Οι τρέχουσες έξυπνες μηχανές που θαυμάζουμε είτε δεν έχουν τέτοια αντίληψη του κόσμου, είτε έχουν πολύ περιορισμένο και εξειδικευμένο χαρακτήρα για τα ιδιαίτερα καθήκοντά του. Η καινοτομία στο σχεδιασμό της Deep Blue δεν ήταν να διευρύνει το εύρος των πιθανών ταινιών που εξετάζει ο υπολογιστής. Αντίθετα, οι προγραμματιστές βρήκαν έναν τρόπο να περιορίσουν την άποψή του, να σταματήσουν να ακολουθούν κάποιες πιθανές μελλοντικές κινήσεις, με βάση τον τρόπο με τον οποίο βαθμολόγησαν τα αποτελέσματά τους. Χωρίς αυτή την ικανότητα, ο Deep Blue θα χρειαζόταν έναν ακόμα πιο ισχυρό υπολογιστή για να νικήσει τον Kasparov.
Ομοίως, το AlphaGo της Google, το οποίο έχει κερδίσει κορυφαίους εμπειρογνώμονες της Human Go, δεν μπορεί να αξιολογήσει όλες τις πιθανές μελλοντικές κινήσεις. Η μέθοδος ανάλυσης είναι πιο εξελιγμένη από την Deep Blue, χρησιμοποιώντας ένα νευρικό δίκτυο για να αξιολογήσει τις εξελίξεις των παιχνιδιών.
Αυτές οι μέθοδοι βελτιώνουν την ικανότητα των συστημάτων AI να παίζουν καλύτερα συγκεκριμένα παιχνίδια, αλλά δεν μπορούν εύκολα να αλλάξουν ή να εφαρμοστούν σε άλλες καταστάσεις. Αυτές οι ηλεκτρονικές φαντασιώσεις δεν έχουν έννοια του ευρύτερου κόσμου - που σημαίνει ότι δεν μπορούν να λειτουργήσουν πέρα από τα συγκεκριμένα καθήκοντα που τους ανατίθενται και εύκολα ξεγελάστηκαν.
Δεν μπορούν να συμμετάσχουν διαδραστικά στον κόσμο, ο τρόπος που φανταζόμαστε συστήματα AI μια μέρα θα μπορούσε. Αντ 'αυτού, αυτά τα μηχανήματα θα συμπεριφέρονται με τον ίδιο τρόπο κάθε φορά που συναντούν την ίδια κατάσταση. Αυτό μπορεί να είναι πολύ καλό για την εξασφάλιση αξιόπιστου συστήματος AI: Θέλετε το αυτόνομο αυτοκίνητό σας να είναι ένας αξιόπιστος οδηγός. Αλλά είναι κακό αν θέλουμε οι μηχανές να εμπλακούν πραγματικά και να ανταποκριθούν στον κόσμο. Αυτά τα απλούστερα συστήματα AI δεν θα είναι ποτέ βαρεμένα, ούτε ενδιαφέρονται, ούτε λυπημένα.
Τύπος II AI: Περιορισμένη μνήμη
Αυτή η τάξη Τύπου ΙΙ περιέχει μηχανές μπορεί να εξετάσει το παρελθόν. Αυτο-οδήγηση αυτοκίνητα κάνουν κάποια από αυτά ήδη. Για παράδειγμα, παρατηρούν την ταχύτητα και την κατεύθυνση των άλλων αυτοκινήτων. Αυτό δεν μπορεί να γίνει σε μια μόνο στιγμή, αλλά απαιτεί την ταυτοποίηση συγκεκριμένων αντικειμένων και την παρακολούθησή τους με την πάροδο του χρόνου.
Αυτές οι παρατηρήσεις προστίθενται στις προκαθορισμένες παραστάσεις του αυτο-οδηγού αυτοκινήτου του κόσμου, οι οποίες περιλαμβάνουν επίσης σημάνσεις λωρίδων, φανάρια και άλλα σημαντικά στοιχεία, όπως καμπύλες στο δρόμο. Συμπεριλαμβάνονται όταν το αυτοκίνητο αποφασίζει πότε να αλλάξει λωρίδες, για να αποφύγει την περικοπή άλλου οδηγού ή το να πληγεί από κοντινό αυτοκίνητο.
Αλλά αυτά τα απλά κομμάτια των πληροφοριών για το παρελθόν είναι μόνο παροδικά. Δεν σώζονται ως τμήμα της βιβλιοθήκης εμπειριών που μπορεί να μάθει από τον οδηγό, με τον τρόπο που οι ανθρώπινοι οδηγοί συγκεντρώνουν την εμπειρία τους για πολλά χρόνια πίσω από τον τροχό.
Πώς λοιπόν μπορούμε να δημιουργήσουμε συστήματα AI που να χτίζουν πλήρεις αναπαραστάσεις, να θυμούνται τις εμπειρίες τους και να μαθαίνουν πώς να χειρίζονται νέες καταστάσεις; Ο Brooks είχε δίκιο στο ότι είναι πολύ δύσκολο να γίνει αυτό. Η δική μου έρευνα σε μεθόδους εμπνευσμένες από τη δαρβινική εξέλιξη μπορεί να αρχίσει να αντισταθμίζει τις ανθρώπινες ανεπάρκειες επιτρέποντας στις μηχανές να χτίζουν τις δικές τους παραστάσεις.
Τύπος III AI: Θεωρία του νου
Μπορούμε να σταματήσουμε εδώ και να ονομάσουμε αυτό το σημείο το σημαντικό χάσμα μεταξύ των μηχανών που έχουμε και των μηχανών που θα χτίσουμε στο μέλλον. Ωστόσο, είναι καλύτερα να συζητήσουμε πιο συγκεκριμένα τους τύπους αναπαραστάσεων που πρέπει να διαμορφώσουν οι μηχανές και τι πρέπει να είναι.
Οι μηχανές στην επόμενη, πιο προηγμένη κατηγορία δεν αποτελούν μόνο παραστάσεις για τον κόσμο, αλλά και για άλλους παράγοντες ή οντότητες στον κόσμο. Στην ψυχολογία αυτή ονομάζεται «θεωρία του νου» - η κατανόηση ότι οι άνθρωποι, τα πλάσματα και τα αντικείμενα στον κόσμο μπορούν να έχουν σκέψεις και συναισθήματα που επηρεάζουν τη συμπεριφορά τους.
Αυτό είναι κρίσιμο για το πώς εμείς οι άνθρωποι διαμορφώσαμε κοινωνίες, επειδή μας επέτρεψαν να έχουμε κοινωνικές αλληλεπιδράσεις. Χωρίς να κατανοώ τα κίνητρα και τις προθέσεις του άλλου και χωρίς να λαμβάνω υπόψη αυτό που κάποιος άλλος γνωρίζει είτε για μένα είτε για το περιβάλλον, η συνεργασία είναι στην καλύτερη περίπτωση το δύσκολο, το χειρότερο αδύνατο.
Αν τα συστήματα ΑΙ πρόκειται πράγματι να περπατήσουν ανάμεσα μας, θα πρέπει να κατανοήσουν ότι ο καθένας από εμάς έχει σκέψεις και συναισθήματα και προσδοκίες για το πώς θα το αντιμετωπίσουμε. Και θα πρέπει να προσαρμόσουν ανάλογα τη συμπεριφορά τους.
Τύπος IV AI: Αυτογνωσία
Το τελικό βήμα της ανάπτυξης του AI είναι η δημιουργία συστημάτων που μπορούν να διαμορφώσουν παραστάσεις για τον εαυτό τους. Τελικά, εμείς οι ερευνητές του AI θα πρέπει όχι μόνο να κατανοήσουμε τη συνείδηση, αλλά να κατασκευάσουμε μηχανές που το έχουν.
Αυτή είναι, κατά μία έννοια, μια επέκταση της «θεωρίας του νου» που κατέχει η Τυποποιημένη Τυπολογία III. Η συνείδηση ονομάζεται επίσης "αυτογνωσία" για έναν λόγο. ("Θέλω αυτό το στοιχείο" είναι μια πολύ διαφορετική δήλωση από το "Ξέρω ότι θέλω αυτό το στοιχείο.") Τα συνειδητά όντα γνωρίζουν τον εαυτό τους, γνωρίζουν τα εσωτερικά τους κράτη και είναι σε θέση να προβλέψουν τα συναισθήματα των άλλων. Υποθέτουμε ότι κάποιος που κλέβει πίσω μας στην κίνηση είναι θυμωμένος ή ανυπόμονος, γιατί έτσι νιώθουμε όταν χτυπάμε σε άλλους. Χωρίς μια θεωρία του νου, δεν μπορούσαμε να κάνουμε τέτοιου είδους συμπεράσματα.
Παρόλο που είμαστε πιθανώς πολύ μακριά από τη δημιουργία μηχανών που είναι αυτογνωστικές, θα πρέπει να εστιάσουμε τις προσπάθειές μας στην κατανόηση της μνήμης, της μάθησης και της ικανότητας να βασίζουμε τις αποφάσεις στις προηγούμενες εμπειρίες. Αυτό είναι ένα σημαντικό βήμα για την κατανόηση της ανθρώπινης νοημοσύνης από μόνος του. Και είναι ζωτικής σημασίας αν θέλουμε να σχεδιάζουμε ή να εξελίσσουμε μηχανές που είναι κάτι παραπάνω από εξαιρετικές όταν ταξινομούμε αυτό που βλέπουν μπροστά τους.
Arend Hintze, Επίκουρος Καθηγητής Ολοκληρωμένης Βιολογίας και Πληροφορικής και Μηχανικών Υπολογιστών, Michigan State University