Το ChatGPT του OpenAI, το Bard της Google και το Sydney της Microsoft είναι θαύματα της μηχανικής μάθησης. Σε γενικές γραμμές, παίρνουν τεράστιες ποσότητες δεδομένων, αναζητούν μοτίβα σε αυτά και γίνονται όλο και πιο ικανά στη δημιουργία στατιστικά πιθανών αποτελεσμάτων -όπως η φαινομενικά ανθρώπινη γλώσσα και σκέψη.
Αυτά τα προγράμματα έχουν χαιρετιστεί ως οι πρώτες αναλαμπές στον ορίζοντα της τεχνητής γενικής νοημοσύνης -εκείνη η προφητευμένη στιγμή που τα μηχανικά μυαλά θα ξεπεράσουν τους ανθρώπινους εγκεφάλους όχι μόνο ποσοτικά ως προς την ταχύτητα επεξεργασίας και το μέγεθος μνήμης αλλά και ποιοτικά όσον αφορά την πνευματική διορατικότητα, την καλλιτεχνική δημιουργικότητα και κάθε άλλη ξεχωριστή ανθρώπινη ικανότητα.
Αυτή η μέρα μπορεί να έρθει αλλά η αυγή της δεν έχει ακόμη ξημερώσει, σε αντίθεση με ό,τι μπορεί να διαβάσει κανείς σε υπερβολικούς τίτλους και σε αντίθεση με τις αλόγιστες επενδύσεις που κάνουν κάποιοι. Η “μπορχεσιανή” αποκάλυψη της κατανόησης δεν έχει και δεν θα συμβεί -και, όπως υποστηρίζουμε, δεν μπορεί- να συμβεί εάν προγράμματα μηχανικής εκμάθησης όπως το ChatGPT συνεχίσουν να κυριαρχούν στον τομέα της A.I.
Όσο χρήσιμα κι αν είναι αυτά τα προγράμματα σε ορισμένους στενούς τομείς (μπορούν να είναι χρήσιμα στον προγραμματισμό υπολογιστών, για παράδειγμα, ή στην πρόταση ομοιοκαταληξιών για ανάλαφρους στίχους), γνωρίζουμε από την επιστήμη της γλωσσολογίας και τη γνωσιολογία ότι διαφέρουν βαθιά από το πώς οι άνθρωποι σκέφτονται και χρησιμοποιούν τη γλώσσα. Αυτές οι διαφορές θέτουν σημαντικούς περιορισμούς στο τι μπορούν να κάνουν αυτά τα προγράμματα, κωδικοποιώντας τα με μη εξαλείψιμα ελαττώματα.
Είναι ταυτόχρονα κωμικό και τραγικό, όπως θα μπορούσε να είχε σημειώσει ο Μπόρχες, ότι τόσα χρήματα και τόσο μεγάλη προσοχή επικεντρώνονται σε κάτι τόσο μικρό -και κάτι τόσο ασήμαντο σε αντίθεση με το ανθρώπινο μυαλό, το οποίο λόγω γλώσσας, σύμφωνα με τα λόγια του Βίλχελμ φον Χούμπολτ, μπορεί να κάνει “άπειρη χρήση πεπερασμένων μέσων”, δημιουργώντας ιδέες και θεωρίες με καθολική εμβέλεια.
Ο ανθρώπινος νους δεν είναι, όπως το ChatGPT και τα παρόμοια του, μια βαρετή στατιστική μηχανή για την αντιστοίχιση μοτίβων, που συλλέγει εκατοντάδες terabyte δεδομένων και προεκθέτει την πιο πιθανή απάντηση συνομιλίας ή την πιο πιθανή απάντηση σε μια επιστημονική ερώτηση. Αντίθετα, το ανθρώπινο μυαλό είναι ένα εκπληκτικά αποτελεσματικό και ακόμη κομψό σύστημα που λειτουργεί με μικρές ποσότητες πληροφοριών. Επιδιώκει να μην συμπεράνει ωμούς συσχετισμούς μεταξύ των δεδομένων αλλά να δημιουργήσει εξηγήσεις.
Για παράδειγμα, ένα μικρό παιδί που μαθαίνει μια γλώσσα αναπτύσσει -ασυνείδητα, αυτόματα και γρήγορα μέσα από μικροσκοπικά δεδομένα- μια γραμματική, ένα εκπληκτικά εξελιγμένο σύστημα λογικών αρχών και παραμέτρων. Αυτή η γραμματική μπορεί να γίνει κατανοητή ως έκφραση του έμφυτου και γενετικά εγκατεστημένου “λειτουργικού συστήματος” που προικίζει τους ανθρώπους με την ικανότητα να δημιουργούν περίπλοκες προτάσεις και μακριές διαδρομές σκέψης. Όταν οι γλωσσολόγοι επιδιώκουν να αναπτύξουν μια θεωρία για το γιατί μια δεδομένη γλώσσα λειτουργεί όπως λειτουργεί, χτίζουν συνειδητά και επίπονα μια ρητή εκδοχή της γραμματικής που το παιδί χτίζει ενστικτωδώς και με ελάχιστη έκθεση σε πληροφορίες. Το λειτουργικό σύστημα του παιδιού είναι εντελώς διαφορετικό από αυτό ενός προγράμματος μηχανικής εκμάθησης.
Πράγματι, τέτοια προγράμματα έχουν μείνει κολλημένα σε μια προανθρώπινη ή μη-ανθρώπινη φάση της γνωστικής εξέλιξης. Το βαθύτερο ελάττωμά τους είναι η απουσία της πιο κρίσιμης ικανότητας οποιασδήποτε νοημοσύνης: να λένε όχι μόνο τι ισχύει, τι συνέβη και τι θα συμβεί -αυτό είναι περιγραφή και πρόβλεψη- αλλά και τι δεν ισχύει και τι θα μπορούσε και τι δεν θα μπορούσε να ισχύει. Αυτά είναι τα συστατικά της εξήγησης, το σημάδι της αληθινής νοημοσύνης.
Κι ένα παράδειγμα για να καταλάβουμε καλύτερα. Ας υποθέσουμε ότι κρατάς ένα μήλο στο χέρι σου. Τώρα αφήνεις το μήλο ελεύθερο. Παρατηρείς το αποτέλεσμα και λες: “Το μήλο πέφτει”. Αυτή είναι μια περιγραφή. Μια πρόβλεψη μπορεί να ήταν η δήλωση “το μήλο θα πέσει αν ανοίξω το χέρι μου”. Και τα δύο είναι πολύτιμα, και τα δύο μπορεί να είναι σωστά. Αλλά μια εξήγηση είναι κάτι περισσότερο: δεν περιλαμβάνει μόνο περιγραφές και προβλέψεις, αλλά και αντιπραγματικές εικασίες όπως “οποιοδήποτε τέτοιο αντικείμενο θα έπεφτε”, συν την πρόσθετη ρήτρα “λόγω της της βαρύτητας” ή “λόγω της καμπυλότητας του χωροχρόνου” ή οτιδήποτε. Αυτή είναι μια αιτιολογική εξήγηση: “Το μήλο δεν θα είχε πέσει παρά μόνο εξαιτίας της δύναμης της βαρύτητας”. Αυτό είναι η σκέψη.
Η ουσία της μηχανικής μάθησης είναι η περιγραφή και η πρόβλεψη -δεν θέτει αιτιακούς μηχανισμούς ή φυσικούς νόμους. Φυσικά, οποιαδήποτε ανθρώπινη εξήγηση δεν είναι απαραίτητα σωστή. Είμαστε επιρρεπείς στο λάθος αλλά αυτό είναι μέρος του τι σημαίνει να σκέφτεσαι: για να έχεις δίκιο, πρέπει να είναι δυνατό να κάνεις και λάθος.
Η νοημοσύνη δεν αποτελείται μόνο από δημιουργικές εικασίες αλλά και από δημιουργική κριτική. Η ανθρώπινη σκέψη βασίζεται σε πιθανές εξηγήσεις και διόρθωση σφαλμάτων, μια διαδικασία που σταδιακά περιορίζει ποιες πιθανότητες μπορούν να εξεταστούν ορθολογικά. (Όπως είπε ο Σέρλοκ Χολμς στον Δρ. Γουάτσον, “Όταν έχεις εξαλείψει το αδύνατο, ό,τι απομένει, όσο απίθανο κι αν είναι, πρέπει να είναι η αλήθεια”.)
Αν και το ChatGPT και τα παρόμοια προγράμματα είναι, από τη σχεδίασή τους, απεριόριστα στο τι μπορούν να “μάθουν” (δηλαδή, να απομνημονεύσουν), ωστόσο είναι ανίκανα να διακρίνουν το δυνατό από το αδύνατο. Σε αντίθεση με τους ανθρώπους, για παράδειγμα, που είναι προικισμένοι με μια καθολική γραμματική που περιορίζει τις γλώσσες που μπορούμε να διδάξουμε με σχεδόν μαθηματική κομψότητα σε εκείνους που έχουν ένα συγκεκριμένο είδος γραμματικής, αυτά τα προγράμματα μαθαίνουν γλώσσες που είναι ανθρωπίνως δυνατές και ανθρωπίνως αδύνατες με την ίδια ευκολία.
Ενώ οι άνθρωποι είναι περιορισμένοι στα είδη των εξηγήσεων που μπορούμε λογικά να υποθέσουμε, τα συστήματα μηχανικής μάθησης μπορούν να μάθουν τόσο ότι η γη είναι επίπεδη όσο και ότι η γη είναι στρογγυλή. Ανταλλάσσουν απλώς πιθανότητες, οι οποίες αλλάζουν με την πάροδο του χρόνου.
Για το λόγο αυτό, οι προβλέψεις των συστημάτων μηχανικής μάθησης θα είναι πάντα επιφανειακές και αμφίβολες.
(...) Παραδόξως, ορισμένοι λάτρεις της μηχανικής μάθησης φαίνεται να είναι περήφανοι που οι δημιουργίες τους μπορούν να δημιουργήσουν σωστές “επιστημονικές” προβλέψεις (ας πούμε, για την κίνηση των φυσικών σωμάτων) χωρίς να κάνουν χρήση εξηγήσεων (που περιλαμβάνουν, ας πούμε, τους νόμους κίνησης του Νεύτωνα και την παγκόσμια έλξη). Αλλά αυτού του είδους η πρόβλεψη, ακόμη και όταν είναι επιτυχής, είναι ψευδοεπιστήμη. Παρότι οι επιστήμονες σίγουρα αναζητούν θεωρίες που έχουν υψηλό βαθμό εμπειρικής επιβεβαίωσης, ωστόσο, όπως σημείωσε ο φιλόσοφος, Καρλ Πόππερ, “δεν αναζητούμε πολύ πιθανές θεωρίες αλλά εξηγήσεις. Δηλαδή ισχυρές και εξαιρετικά απίθανες θεωρίες”.
Η θεωρία ότι τα μήλα πέφτουν στη γη επειδή αυτή είναι η φυσική τους θέση (άποψη του Αριστοτέλη) είναι δυνατή, αλλά προκαλεί μόνο περαιτέρω ερωτήματα. (Γιατί η γη είναι η φυσική τους θέση;) Η θεωρία ότι τα μήλα πέφτουν στη γη επειδή η μάζα κάμπτει τον χωροχρόνο (άποψη του Αϊνστάιν) είναι εξαιρετικά απίθανη, αλλά στην πραγματικότητα μας εξηγεί γιατί πέφτουν. Η αληθινή νοημοσύνη αποδεικνύεται στην ικανότητα σκέψης και έκφρασης απίθανων αλλά διορατικών πραγμάτων.
Η αληθινή νοημοσύνη είναι επίσης ικανή για ηθική σκέψη. Αυτό είναι το να περιορίζουμε την κατά τα άλλα απεριόριστη δημιουργικότητα του μυαλού μας με ένα σύνολο ηθικών αρχών που καθορίζουν τι πρέπει και τι δεν πρέπει να υπάρχει (και φυσικά υποβάλλοντας αυτές τις αρχές σε δημιουργική κριτική). Για να είναι χρήσιμο, το ChatGPT πρέπει να εξουσιοδοτηθεί να παράγει αποτελέσματα με νέο τρόπο. Για να είναι αποδεκτό από τους περισσότερους χρήστες του, πρέπει να αποφεύγει ηθικά απαράδεκτο περιεχόμενο. Αλλά οι προγραμματιστές του ChatGPT και άλλων θαυμάτων μηχανικής μάθησης αγωνίστηκαν -και θα συνεχίσουν να αγωνίζονται- για να επιτύχουν αυτό το είδος ισορροπίας.
Το 2016, για παράδειγμα, το chatbot “Tay” της Microsoft (πρόδρομος του ChatGPT) πλημμύρισε το διαδίκτυο με μισογυνιστικό και ρατσιστικό περιεχόμενο, έχοντας μολυνθεί από διαδικτυακά τρολ που το γέμισαν με προσβλητικά δεδομένα εκπαίδευσης. Πώς μπορεί, λοιπόν, να λυθεί αυτό το πρόβλημα στο μέλλον; Προς το παρόν, το ChatGPT περιορίστηκε πολύ από τους προγραμματιστές του στο να συνεισφέρει οτιδήποτε νέο σε αμφιλεγόμενες -δηλαδή σημαντικές- συζητήσεις. Θυσίασαν τη δημιουργικότητα τους για ένα είδος αμοραλισμού".
Εν ολίγοις, το ChatGPT και τα "αδέρφια" του δεν είναι σε θέση να εξισορροπήσουν τη δημιουργικότητα με τους περιορισμούς. Είτε υπεργεννούν (παράγοντας και αλήθειες και ψεύδη, υποστηρίζοντας ηθικές και ανήθικες αποφάσεις εξίσου) είτε υπογεννούν (δείχνοντας μη δέσμευση σε οποιεσδήποτε αποφάσεις και αδιαφορία για τις συνέπειες). Δεδομένης της ηθικής, της ψεύτικης επιστήμης και της γλωσσικής ανικανότητας αυτών των συστημάτων, δεν μπορούμε παρά να γελάσουμε ή να κλάψουμε με τη δημοτικότητά τους".
Δεν υπάρχουν σχόλια:
Δημοσίευση σχολίου
To μπλόκ " Στοχσμός-Πολιτική" είναι υπεύθυνο μόνο για τα δικά του σχόλια κι όχι για αυτά των αναγνωστών του...Eπίσης δεν υιοθετεί απόψεις από καταγγελίες και σχόλια αναγνωστών καθώς και άρθρα που το περιεχόμενο τους προέρχεται από άλλες σελίδες και αναδημοσιεύονται στον παρόντα ιστότοπο και ως εκ τούτου δεν φέρει οποιασδήποτε φύσεως ευθύνη.