Τι μπορεί να μας πει ένας Σκωτσέζος φιλόσοφος του 18ου αιώνα για τους θεμελιώδεις περιορισμούς του στην εποχή μας της ολοένα και πιο εξελιγμένης τεχνητής νοημοσύνης; Η ανάλυση του David Hume για το πώς αποκτούμε γνώση μέσω της εμπειρίας και όχι της καθαρής λογικής προσφέρει έναν ενδιαφέροντα παραλληλισμό με το πώς τα σύγχρονα συστήματα AI μαθαίνουν από δεδομένα και όχι από ρητούς κανόνες.
Στο πρωτοποριακό του έργο Πραγματεία για την ανθρώπινη φύσηΟ Χιουμ υποστήριξε ότι «όλη η γνώση εκφυλίζεται σε πιθανότητες». Αυτή η δήλωση, επαναστατική για την εποχή της, αμφισβήτησε το κυρίαρχο καρτεσιανό παράδειγμα ότι ορισμένη γνώση μπορούσε να επιτευχθεί μέσω της καθαρής λογικής. Ο εμπειρισμός του Hume προχώρησε περισσότερο από τους συγχρόνους του, τονίζοντας πώς η γνώση μας για τα γεγονότα (σε αντίθεση με τις σχέσεις ιδεών, όπως τα μαθηματικά) εξαρτάται από την εμπειρία.
Αυτή η άποψη παρέχει έναν παραλληλισμό με τη φύση της σύγχρονης τεχνητής νοημοσύνης, ιδιαίτερα των μεγάλων γλωσσικών μοντέλων και των συστημάτων βαθιάς μάθησης. Εξετάστε το φαινόμενο των «παραισθήσεων» με τεχνητή νοημοσύνη – περιπτώσεις όπου τα μοντέλα παράγουν αξιόπιστες αλλά ανακριβείς πληροφορίες. Αυτά δεν είναι απλές τεχνικές δυσλειτουργίες, αλλά αντικατοπτρίζουν μια θεμελιώδη πτυχή του τρόπου με τον οποίο τα νευρωνικά δίκτυα, όπως η ανθρώπινη γνώση, λειτουργούν με πιθανολογικές και όχι ντετερμινιστικές αρχές. Όταν το GPT-4 ή ο Claude δημιουργούν κείμενο, δεν έχουν πρόσβαση σε μια βάση δεδομένων με συγκεκριμένα γεγονότα, αλλά επιλέγουν ένα δείγμα από κατανομές πιθανοτήτων που προέρχονται από τα δεδομένα εκπαίδευσής τους.
Αυτός ο παραλληλισμός γίνεται βαθύτερος όταν μελετάμε την αρχιτεκτονική των σύγχρονων συστημάτων τεχνητής νοημοσύνης. Τα νευρωνικά δίκτυα μαθαίνουν προσαρμόζοντας βάρη και προκαταλήψεις με βάση στατιστικά μοτίβα στα δεδομένα εκπαίδευσης, δημιουργώντας ουσιαστικά ένα πιθανολογικό μοντέλο των σχέσεων μεταξύ εισροών και εκροών. Αυτό έχει ορισμένους παραλληλισμούς με την αφήγηση του Hume για το πώς οι άνθρωποι μαθαίνουν για την αιτία και το αποτέλεσμα μέσω επαναλαμβανόμενης εμπειρίας και όχι μέσω λογικής εξαγωγής, αν και οι συγκεκριμένοι μηχανισμοί ποικίλλουν ευρέως.
Αυτές οι φιλοσοφικές ιδέες έχουν πρακτικές συνέπειες για την ανάπτυξη και την εφαρμογή της τεχνητής νοημοσύνης. Καθώς αυτά τα συστήματα ενσωματώνονται ολοένα και περισσότερο σε τομείς κρίσιμους για την αποστολή – από την ιατρική διάγνωση έως τη λήψη οικονομικών αποφάσεων – η κατανόηση της πιθανολογικής φύσης τους γίνεται κρίσιμη. Ακριβώς όπως ο Hume προειδοποίησε ενάντια στην υπερεκτίμηση της βεβαιότητας της ανθρώπινης γνώσης, θα πρέπει να είμαστε επιφυλακτικοί για να αποδώσουμε ένα ακατάλληλο επίπεδο βεβαιότητας στα αποτελέσματα της τεχνητής νοημοσύνης.
Η τρέχουσα έρευνα για τη συνέπεια και την ασφάλεια της τεχνητής νοημοσύνης αντικατοπτρίζει αυτές τις ανθρωπιστικές σκέψεις. Οι προσπάθειες για την ανάπτυξη μεθόδων για τον ποσοτικό προσδιορισμό της αβεβαιότητας για τα νευρωνικά δίκτυα, επιτρέποντας στα συστήματα να εκφράζουν τον βαθμό εμπιστοσύνης στα αποτελέσματα τους, συνάδουν με την ανάλυση των πιθανοτήτων του Hume και την έμφαση που δίνει στον ρόλο της εμπειρίας στη διαμόρφωση των πεποιθήσεων. Η εργασία για την ερμηνευτικότητα της τεχνητής νοημοσύνης στοχεύει στην κατανόηση του τρόπου με τον οποίο τα νευρωνικά δίκτυα επιτυγχάνουν τα αποτελέσματά τους μελετώντας τους εσωτερικούς τους μηχανισμούς και τον αντίκτυπό τους στη μάθηση.
Το πρόβλημα της γενίκευσης στα συστήματα τεχνητής νοημοσύνης (που έχουν καλή απόδοση σε δεδομένα εκπαίδευσης αλλά αποτυγχάνουν σε νέες καταστάσεις) θυμίζει το περίφημο πρόβλημα επαγωγής του Hume. Ακριβώς όπως ο Hume αμφισβήτησε το σκεπτικό μας για την επέκταση των προηγούμενων μοντέλων σε μελλοντικές προβλέψεις, οι ερευνητές της τεχνητής νοημοσύνης προσπαθούν να εξασφαλίσουν αξιόπιστη γενίκευση πέρα από τις διανομές εκπαίδευσης. Η ανάπτυξη της σταδιακής μάθησης (όπου τα συστήματα τεχνητής νοημοσύνης μαθαίνουν από ελάχιστα παραδείγματα) και η μάθηση μεταφοράς (όπου η γνώση από τη μια εργασία εφαρμόζεται σε μια άλλη) αντιπροσωπεύουν τεχνικές προσεγγίσεις σε αυτό το βασικό πρόβλημα γενίκευσης. Ενώ ο Hume εντόπισε το λογικό πρόβλημα της αιτιολόγησης του επαγωγικού συλλογισμού, οι ερευνητές της τεχνητής νοημοσύνης αντιμετωπίζουν το συγκεκριμένο μηχανικό πρόβλημα της δημιουργίας συστημάτων που μπορούν αξιόπιστα να γενικεύσουν πέρα από τα εκπαιδευτικά τους δεδομένα.
Ο σκεπτικισμός του Hume σχετικά με την αιτιότητα και η ανάλυσή του για τα όρια της ανθρώπινης γνώσης παραμένουν σχετικοί κατά την ανάλυση των δυνατοτήτων της τεχνητής νοημοσύνης. Ενώ τα μεγάλα γλωσσικά μοντέλα μπορούν να παράγουν σύνθετα αποτελέσματα που φαίνεται να καταδεικνύουν κατανόηση, στον πυρήνα τους είναι συστήματα αντιστοίχισης προτύπων που εκπαιδεύονται σε κείμενο και τροφοδοτούνται από στατιστικές συσχετίσεις και όχι από αιτιολογική κατανόηση. Αυτό είναι σύμφωνο με τη διορατικότητα του Hume ότι ακόμη και η ανθρώπινη γνώση της αιτίας και του αποτελέσματος βασίζεται σε παρατηρήσιμα μοτίβα.
Καθώς συνεχίζουμε να αναπτύσσουμε τις δυνατότητες της τεχνητής νοημοσύνης, η φιλοσοφική ιδέα του Hume παραμένει σχετική. Αυτό μας υπενθυμίζει να είμαστε δύσπιστοι σχετικά με τις πληροφορίες που παράγονται από την τεχνητή νοημοσύνη και να σχεδιάζουμε συστήματα που αναγνωρίζουν την πιθανολογική τους βάση. Υποδηλώνει επίσης ότι μπορεί σύντομα να πλησιάσουμε τα όρια της τεχνητής νοημοσύνης, παρόλο που επενδύουμε περισσότερα χρήματα και ενέργεια στα μοντέλα. Η νοημοσύνη, όπως την καταλαβαίνουμε, μπορεί να έχει όρια. Το σύνολο δεδομένων που μπορούμε να παρέχουμε στους LLMs, εάν περιοριστεί σε χειρόγραφο κείμενο, θα εξαντληθεί γρήγορα. Αυτό μπορεί να φαίνεται καλό νέο εάν το κύριο μέλημά σας είναι η υπαρξιακή απειλή που θέτει η τεχνητή νοημοσύνη. Ωστόσο, αν αναμένετε ότι η τεχνητή νοημοσύνη θα οδηγήσει στην οικονομική πρόοδο για τις επόμενες δεκαετίες, ίσως είναι χρήσιμο να εξετάσετε το 18ουΦιλόσοφος του 20ου αιώνα. Η ανάλυση του Hume για την ανθρώπινη γνώση και την εξάρτησή της από την εμπειρία και όχι από την καθαρή λογική μπορεί να μας βοηθήσει να σκεφτούμε τους εγγενείς περιορισμούς της τεχνητής νοημοσύνης.
Σχετικοί σύνδεσμοι
Το άρθρο μου σχετικά με τις παραισθήσεις – https://journals.sagepub.com/doi/10.1177/05694345231218454
Ο Ρας Ρόμπερτς για την τεχνητή νοημοσύνη – https://www.econtalk.org/eliezer-yudkowsky-on-the-dangers-of-ai/
Cowen on Dwarkesh – https://www.dwarkeshpatel.com/p/tyler-cowen-3
Ιστολόγιο του Liberty Fund σχετικά με την τεχνητή νοημοσύνη
Ο Joy Buchanan είναι επίκουρος καθηγητής ποσοτικής ανάλυσης και οικονομικών στο Brock School of Business στο Πανεπιστήμιο Samford. Είναι επίσης συχνά συνεργάτης της αδελφής μας τοποθεσίας AdamSmithWorks.
Τι μπορεί να μας πει ένας Σκωτσέζος φιλόσοφος του 18ου αιώνα για τους θεμελιώδεις περιορισμούς του στην εποχή μας της ολοένα και πιο εξελιγμένης τεχνητής νοημοσύνης; Η ανάλυση του David Hume για το πώς αποκτούμε γνώση μέσω της εμπειρίας και όχι της καθαρής λογικής προσφέρει έναν ενδιαφέροντα παραλληλισμό με το πώς τα σύγχρονα συστήματα AI μαθαίνουν από δεδομένα και όχι από ρητούς κανόνες.
Στο πρωτοποριακό του έργο Πραγματεία για την ανθρώπινη φύσηΟ Χιουμ υποστήριξε ότι «όλη η γνώση εκφυλίζεται σε πιθανότητες». Αυτή η δήλωση, επαναστατική για την εποχή της, αμφισβήτησε το κυρίαρχο καρτεσιανό παράδειγμα ότι ορισμένη γνώση μπορούσε να επιτευχθεί μέσω της καθαρής λογικής. Ο εμπειρισμός του Hume προχώρησε περισσότερο από τους συγχρόνους του, τονίζοντας πώς η γνώση μας για τα γεγονότα (σε αντίθεση με τις σχέσεις ιδεών, όπως τα μαθηματικά) εξαρτάται από την εμπειρία.
Αυτή η άποψη παρέχει έναν παραλληλισμό με τη φύση της σύγχρονης τεχνητής νοημοσύνης, ιδιαίτερα των μεγάλων γλωσσικών μοντέλων και των συστημάτων βαθιάς μάθησης. Εξετάστε το φαινόμενο των «παραισθήσεων» με τεχνητή νοημοσύνη – περιπτώσεις όπου τα μοντέλα παράγουν αξιόπιστες αλλά ανακριβείς πληροφορίες. Αυτά δεν είναι απλές τεχνικές δυσλειτουργίες, αλλά αντικατοπτρίζουν μια θεμελιώδη πτυχή του τρόπου με τον οποίο τα νευρωνικά δίκτυα, όπως η ανθρώπινη γνώση, λειτουργούν με πιθανολογικές και όχι ντετερμινιστικές αρχές. Όταν το GPT-4 ή ο Claude δημιουργούν κείμενο, δεν έχουν πρόσβαση σε μια βάση δεδομένων με συγκεκριμένα γεγονότα, αλλά επιλέγουν ένα δείγμα από κατανομές πιθανοτήτων που προέρχονται από τα δεδομένα εκπαίδευσής τους.
Αυτός ο παραλληλισμός γίνεται βαθύτερος όταν μελετάμε την αρχιτεκτονική των σύγχρονων συστημάτων τεχνητής νοημοσύνης. Τα νευρωνικά δίκτυα μαθαίνουν προσαρμόζοντας βάρη και προκαταλήψεις με βάση στατιστικά μοτίβα στα δεδομένα εκπαίδευσης, δημιουργώντας ουσιαστικά ένα πιθανολογικό μοντέλο των σχέσεων μεταξύ εισροών και εκροών. Αυτό έχει ορισμένους παραλληλισμούς με την αφήγηση του Hume για το πώς οι άνθρωποι μαθαίνουν για την αιτία και το αποτέλεσμα μέσω επαναλαμβανόμενης εμπειρίας και όχι μέσω λογικής εξαγωγής, αν και οι συγκεκριμένοι μηχανισμοί ποικίλλουν ευρέως.
Αυτές οι φιλοσοφικές ιδέες έχουν πρακτικές συνέπειες για την ανάπτυξη και την εφαρμογή της τεχνητής νοημοσύνης. Καθώς αυτά τα συστήματα ενσωματώνονται ολοένα και περισσότερο σε τομείς κρίσιμους για την αποστολή – από την ιατρική διάγνωση έως τη λήψη οικονομικών αποφάσεων – η κατανόηση της πιθανολογικής φύσης τους γίνεται κρίσιμη. Ακριβώς όπως ο Hume προειδοποίησε ενάντια στην υπερεκτίμηση της βεβαιότητας της ανθρώπινης γνώσης, θα πρέπει να είμαστε επιφυλακτικοί για να αποδώσουμε ένα ακατάλληλο επίπεδο βεβαιότητας στα αποτελέσματα της τεχνητής νοημοσύνης.
Η τρέχουσα έρευνα για τη συνέπεια και την ασφάλεια της τεχνητής νοημοσύνης αντικατοπτρίζει αυτές τις ανθρωπιστικές σκέψεις. Οι προσπάθειες για την ανάπτυξη μεθόδων για τον ποσοτικό προσδιορισμό της αβεβαιότητας για τα νευρωνικά δίκτυα, επιτρέποντας στα συστήματα να εκφράζουν τον βαθμό εμπιστοσύνης στα αποτελέσματα τους, συνάδουν με την ανάλυση των πιθανοτήτων του Hume και την έμφαση που δίνει στον ρόλο της εμπειρίας στη διαμόρφωση των πεποιθήσεων. Η εργασία για την ερμηνευτικότητα της τεχνητής νοημοσύνης στοχεύει στην κατανόηση του τρόπου με τον οποίο τα νευρωνικά δίκτυα επιτυγχάνουν τα αποτελέσματά τους μελετώντας τους εσωτερικούς τους μηχανισμούς και τον αντίκτυπό τους στη μάθηση.
Το πρόβλημα της γενίκευσης στα συστήματα τεχνητής νοημοσύνης (που έχουν καλή απόδοση σε δεδομένα εκπαίδευσης αλλά αποτυγχάνουν σε νέες καταστάσεις) θυμίζει το περίφημο πρόβλημα επαγωγής του Hume. Ακριβώς όπως ο Hume αμφισβήτησε το σκεπτικό μας για την επέκταση των προηγούμενων μοντέλων σε μελλοντικές προβλέψεις, οι ερευνητές της τεχνητής νοημοσύνης προσπαθούν να εξασφαλίσουν αξιόπιστη γενίκευση πέρα από τις διανομές εκπαίδευσης. Η ανάπτυξη της σταδιακής μάθησης (όπου τα συστήματα τεχνητής νοημοσύνης μαθαίνουν από ελάχιστα παραδείγματα) και η μάθηση μεταφοράς (όπου η γνώση από τη μια εργασία εφαρμόζεται σε μια άλλη) αντιπροσωπεύουν τεχνικές προσεγγίσεις σε αυτό το βασικό πρόβλημα γενίκευσης. Ενώ ο Hume εντόπισε το λογικό πρόβλημα της αιτιολόγησης του επαγωγικού συλλογισμού, οι ερευνητές της τεχνητής νοημοσύνης αντιμετωπίζουν το συγκεκριμένο μηχανικό πρόβλημα της δημιουργίας συστημάτων που μπορούν αξιόπιστα να γενικεύσουν πέρα από τα εκπαιδευτικά τους δεδομένα.
Ο σκεπτικισμός του Hume σχετικά με την αιτιότητα και η ανάλυσή του για τα όρια της ανθρώπινης γνώσης παραμένουν σχετικοί κατά την ανάλυση των δυνατοτήτων της τεχνητής νοημοσύνης. Ενώ τα μεγάλα γλωσσικά μοντέλα μπορούν να παράγουν σύνθετα αποτελέσματα που φαίνεται να καταδεικνύουν κατανόηση, στον πυρήνα τους είναι συστήματα αντιστοίχισης προτύπων που εκπαιδεύονται σε κείμενο και τροφοδοτούνται από στατιστικές συσχετίσεις και όχι από αιτιολογική κατανόηση. Αυτό είναι σύμφωνο με τη διορατικότητα του Hume ότι ακόμη και η ανθρώπινη γνώση της αιτίας και του αποτελέσματος βασίζεται σε παρατηρήσιμα μοτίβα.
Καθώς συνεχίζουμε να αναπτύσσουμε τις δυνατότητες της τεχνητής νοημοσύνης, η φιλοσοφική ιδέα του Hume παραμένει σχετική. Αυτό μας υπενθυμίζει να είμαστε δύσπιστοι σχετικά με τις πληροφορίες που παράγονται από την τεχνητή νοημοσύνη και να σχεδιάζουμε συστήματα που αναγνωρίζουν την πιθανολογική τους βάση. Υποδηλώνει επίσης ότι μπορεί σύντομα να πλησιάσουμε τα όρια της τεχνητής νοημοσύνης, παρόλο που επενδύουμε περισσότερα χρήματα και ενέργεια στα μοντέλα. Η νοημοσύνη, όπως την καταλαβαίνουμε, μπορεί να έχει όρια. Το σύνολο δεδομένων που μπορούμε να παρέχουμε στους LLMs, εάν περιοριστεί σε χειρόγραφο κείμενο, θα εξαντληθεί γρήγορα. Αυτό μπορεί να φαίνεται καλό νέο εάν το κύριο μέλημά σας είναι η υπαρξιακή απειλή που θέτει η τεχνητή νοημοσύνη. Ωστόσο, αν αναμένετε ότι η τεχνητή νοημοσύνη θα οδηγήσει στην οικονομική πρόοδο για τις επόμενες δεκαετίες, ίσως είναι χρήσιμο να εξετάσετε το 18ουΦιλόσοφος του 20ου αιώνα. Η ανάλυση του Hume για την ανθρώπινη γνώση και την εξάρτησή της από την εμπειρία και όχι από την καθαρή λογική μπορεί να μας βοηθήσει να σκεφτούμε τους εγγενείς περιορισμούς της τεχνητής νοημοσύνης.
Σχετικοί σύνδεσμοι
Το άρθρο μου σχετικά με τις παραισθήσεις – https://journals.sagepub.com/doi/10.1177/05694345231218454
Ο Ρας Ρόμπερτς για την τεχνητή νοημοσύνη – https://www.econtalk.org/eliezer-yudkowsky-on-the-dangers-of-ai/
Cowen on Dwarkesh – https://www.dwarkeshpatel.com/p/tyler-cowen-3
Ιστολόγιο του Liberty Fund σχετικά με την τεχνητή νοημοσύνη
Ο Joy Buchanan είναι επίκουρος καθηγητής ποσοτικής ανάλυσης και οικονομικών στο Brock School of Business στο Πανεπιστήμιο Samford. Είναι επίσης συχνά συνεργάτης της αδελφής μας τοποθεσίας AdamSmithWorks.