Το φιλοσοφικό βαγόνι του Harari - Point of view

Breaking

Πέμπτη, 23 Μαΐου 2019

Το φιλοσοφικό βαγόνι του Harari




  Κάποιοι άνθρωποι μπορεί να έφερναν την αντίρρηση ότι οι αλγόριθμοι δεν θα μπορούσαν ποτέ να πάρουν σοβαρές αποφάσεις για λογαριασμό μας, γιατί οι σημαντικές αποφάσεις περιλαμβάνουν συνήθως και μια ηθική διάσταση, και οι αλγόριθμοι δεν κατανοούν την ηθική. Ωστόσο, δεν υπάρχει κάποιος λόγος να υποθέτουμε ότι οι αλγόριθμοι δεν θα μπορέσουν να ξεπεράσουν τον μέσο άνθρωπο ακόμα και στην ηθική.
Ήδη σήμερα, καθώς συσκευές όπως τα έξυπνα κινητά και τα αυτόνομα οχήματα αναλαμβάνουν αποφάσεις που παλιότερα τις μονοπωλούσαν οι άνθρωποι, αρχίζουν να αντιμετωπίζουν ηθικά προβλήματα σαν αυτά που βασανίζουν τους ανθρώπους εδώ και χιλιετίες.
Για παράδειγμα, ας υποθέσουμε ότι δύο παιδιά που κυνηγάνε μια μπάλα πετάγονται μπροστά σε ένα αυτόνομο αυτοκίνητο. Κάνοντας αστραπιαίους υπολογισμούς, ο αλγόριθμος που οδηγεί το αυτοκίνητο καταλήγει στο συμπέρασμα ότι ο μόνος τρόπος να αποφύγει να χτυπήσει τα δύο παιδιά είναι να βγει στο αντίθετο ρεύμα, κινδυνεύοντας να συγκρουστεί με ένα φορτηγό που πλησιάζει. Ο αλγόριθμος υπολογίζει ότι ο ιδιοκτήτης του αυτοκινήτου -που κοιμάται στο πίσω κάθισμα- έχει 70% πιθανότητα να σκοτωθεί. Τι πρέπει να κάνει;
Οι φιλόσοφοι συζητούν για τέτοια «προβλήματα του τραμ» εδώ και χιλιετίες (ονομάζονται προβλήματα του τραμ» γιατί τα τυπικά παραδείγματα στις σύγχρονες φιλοσοφικές συζητήσεις αναφέρονται σε αποκομμένα βαγόνια τραμ που τρέχουν μόνα τους στις ράγες και όχι σε αυτόνομα αυτοκίνητα). Μέχρι τώρα, τα επιχειρήματα αυτά είχαν ενοχλητικά μικρή επίδραση στην πραγματική συμπεριφορά, γιατί σε στιγμές κρίσης οι άνθρωποι πολύ συχνά ξεχνάνε τις φιλοσοφικές απόψεις τους και ακολουθούν τα συναισθήματα και τα ένστικτά τους.
Ένα από τα πιο κακοήθη πειράματα στην ιστορία των κοινωνικών επιστημών πραγματοποιήθηκε τον Δεκέμβριο του 1970 σε μια ομάδα φοιτητών του Θεολογικού Σεμιναρίου του Πρίνστον, οι οποίοι εκπαιδεύονταν για να γίνουν ιερείς στην Πρεσβυτεριανή Εκκλησία. Ζητήθηκε από κάθε φοιτητή να πάει γρήγορα σε μια μακρινή αίθουσα διαλέξεων και να κάνει εκεί μια ομιλία για την παραβολή του Καλού Σαμαρείτη, η οποία λέει για έναν Ισραηλίτη που ενώ πήγαινε από τα Ιεροσόλυμα στην Ιεριχώ ληστεύτηκε και χτυπήθηκε από ληστές, που τον άφησαν στην άκρη του δρόμου να πεθάνει.
Μετά από λίγο πέρασε από εκεί ένας ιερέας κι ένας Λευίτης, αλλά κι οι δύο τον αγνόησαν. Αντίθετα, ένας Σαμαρείτης -μέλος μιας θρησκευτικής ομάδας που οι Ισραηλίτες απεχθάνονταν- σταμάτησε όταν είδε το θύμα, τον φρόντισε και του έσωσε τη ζωή. Το ηθικό δίδαγμα της παραβολής είναι ότι η αξία των ανθρώπων πρέπει να κρίνεται από τη συμπεριφορά τους και όχι από τις θρησκευτικές τους πεποιθήσεις.

Οι πρόθυμοι φοιτητές έσπευσαν προς την αίθουσα διαλέξεων, προσπαθώντας να σκεφτούν στη διαδρομή πώς θα εξηγούσαν καλύτερα την παραβολή του Καλού Σαμαρείτη. Αλλά οι σχεδιαστές του πειράματος είχαν τοποθετήσει στο δρόμο τους ένα άτομο κακοντυμένο που καθόταν ακουμπισμένο σε μια πόρτα με το κεφάλι πεσμένο μπροστά και τα μάτια κλειστά. Καθώς ο κάθε ανυποψίαστος φοιτητής περνούσε βιαστικά μπροστά του, το «θύμα» έβηχε και βογκούσε αξιοθρήνητα. Οι περισσότεροι φοιτητές ούτε που στάθηκαν για να ρωτήσουν τι του συνέβαινε, πόσο μάλλον να τον βοηθήσουν. Η συναισθηματική πίεση που τους δημιουργούσε η υποχρέωση να φτάσουν γρήγορα στην αίθουσα υπερίσχυσε της ηθικής τους υποχρέωσης να βοηθούν τους ξένους που βρίσκονταν σε κίνδυνο.
Τα ανθρώπινα συναισθήματα υπερισχύουν των φιλοσοφικών θεωριών σε αμέτρητες άλλες καταστάσεις. Αυτό καθιστά την ηθική και φιλοσοφική ιστορία του κόσμου μια μάλλον καταθλιπτική ιστορία υπέροχων ιδανικών, και συμπεριφορών κάθε άλλο παρά ιδανικών. Πόσοι χριστιανοί γυρίζουν όντως το άλλο μάγουλο, πόσοι βουδιστές ξεπερνούν πράγματι τις εγωιστικές εμμονές και πόσοι Εβραίοι αγαπούν όντως τον πλησίον τους όσο τον εαυτό τους; Έτσι όμως έχει διαμορφώσει τον χόμο σάπιενς η φυσική επιλογή. Όπως όλα τα θηλαστικά, ο χόμο σάπιενς χρησιμοποιεί τα συναισθήματα για να παίρνει γρήγορα αποφάσεις ζωής και θανάτου. Έχουμε κληρονομήσει την οργή, το φόβο και τη λαγνεία μας από εκατομμύρια προγόνους, που όλοι τους είχαν περάσει τους πιο αυστηρούς ελέγχους ποιότητας της φυσικής επιλογής.
Δυστυχώς, αυτό που ήταν κατάλληλο για την επιβίωση και την αναπαραγωγή στην αφρικανική σαβάνα πριν από ένα εκατομμύριο χρόνια δεν συνιστά κατ’ ανάγκη υπεύθυνη συμπεριφορά στους αυτοκινητόδρομους του 21ου αιώνα. Οι μη συγκεντρωμένοι, θυμωμένοι και αγχωμένοι οδηγοί σκοτώνουν κάθε χρόνο πάνω από ένα εκατομμύριο ανθρώπους σε τροχαία δυστυχήματα. Μπορούμε να στείλουμε όλους μας τους φιλόσοφους, τους προφήτες και τους ιερείς για να διδάξουν ηθική στους οδηγούς αυτούς – αλλά στο δρόμο, τα ένστικτα του θηλαστικού και της σαβάνας θα υπερισχύσουν. Συνεπώς, οι βιαστικοί φοιτητές θα αγνοούν τους ανθρώπους που βρίσκονται σε κίνδυνο και οι οδηγοί που βρίσκονται σε κρίση θα πατάνε άτυχους πεζούς.
Η ασυνέπεια ανάμεσα στο σεμινάριο και το δρόμο είναι ένα από τα μεγαλύτερα πρακτικά προβλήματα της ηθικής. Ο Ιμάνουελ Καντ, ο Τζον Στιούαρτ Μιλ και ο Τζον Ρολς μπορεί να κάθονται και να συζητούν θεωρητικά προβλήματα της ηθικής για μέρες σε κάποια άνετη πανεπιστημιακή αίθουσα – αλλά θα εφαρμοστούν, άραγε, τα συμπεράσματά τους από κάποιον στρεσαρισμένο οδηγό στα κλάσματα δευτερολέπτου μιας έκτακτης κατάστασης; Ίσως ο Μίκαελ Σουμάχερ -ο πρωταθλητής της Φόρμουλα 1 που θεωρείται από κάποιους ο καλύτερος οδηγός στην ιστορία- να είχε την ικανότητα να σκέφτεται τη φιλοσοφία ενώ οδηγούσε ένα αυτοκίνητο· αλλά οι περισσότεροι δεν είμαστε Σουμάχερ.
Οι αλγόριθμοι των υπολογιστών, ωστόσο, δεν έχουν διαμορφωθεί από τη φυσική επιλογή και δεν έχουν ούτε συναισθήματα ούτε ένστικτα. Επομένως, σε στιγμές κρίσης θα μπορούσαν να ακολουθήσουν ηθικές οδηγίες πολύ καλύτερα απ’ ό,τι οι άνθρωποι – αρκεί να βρούμε τον τρόπο να κωδικοποιήσουμε την ηθική με ακριβείς αριθμούς και στατιστικές. Αν μάθουμε στον Καντ, τον Μιλ και τον Ρολς να γράφουν κώδικα, θα μπορούσαν να προγραμματίσουν προσεκτικά το αυτόνομο αυτοκίνητο στο άνετο εργαστήριό τους και να είναι σίγουροι ότι το αυτοκίνητο θα ακολουθήσει τις εντολές τους στον αυτοκινητόδρομο. Στην πράξη, κάθε αυτοκίνητο θα είχε για οδηγό τον Σουμάχερ και τον Καντ μαζί.
Έτσι, αν προγραμματίσουμε ένα αυτόνομο αυτοκίνητο να σταματάει και να βοηθάει αγνώστους σε κίνδυνο, θα το κάνει ο κόσμος να χαλάσει (εκτός βέβαια αν βάλετε κάποια ρήτρα εξαίρεσης για περιπτώσεις που χαλάει ο κόσμος). Με τον ίδιο τρόπο, αν το αυτόνομο αυτοκίνητο είναι προγραμματισμένο να βγει στο αντίθετο ρεύμα για να σώσει τα δύο παιδιά που βρέθηκαν στο δρόμο του, μπορείτε να είστε απόλυτα σίγουροι ότι θα κάνει ακριβώς αυτό. Πράγμα που σημαίνει πως όταν η Τογιότα ή η Τέσλα θα σχεδιάζουν το αυτόνομο αυτοκίνητό τους, θα μετατρέπουν ένα θεωρητικό πρόβλημα της ηθικής φιλοσοφίας σε πρακτικό πρόβλημα μηχανικής.
Βέβαια, οι φιλοσοφικοί αλγόριθμοι ποτέ δεν θα είναι τέλειοι. Θα γίνονται λάθη, που θα οδηγούν σε τραυματισμούς, θανάτους και απίστευτα περίπλοκες μηνύσεις. (Για πρώτη φορά στην ιστορία θα είστε σε θέση να μηνύσετε έναν φιλόσοφο για το ατυχές αποτέλεσμα των θεωριών του, γιατί για πρώτη φορά στην ιστορία θα μπορείτε να αποδείξετε την ύπαρξη αιτιακής σχέσης ανάμεσα σε φιλοσοφικές ιδέες και πραγματικά γεγονότα). Ωστόσο, οι αλγόριθμοι δεν χρειάζεται να είναι τέλειοι για να πάρουν τη θέση των ανθρώπων-οδηγών. Αρκεί να τα καταφέρνουν καλύτερα απ’ αυτούς. Δεδομένου ότι οι άνθρωποι-οδηγοί σκοτώνουν πάνω από ένα εκατομμύριο άτομα κάθε χρόνο, δεν θα είναι και τόσο δύσκολο. Στο κάτω κάτω, ποιος θα προτιμούσατε να οδηγεί το αμάξι δίπλα σας; Ένας μεθυσμένος έφηβος ή η ομάδα Σουμάχερ-Καντ;
Η ίδια λογική δεν ισχύει μόνο για την οδήγηση, αλλά και για πολλές ακόμα καταστάσεις. Για παράδειγμα, για τις αιτήσεις εργασίας. Στον 21ο αιώνα, η απόφαση αν θα προσληφθεί κάποιος ή όχι σε μια δουλειά θα λαμβάνεται ολοένα και περισσότερο από αλγόριθμους. Δεν μπορούμε να βασιστούμε σε μια μηχανή για να θέσει τους ηθικούς κανόνες – αυτό θα πρέπει ακόμα να το κάνουν άνθρωποι. Αλλά όταν θα έχει αποφασιστεί το ηθικό πρότυπο που θα ισχύει στην αγορά εργασίας -για παράδειγμα, ότι είναι λάθος να γίνονται διακρίσεις εις βάρος των μαύρων ατόμων ή των γυναικών-, θα μπορούμε να είμαστε σίγουροι ότι οι μηχανές θα εφαρμόζουν και θα τηρούν τον κανόνα αυτό καλύτερα απ’ ό,τι οι άνθρωποι.
Ένας διευθυντής μπορεί να γνωρίζει κι ακόμα να συμφωνεί ότι είναι ανήθικο να γίνονται διακρίσεις κατά των μαύρων και των γυναικών, αλλά όταν μια μαύρη γυναίκα υποβάλλει αίτηση για μια θέση, ο διευθυντής κάνει υποσυνείδητα τη διάκριση και αποφασίζει να μην την προσλάβει. Αν αφήσουμε έναν υπολογιστή να αξιολογεί τις αιτήσεις για δουλειά και τον προγραμματίσουμε να αγνοεί εντελώς τη φυλετική καταγωγή και το φύλο, μπορούμε να είμαστε σίγουροι ότι ο υπολογιστής όντως θα αγνοεί αυτούς τους παράγοντες, επειδή οι υπολογιστές δεν έχουν υποσυνείδητο. Φυσικά, δεν θα είναι εύκολο να γραφτεί κώδικας για την αξιολόγηση αιτήσεων εργασίας και υπάρχει πάντα ο κίνδυνος να περάσουν οι σχεδιαστές τις υποσυνείδητες προκαταλήψεις τους στο λογισμικό. Ωστόσο, όταν ανακαλύψουμε αυτά τα λάθη, θα είναι μάλλον πολύ ευκολότερο να διορθώσουμε το λογισμικό απ’ ό,τι να απαλλάξουμε τους ανθρώπους από τις ρατσιστικές και μισογυνικές τους προκαταλήψεις.
Είδαμε ότι η διάδοση της τεχνητής νοημοσύνης μπορεί να αποβάλει τους περισσότερους ανθρώπους από την αγορά εργασίας – όπως τους οδηγούς και τους τροχονόμους (όταν οι ταραξίες άνθρωποι θα έχουν αντικατασταθεί από υπάκουους αλγόριθμους, η Τροχαία θα είναι πια περιττή). Ωστόσο, μπορεί να υπάρχουν νέες ευκαιρίες για τους φιλόσοφους, γιατί οι γνώσεις τους -που δεν είχαν ως τώρα καμία αξία στην αγορά εργασίας- θα είναι ξαφνικά περιζήτητες. Έτσι, αν θέλετε να σπουδάσετε κάτι που θα σας εξασφαλίσει μια δουλειά στο μέλλον, ίσως η φιλοσοφία να μην είναι τόσο κακή ιδέα.
Φυσικά, οι φιλόσοφοι σπάνια συμφωνούν μεταξύ τους για τον καλύτερο τρόπο δράσης. Ελάχιστα «προβλήματα του τραμ» έχουν επιλυθεί με τρόπο που να αφήνει όλους τους φιλόσοφους ευχαριστημένους, και οι στοχαστές της συνεπειοκρατίας όπως ο Τζον Στιούαρτ Μιλ (που κρίνουν τις πράξεις ανάλογα με τις συνέπειές τους) έχουν πολύ διαφορετικές απόψεις από τους δεοντολόγους όπως ο Ιμάνουελ Καντ (που κρίνουν τις πράξεις με βάση απόλυτους κανόνες). Θα πρέπει η Τέσλα να πάρει θέση σε τόσο ακανθώδη ζητήματα για να κατασκευάσει ένα αυτοκίνητο;
Λοιπόν, ίσως η Τέσλα πρέπει να το αφήσει στην αγορά. Η Τέσλα θα κατασκευάσει δύο μοντέλα του αυτόνομου αυτοκινήτου: το Τέσλα Άλτρουιστ και το Τέσλα Έγκοϊστ. Σε μια κατάσταση έκτακτης ανάγκης, το Άλτρουιστ θα θυσιάζει τον ιδιοκτήτη του για το γενικό καλό, ενώ το Έγκοϊστ θα κάνει ό,τι μπορεί για να σώσει τον ιδιοκτήτη του, ακόμα κι αν αυτό σημαίνει να σκοτώσει τα δύο παιδιά. Έτσι, οι πελάτες θα μπορούν να αγοράσουν το αυτοκίνητο που ταιριάζει καλύτερα στη φιλοσοφική τους άποψη. Αν πουλιούνται περισσότερα Έγκοϊστ, δεν θα μπορείτε να κατηγορήσετε γι’ αυτό την Τέσλα. Στο κάτω κάτω, ο πελάτης έχει πάντα δίκιο.
Δεν πρόκειται για πλάκα. Σε μια πρωτοποριακή μελέτη που έγινε το 2015, παρουσιάστηκε σε κάποιους ανθρώπους το υποθετικό σενάριο ενός αυτόνομου αυτοκινήτου που είναι έτοιμο να χτυπήσει αρκετούς πεζούς. Οι περισσότεροι είπαν ότι, σε μια τέτοια περίπτωση, το αυτοκίνητο θα πρέπει να σώσει τους πεζούς ακόμα και με τίμημα να σκοτωθεί ο ιδιοκτήτης του. Όταν ρωτήθηκαν αν θα αγόραζαν οι ίδιοι προσωπικά ένα αυτοκίνητο προγραμματισμένο να θυσιάσει τον ιδιοκτήτη του για το γενικό καλό, οι περισσότεροι απάντησαν «όχι». Για τον εαυτό τους θα προτιμούσαν το Τέσλα Έγκοϊστ.
Φανταστείτε την κατάσταση: έχετε αγοράσει καινούργιο αυτοκίνητο, πριν όμως αρχίσετε να το χρησιμοποιείτε, πρέπει να ανοίξετε το μενού με τις ρυθμίσεις και να επιλέξετε διάφορα κουτάκια. Σε περίπτωση ατυχήματος, θέλετε το αυτοκίνητο να θυσιάσει τη ζωή σας ή να σκοτώσει την οικογένεια στο απέναντι αυτοκίνητο; Θέλετε, άραγε, έστω και να κάνετε αυτή την επιλογή; Σκεφτείτε μόνο τους καβγάδες που θα κάνετε με τον/τη σύζυγό σας για το κουτάκι που θα διαλέξετε.
Μήπως, λοιπόν, θα έπρεπε να παρέμβει το κράτος και να ρυθμίσει την αγορά θέτοντας έναν ηθικό κώδικα που θα δεσμεύει όλα τα αυτόνομα αυτοκίνητα; Κάποιοι νομοθέτες σίγουρα θα ενθουσιαστούν που θα μπορούν, επιτέλους, να φτιάξουν νόμους οι οποίοι θα τηρούνται πάντα κατά γράμμα. Άλλοι μπορεί να θορυβηθούν μπροστά σε μια τόσο πρωτοφανή και ολοκληρωτική ευθύνη.
Σε τελική ανάλυση, σε όλη την ιστορία οι περιορισμοί στη δυνατότητα επιβολής του νόμου πρόσφεραν μια καλοδεχούμενη συγκράτηση στις προκαταλήψεις, τα σφάλματα και τις υπερβολές των νομοθετών. Ήταν μεγάλο ευτύχημα που οι νόμοι κατά της ομοφυλοφιλίας και της βλασφημίας εφαρμόζονταν μόνο εν μέρει. Θέλουμε, άραγε, στ’ αλήθεια ένα σύστημα στο οποίο οι αποφάσεις μη αλάνθαστων πολιτικών θα έχουν γίνει τόσο απόλυτες όσο η βαρύτητα;

***

Επιλεγμένα αποσπάσματα από το βιβλίο του Yuval Noah Harari “21 μαθήματα για τον 21ο αιώνα” εκδόσεις Αλεξάνδρεια

Σελίδες