Decisioni morali

Questa area di ricerca (nota con il nome di “Moral Judgment”) si occupa dello studio dei processi decisionali che caratterizzano una particolare forma di decisione, precisamente la decisione morale. Le ricerche nel campo del moral judgment riguardano, infatti, i meccanismi cognitivi e i giudizi riguardanti le “norme” etiche, o in generale le decisioni e i giudizi su fatti che chiamano in causa norme e/o comportamenti socialmente accettati e condivisi che appartengono al dominio della morale. Diventa quindi di rilevante importanza indagare le caratteristiche delle decisioni etiche, il loro essere diverse da altri tipi di decisioni nonché il ruolo che la razionalità e le emozioni rivestono in contesti in cui il decidere tra due alternative è fonte di conflitto morale. In questi ultimi anni un importante contributo alla ricerca è stato fornito dalle neuroscienze che si sono poste il problema di individuare i meccanismi neurali che sottendono la decisone e il giudizio morale.
Ragione ed emozioni. Per molto tempo le ricerche sul moral judgment ed in generale sulla psicologia dell’etica hanno enfatizzato il ruolo della ragione nella formulazione del giudizio morale. Partendo dal modello dello sviluppo morale teorizzato da Piaget (1932), Lawrence Kohlberg propone una spiegazione del giudizio morale che si basa principalmente sul ruolo fondamentale della ragione nella formulazione di quest’ultimo. Secondo il punto di vista di Kohlberg (1973, 1974) la sfera della morale include sentimenti, pensieri ed azioni ma è il ragionamento morale che qualifica le azioni come specificatamente morali. Il ragionamento morale si focalizza sui giudizi normativi prescrivendo ciò che è obbligatorio o giusto fare. I giudizi morali ci dicono cosa dovremmo fare nelle situazioni in cui le proprie richieste o quelle di più persone sono in conflitto tra di loro. In questi casi le persone fanno riferimento a regole e principi normativi, alle conseguenze sul benessere delle persone coinvolte, al bilanciamento delle prospettive e alla ricerca dell’armonia personale e di gruppo. La teoria di Kohlberg sul ragionamento morale descrive lo sviluppo personale del ragionamento deontico, cioè il ragionamento che si focalizza sul problema delle norme e della giustizia (in termini di diritti e doveri), affermando che i problemi universali di questo genere costituiscono il nucleo della moralità. In questo modo Kohlberg si colloca nella tradizione kantiana privilegiando il ragionamento (la ragion pura di Kant), e citando esplicitamente l’imperativo categorico, sostiene che un comportamento è da considerare morale in modo categorico, cioè senza possibilità di smentita, quando è universalizzabile. Nella visione kohlberghiana sono i processi di ragionamento a causare il ragionamento morale e da questo ne consegue il giudizio morale. Secondo quest’ottica le emozioni possono essere degli stimoli per i processi di ragionamento, ma le emozioni morali non sono la diretta causa dei giudizi morali. Nella prospettiva razionalista, quindi, il giudizio è strettamente legato al ragionamento e i giudizi morali sono sempre conseguenza di un ragionamento morale. Questo ragionamento morale può essere influenzato o meno dalle emozioni o dall’emotività, ma non dipende in alcun modo da esse.
Solo recentemente si è dato ampio risalto ed enfasi al ruolo delle emozioni nella formulazione del giudizio morale. Grazie al contributo di autori come Damasio (1994), Pizarro (2000) e Haidt (2001) che per certi versi hanno criticato la concezione razionalista del giudizio morale, si è imposto un filone di analisi che chiama in causa dei modelli che mettono in risalto il ruolo dell’emozione, dell’affettività e dell'intuizione nella formulazione del giudizio morale. Questo approccio che Haidt (2001) chiama socio-intuizionista presuppone che il giudizio morale sia generalmente il risultato di intuizioni automatiche, molto rapide. In questo modello, il “ragionamento” morale non causa il giudizio morale: i ragionamenti morali sono spesso costruzioni a posteriori, generate dopo che un giudizio è stato raggiunto. Haidt adotta il principio della preminenza intuitiva, principio secondo cui la maggior parte delle persone quando si trova in situazioni tali da dovere o potere formulare un giudizio morale, avverte prima una reazione emotiva e poi cerca di giustificarla con argomentazioni di tipo razionale. Sotto questo punto di vista, è la prima intuizione quella su cui si basa il giudizio morale, mentre il ragionamento serve soltanto a cercare di confermare i propri pregiudizi.
I meccanismi neurali del giudizio morale. Una notevole spinta alle ricerche psicologiche sul moral judgment è venuta dalle numerose ricerche in ambito neuro-scientifico le quali hanno messo in luce l’importanza delle emozioni nella formulazione del giudizio morale, e dimostrato che il ragionamento svolge un ruolo sì importante, ma che comunque è circoscritto e non può essere considerato predominante. Mediante l’utilizzo di tecniche di neuro-immagine e servendosi dei tipici dilemmi morali che già Kolhberg utilizzava nelle sue ricerche si è potuto analizzare come questi dilemmi comportino un diverso coinvolgimento emotivo sulle persone, e come questo coinvolgimento emotivo influenzi la formulazione del giudizio morale.
In un recente esperimento, Greene, Sommerville, Nystrom, Darley e Cohen (2001) hanno presentato una serie di dilemmi morali a dei soggetti sottoposti a risonanza magnetica (fMRI). Uno di questi dilemmi è il dilemma del Trolley:
Un vagoncino senza conducente si sta dirigendo verso un gruppo di cinque operai che stanno facendo manutenzione al binario. L’unica cosa che è possibile fare per impedire la morte dei cinque operai è quella di attivare uno scambio che farà deviare il vagoncino verso un altro binario dove c’è un solo operaio che sta lavorando. Azionando lo scambio, dunque, morirebbe solo una persona e si salverebbe la vita alle altre cinque persone.
Alla domanda se sia appropriato azionare lo scambio molti partecipanti all’esperimento rispondono SI.
Prendiamo ora in considerazione un dilemma simile al precedente e che è conosciuto come dilemma del Footbridge:
Come in precedenza, c’è un vagoncino senza conducente che si sta dirigendo verso un gruppo di cinque operai che stanno facendo manutenzione al binario. Vi trovate sopra un ponte pedonale che scavalca la ferrovia. Vicino a voi c’è un uno sconosciuto molto grosso. Il solo modo per impedire che il vagoncino uccida i cinque operai è quello di spingere lo sconosciuto giù dal ponte. Egli sicuramente morirà, ma con il suo corpo potrà fermare la corsa del vagoncino.
Alla domanda se sia appropriato gettare giù dal ponte lo sconosciuto molti partecipanti all’esperimento rispondono NO.
Greene et al. (2001) ritengono che la differenza di risposte ai due dilemmi derivi dal fatto che, mentre nel dilemma del Trolley l’azione che deve essere giudicata è in qualche modo un’azione impersonale in quanto mediata dall’utilizzo di uno strumento (la leva di scambio dei binari) che mi permette di deviare una minaccia che è già esistente (il vagoncino che si sta dirigendo verso le cinque persone), nel dilemma del Footbridge invece, il coinvolgimento del soggetto è molto più diretto e personale in quanto gli viene chiesto di effettuare un atto (spingere lo sconosciuto giù dal ponte) che costituisce in sé stesso una minaccia alla vita della persona. I dati emersi dalla risonanza magnetica hanno evidenziato come nei dilemmi “impersonali” (come il Trolley) le aree del cervello maggiormente coinvolte nella decisione morale siano quelle che tipicamente sono associate alla razionalità e al calcolo, mentre nei dilemmi “personali” (come il Footbridge) le aree del cervello maggiormente coinvolte nella decisione morale sono quelle tipicamente associate alle emozioni. Questo conflitto tra razionalità ed emotività spiega la difficoltà nel dare delle risposte a questioni che hanno a che fare con l’etica e con la morale.
Il contributo delle neuro-scienze allo studio della decisione morale è stato molto rilevante nonostante molti ne abbiano evidenziato alcuni problemi di fondo legati all’artificiosità di alcune situazioni ricreate in laboratorio. Infatti, Casebeer e Churchland (2003) hanno evidenziato come questo tipo di esperimenti siano condotti utilizzando delle situazioni sperimentali che spesso non rappresentano “realmente” una situazione nel mondo e che di conseguenza non sono indicative del vero comportamento “morale” del soggetto. Per questo motivo diventa di fondamentale importanza garantire la validità “ecologica” dell’esperimento in modo da costruire situazioni sperimentali il più possibile vicine a situazioni della vita reale. Non dobbiamo dimenticare, infatti, che nella vita reale le persone interagiscono tra di loro, e di conseguenza i vari giudizi morali sono allo stesso tempo giudizi “sociali” che dipendono dalle interazioni con i giudizi di altri, e che a loro volta interagiscono con il mondo esterno. Le persone sono quindi sensibili alle informazioni contestuali che vengono loro fornite e queste informazioni contribuiscono alla formulazione del loro giudizio morale. Come sosteneva Aristotele, l’uomo è sì un animale razionale ma è anche un animale politico e le interazioni con il mondo esterno e con gli altri sono aspetti importanti che hanno delle profonde ricadute sulla sfera della moralità e che devono essere tenute nella dovuta considerazione quando si intraprende un’analisi sperimentale che vuole far luce sui meccanismi che portano alla formulazione del giudizio morale.
Per maggiori informazioni: andrea.manfrinati@unipd.it
 
Bibliografia di riferimento
Casebeer W.D., Churchland P.S. (2003). The neural mechanisms of moral cognition: A multiple-aspect approach to moral judgment and decision-making. Biology and Philosophy, 18, 169-194.
Cushman F., Young L., Hauser M. (2006). The role of conscious reasoning and intuition in moral judgment. Psychological Sciences, 17, 1082-1089.
Damasio A. (1994). Descartes’ error: Emotions, reason, and the human brain, New York, Putnam. Trad .it. L’errore di Cartesio. Emozione, ragione e cervello umano Milano, Adelphi.
Damasio A. (2007). Neurosciences and ethics: Intersections. The American Journal of Bioethics, 7.
Greene J.D., Sommerville R.B., Nystrom L.E., Darley M.D., Cohen J.D. (2001).  An fMRI investigation of emotional engagement in moral judgment. Science, 239, 2105-2108.
Greene J.D., Haidt J. (2002). How (and where) does moral judgment work? TRENDS in Cognitive Sciences, 6, 517-523.
Greene J.D., Nystrom L.E., Engell A.D., Darley M.D., Cohen J.D. (2004). The neural bases of cognitive conflict and control in moral judgment. Neuron, 44, 389-400.
Haidt J. (2001). The emotional dog and its rational tail: A social intuitionist approach to moral judgment. Psychological Review, 108, 813-834.
Hauser M., Cushman F., Young L., Jin R.K., Mikhail J. (2007). A dissociation between moral judgments and justifications. Mind & Language, 22, 1-21.
Koenigs M., Young L., Adolphs R., Tranel D., Cushman F., Hauser M., Damasio A. (2007). Damage to the prefrontal cortex increases utilitarian moral judgements. Nature, 446, 908-911.
Kohlberg L. (1969). Stage and sequence: The cognitive-developmental approach to socialization. In D.A. Goslin (Ed.) Handbook of socialization theory and research. Chicago, IL, Rand McNally.
Kohlberg L. (1973). The claim to moral adequacy of a highest stage of moral judgment. The Journal of Philosophy, 70, 630-646.
Kohlberg L. (1974). Moralization: The cognitive-developmental approach. New York, Holt, Rinehart & Winston.
Monin B., Pizarro D.A., Beer J.S. (2007). Decidine versus reacting: Conceptions of moral judgment and the reason-affect debate. Review of General Psychology, 11, 99-111.
Piaget J. (1932). The moral judgment of the child. Glencoe, IL, Free Press.
Pizarro D. (2000). Nothing more than feelings? The role of emotions in moral judgment. Journal for the Theory of Social Behavior, 30, 355-375.
Quinn W.S. (1989). Actions, intentions, and consequences: The doctrine of double effect. Philosophy and Pubblic Affairs, 18, 334-351.
Royzman E.B., Baron J. (2002). The preferences for indirect harm. Social Justice Research, 15, 165-184.
Sunstein C.R. (2005). Moral heuristics. Behavioral and Brain Sciences, 28, 531-573.