Per ogni decisione da prendere ci vuole una buona dose di coraggio. Perché una scelta implica sempre una componente etica, a volte complessa
C’è un dilemma che tiene impegnati i filosofi dell’etica da oltre cinquant’anni: il cosiddetto problema del carrello. È un esperimento mentale, ovvero una situazione immaginaria creata appositamente per farci riflettere sui valori che indirizzano le nostre decisioni. È stata una filosofa inglese, Philippa Foot, a formularlo, ma molti altri si sono cimentati con questo problema che ci costringe a fare i conti con le nostre intuizioni morali e i loro limiti.
L’esperimento mentale è questo. Immaginate che ci sia un carrello ferroviario (una locomotiva, ad esempio) lanciato a tutta velocità. Sul binario, a poche centinaia di metri, ci sono cinque persone legate, che dunque non possono fuggire in nessun modo. C’è una leva davanti a voi che può deviare la corsa della locomotiva su un altro binario, su cui però è legata un’altra persona. Se azionate la leva, le cinque persone si salveranno, ma la persona sul secondo binario morirà. Se non intervenite, la sorte delle cinque persone sul binario principale sarà segnata. Cosa fate?
Le due possibilità implicano due visioni diverse dell’etica. Se decidete per la prima opzione, ovvero di intervenire, allora siete dei consequenzialisti, cioè pensate che la moralità di una scelta si valuti in base alle sue conseguenze. Pensate che intervenire causando la morte di qualcuno sia moralmente accettabile se permette di salvare un numero maggiore di persone. Se propendete per la seconda opzione, ovvero lasciate fare al destino il proprio corso, avete quello che viene definito un approccio deontologico: pensate che ci siano principi morali che si applicano in qualunque circostanza. Cioè, non credete ci siano situazioni in cui è giusto, o perlomeno moralmente accettabile, causare la morte di qualcuno, neanche per salvare altre persone.
Il problema del carrello non ha risposte giuste o sbagliate, anche perché agli scenari immaginari manca l’imprevedibilità che hanno le situazioni reali. Nella vita di tutti i giorni, non siamo mai perfettamente in grado di sapere che conseguenze avranno le nostre azioni. Non possiamo essere certi del fatto che se la locomotiva prosegue dritto tutte e cinque le persone moriranno, o che se devia ucciderà l’altra. Dobbiamo scegliere in contesti di incertezza, che rendono le decisioni più complesse e spesso moralmente più ambigue.
Il dilemma del carrello ci permette comunque di mettere in dubbio e saggiare le nostre intuizioni morali. Quelle che poi guidano nel mondo reale le nostre scelte, sia individuali che collettive. Ad esempio, con l’avvento dell’intelligenza artificiale, la questione di chi debba prendere decisioni eticamente delicate si fa sempre più rilevante. Pensate a un’automobile senza guidatore: in caso di grave pericolo per più persone (pedoni, automobilisti, passeggeri) chi si salva e chi muore? L’automobile – o meglio, l’intelligenza artificiale che la guida – deve assumere decisioni che normalmente spetterebbero a un essere umano. Ma un algoritmo non è mai neutrale: riflette le convinzioni e i valori di chi l’ha scritto, se non anche i suoi pregiudizi impliciti. Non solo: ci sono decisioni che non possono essere eticamente neutre, cioè in cui non c’è un’opzione migliore delle altre in termini assoluti. Accade in contesti che richiedono un giudizio morale, ovvero di bilanciare valori e interessi diversi.
Joseph Weizenbaum è stato fra i primi scienziati a occuparsi delle questioni etiche che sono sorte con l’avvento dell’intelligenza artificiale. In particolare, Weizenbaum si sofferma sulla distinzione importante che c’è fra decisioni e scelte.
Le decisioni sono attività computazionali, ovvero possono essere ridotte a un calcolo o a un algoritmo, per quanto complesso possa essere. Le scelte invece richiedono qualità umane, prima di tutto empatia, emozioni, accettazione dell’incertezza. Non sono computabili, ovvero non possono essere semplicemente ridotte a termini matematici. Richiedono flessibilità, giudizio, intuizione.
Le scelte hanno necessariamente una componente etica. Non possono essere ciecamente affidate alla tecnologia, né alle persone che la sviluppano. Non solo nel caso delle automobili automatiche, ma anche con gli algoritmi usati in medicina o in ambito militare o nella giustizia. In generale, l’uso che facciamo della tecnologia ha sempre dei risvolti etici, perché modifica il modo in cui entriamo in rapporto col mondo e con gli altri. Se non riflettiamo sui dilemmi che ci pone la tecnologia, lasciamo scelte morali importanti al caso o a persone che non sono legittimate ad affrontarle in nome di tutti.
L’esperimento mentale del carrello ci ricorda che ovunque ci siano esseri umani, con valori e interessi in conflitto, ci sono problemi che non hanno risposte vere o false. Possono essere risolti solo nella maniera più difficile: nel mezzo dell’incertezza, ponendosi domande complesse, mettendo in dubbio le proprie intuizioni e quelle degli altri. Con il coraggio di scegliere.
Gianrico Carofiglio (Bari, 1961) ha scritto racconti, romanzi e saggi. I suoi libri, sempre in vetta alle classifiche dei best seller, sono tradotti in tutto il mondo. Il suo romanzo più recente è La disciplina di Penelope.
Giorgia Carofiglio (Monopoli, 1995) si è laureata in Teoria Politica presso la University College London. Ha lavorato in un’agenzia letteraria e collabora con case editrici.
© Riproduzione riservata