Cosa potrebbero avere in comune le pecore e le auto senza conducente? Seguire il gregge

I ricercatori mostrano come la componente sociale del processo decisionale morale può influenzare la programmazione di veicoli autonomi e altre tecnologie

Gli psicologi hanno scoperto da tempo che le persone si comportano in modo diverso quando vengono a conoscenza delle azioni dei loro pari. Un nuovo studio di scienziati informatici ha scoperto che quando gli individui in un esperimento sui veicoli autonomi sono stati informati che i loro pari erano più propensi a sacrificare la propria sicurezza per programmare il loro veicolo per colpire un muro piuttosto che colpire i pedoni che erano a rischio, la percentuale di individui disposti a sacrificare la propria sicurezza è aumentata di circa due terzi.

Mentre gli informatici addestrano le macchine ad agire come agenti delle persone in tutti i tipi di situazioni, gli autori dello studio indicano che la componente sociale del processo decisionale è spesso trascurata. Questo potrebbe essere di grande conseguenza, notano gli autori dell’articolo che mostrano che il problema del trolly, che è stato a lungo dimostrato essere lo scenario a cui si rivolgono gli psicologi morali, è problematico. Il problema, indicano gli autori, non riesce a mostrare la complessità di come gli esseri umani prendono decisioni.

Jonathan Gratch, uno degli autori del documento, il ricercatore principale di questo progetto, e uno scienziato informatico presso l’USC Institute for Creative Technologies, dice che i modelli esistenti assumono che nelle decisioni di vita e di morte ad alta posta in gioco, le persone pensano diversamente da come fanno in realtà. Egli indica che non ci sono assoluti morali per il processo decisionale umano, ma piuttosto “è più sfumato”, dice Gratch.

I ricercatori hanno condotto quattro esperimenti di simulazione separati per capire come le persone potrebbero elaborare e agire sui dilemmi morali che dovrebbero affrontare come operatore di un’auto senza conducente. I primi tre esperimenti si sono concentrati sul comportamento umano di fronte al rischio per se stessi e gli altri nel caso di uno scenario negativo in cui il veicolo dovrebbe essere programmato per colpire il muro o colpire cinque pedoni. Gli autori dimostrano che i partecipanti avrebbero usato la gravità delle lesioni a se stessi e il rischio per gli altri come punti di riferimento per il processo decisionale. Hanno scoperto che più alto è il rischio per i pedoni, più è probabile che le persone siano disposte a sacrificare la propria salute. Inoltre, il livello di rischio per i pedoni non doveva essere così alto come per l’operatore del veicolo autonomo di sacrificare il proprio benessere.

Nel quarto esperimento, i ricercatori hanno aggiunto una dimensione sociale dicendo ai partecipanti cosa avevano scelto di fare i loro pari nella stessa situazione. In una simulazione, la conoscenza che i coetanei hanno scelto di rischiare la propria salute ha cambiato le risposte dei partecipanti, passando dal 30 per cento che erano disposti a rischiare la propria salute al 50 per cento. Ma questo può andare in entrambi i sensi avverte Gratch. “Tecnicamente ci sono due forze all’opera. Quando le persone si rendono conto che i loro pari non si preoccupano, questo spinge le persone verso l’egoismo. Quando si rendono conto che si preoccupano, questo li tira verso l’alto”.

La ricerca ha implicazioni per i veicoli autonomi, tra cui droni e barche, così come i robot che sono programmati da esseri umani. Gli autori suggeriscono che è importante per i produttori avere una consapevolezza di come gli esseri umani effettivamente prendono decisioni in situazioni di vita o di morte. Inoltre, gli autori implicano che la trasparenza nel modo in cui le macchine sono programmate, così come la cessione dei controlli ai piloti umani in modo che possano cambiare le impostazioni prima di queste situazioni di vita o di morte, sono importanti per il pubblico. Suggeriscono anche che è importante che i legislatori siano consapevoli di come i veicoli potrebbero essere programmati. Infine, data la suscettibilità umana a conformarsi alle norme sociali, gli autori credono che le campagne di salute pubblica relative a come i coetanei hanno programmato i loro veicoli autonomi per il sacrificio di sé potrebbero influenzare i futuri proprietari a cambiare le impostazioni del loro veicolo per essere più orientati a proteggere gli altri da lesioni e scegliere il sacrificio di sé.

 

                                                                  The Moral Machine experiment

 

 

Fonte: https://scienmag.com/what-might-sheep-and-driverless-cars-have-in-common-following-the-herd/