UN CODICE ETICO PER LE AUTO A GUIDA AUTONOMA?

Sacrificare la madre con la bambina sulla destra o la coppia di anziani sulla sinistra? O ancora: andare fuori strada e rischiare la vita dei tre adulti a bordo o frenare ma probabilmente colpire i due adolescenti che stanno attraversando anche se per loro il semaforo è rosso? Una macchina a guida autonoma potrebbe trovarsi davanti a scelte atroci in situazioni dove l’incidente è inevitabile. E così in Germania hanno deciso di stabilire venti principi etici per marcare i confini oltre i quali i programmatori non dovranno mai spingersi quando si tratterà di scrivere il codice delle vetture e dei robot del futuro. Li ha messi nero su bianco la Commissione etica sulla guida autonoma e connessa voluta dal ministro dei trasporti Alexander Dobrindt. Tra i quattordici membri anche un teologo, quattro professori di etica, uno di informatica, un ex giudice costituzionale.

“Questo sono al mondo le prime linee guida sul tema con una forte impronta etica”, racconta Christoph Luetge, professore di Business Ethics al Politecnico di Monaco e membro della commissione. “Principi fondanti che un domani potrebbero essere alla base di un nuovo quadro di leggi “. Si parte dalla sicurezza: l’automazione non ha senso se non salva vite, considerando che sulle strade muoiono ogni anno un milione e 250mila persone e nel 93 per cento dei casi l’errore umano svolge un ruolo essenziale nel causarli. Non solo. Si stabilisce il primato della libera scelta e questo si traduce nel rifiuto dei mezzi a guida autonoma totale, il cosiddetto “Livello 5” delle Google Car prive di volante e pedali. E ancora: il software di un autobus, auto o aereo, non potrà decidere chi sacrificare fra pedoni, guidatore e passeggeri nelle collisioni inevitabili scegliendo in base al genere, all’età o al numero. “La tecnologia deve esser progettata per non arrivare mai a casi simili “, prosegue Luetge.

 

Continua a leggere qui.