Crea sito

UN CODICE ETICO PER LE AUTO A GUIDA AUTONOMA?

Sacrificare la madre con la bambina sulla destra o la coppia di anziani sulla sinistra? O ancora: andare fuori strada e rischiare la vita dei tre adulti a bordo o frenare ma probabilmente colpire i due adolescenti che stanno attraversando anche se per loro il semaforo è rosso? Una macchina a guida autonoma potrebbe trovarsi davanti a scelte atroci in situazioni dove l’incidente è inevitabile. E così in Germania hanno deciso di stabilire venti principi etici per marcare i confini oltre i quali i programmatori non dovranno mai spingersi quando si tratterà di scrivere il codice delle vetture e dei robot del futuro. Li ha messi nero su bianco la Commissione etica sulla guida autonoma e connessa voluta dal ministro dei trasporti Alexander Dobrindt. Tra i quattordici membri anche un teologo, quattro professori di etica, uno di informatica, un ex giudice costituzionale.

“Questo sono al mondo le prime linee guida sul tema con una forte impronta etica”, racconta Christoph Luetge, professore di Business Ethics al Politecnico di Monaco e membro della commissione. “Principi fondanti che un domani potrebbero essere alla base di un nuovo quadro di leggi “. Si parte dalla sicurezza: l’automazione non ha senso se non salva vite, considerando che sulle strade muoiono ogni anno un milione e 250mila persone e nel 93 per cento dei casi l’errore umano svolge un ruolo essenziale nel causarli. Non solo. Si stabilisce il primato della libera scelta e questo si traduce nel rifiuto dei mezzi a guida autonoma totale, il cosiddetto “Livello 5” delle Google Car prive di volante e pedali. E ancora: il software di un autobus, auto o aereo, non potrà decidere chi sacrificare fra pedoni, guidatore e passeggeri nelle collisioni inevitabili scegliendo in base al genere, all’età o al numero. “La tecnologia deve esser progettata per non arrivare mai a casi simili “, prosegue Luetge.

 

Continua a leggere qui.

 

L’ETICA DELL’INTELLIGENZA ARTIFICIALE

Con lo sviluppo dell’intelligenza artificiale (AI) in numerosi campi di applicazione – logistica, trasporti e controlli di sicurezza, dalla realizzazione di opere d’arte alle traduzioni – si porranno sempre di più questioni etiche relative al nostro rapporto con le macchine. Da un lato bisognerà assicurarsi che le AI non siano dannose per gli esseri umani, dall’altro sarà necessario riflettere sulla morale delle stesse macchine. Le intelligenze artificiali del futuro saranno costruite in modo da raggiungere uno specifico obiettivo e potrà darsi che nel portare a termine il loro compito si trovino davanti a una scelta, anche piccola: per avere la sicurezza che non commettano errori, i loro programmatori dovranno prendere in considerazioni tutte le possibili implicazioni di una data scelta in un dato contesto e così prevedere possibili casi in cui le macchine potrebbero comportarsi in modo sbagliato dal punto di vista etico. Il più semplice degli esempi è quello delle automobili che si guidano da sole: cosa faranno quando dovranno decidere se investire una scolaresca o evitarla schiantandosi su un muro con gravi conseguenze per i passeggeri?

In realtà le questioni su cui esperti di robotica, filosofi e neuroscienziati hanno cominciato a riflettere – Deep Mind, una società di ricerca sui sistemi di intelligenza di proprietà di Google, ha creato insieme a Facebook, Amazon, IBM e Microsoft una “Partnership on Artificial Intelligence to Benefit People and Society” a questo scopo e in teoria ha al suo interno un comitato etico che riflette sulle implicazioni delle AI – sono di vario tipo. Molte sono già state immaginate, da decenni, dagli autori di fantascienza e sono state elencate dalla presidente dell’Istituto Foresight Julia Bossmann in un articolo pubblicato sul sito del World Economic Forum.

Continua a leggere qui

 

LA CONCENTRAZIONE DI ROBOT INDUSTRIALI PER PAESE

Per zoom clicca qui.