Seguici anche su

10 giugno 2017

Un’authority per gli algoritmi

Governano gli scambi azionari, fanno diagnosi mediche, guidano gli aerei: c’è bisogno di un ente indipendente che li controlli

Ci sono authority di garanzia e di controllo nel settore dei trasporti, per le medicine, per le banche e le società finanziarie. Perché, invece, non c’è una autorità di garanzia per gli algoritmi? La proposta-provocazione è di Ben Shneiderman, un informatico dell’Università del Maryland che in una lezione tenuta all’istituto Alan Turing di Londra ha voluto così puntare i riflettori sul ruolo sempre più forte che i sistemi decisionali automatizzati hanno nelle nostre vite.

Come nota la rivista online Quartz, non è un grosso problema (o almeno non sempre) se l’algoritmo di Facebook sbaglia, ad esempio, un riconoscimento facciale o se il sistema dei filtri da applicare alle foto non è performante come promesso. Diverso è però quando fallisce l’algoritmo che presiede al governo degli scambi finanziari sui mercati, o quando un aereo cade in mezzo all’oceano per un difetto nel sistema di pilotaggio automatico, come potrebbe essere successo per il volo Air France 447 nel 2009.

L’obiezione migliore a Ben Shneiderman è che, in tutti questi casi, ovviamente un sistema di controllo dovrebbe entrare in azione, ed è esattamente quello che presiede ai mercati finanziari, o al settore dei trasporti e via andando per ogni settore di specifico interesse. E, tuttavia, nel chiedere una specifica autorità di garanzia per gli algoritmi, lo studioso americano mette bene in evidenza un aspetto particolarmente inquietante dei nuovi sistemi automatizzati: benché inizialmente progettati da umani, alcuni algoritmi evolvono attraverso sistemi automatizzati di apprendimento che rendono difficile capire come questi assumano una decisione piuttosto che un’altra.

Ciò rende estremamente delicato lo sviluppo degli algoritmi in settori sensibili come quello della diagnostica medicale, o nella guida automobilistica automatizzata in un immediato futuro. Per controllare i possibili guasti servono competenze molto specifiche, che forse non sono a disposizione di ogni autorità di garanzia settoriale. Vi sono casi documentati, ad esempio, di software per la diagnosi del cancro alla pelle che, testati inizialmente su persone di pelle chiara, si sono mostrati difettosi nell’operare su persone di pelle scura. Una autorità dedicata esclusivamente agli algoritmi avrebbe il compito di intervenire soprattutto in questi casi, investigando i motivi di fallimento e dando pubblicità di questi al pubblico potenziale, esattamente come fa la Fda negli Stati Uniti per le medicine.

[Foto in apertura di Contrasto]

Altri articoli che potrebbero interessarti