Seguici anche su

11 gennaio 2018

Uomini alle prese con l’etica dei robot

Dalla sanità all’educazione, le applicazioni di intelligenza artificiale hanno invaso le nostre vite. Ora i cittadini chiedono regole comuni. A partire dall’Europa

angela simone

Tratto dal numero di pagina99 del 10 novembre 2017

Robotica, intelligenza artificiale, algoritmi, Big data. Ormai se ne parla estesamente non solo nei laboratori di ricerca specializzati, ma in ogni settore perché non esiste campo che non sia stato (o che possa essere) toccato da queste tecnologie. Dai robot che toglieranno posti di lavoro (o ne creeranno altri, ma diversi), agli algoritmi che affiancheranno forze dell’ordine, avvocati, giudici, ai Big data utilizzati per leggere i nostri gusti come consumatori e le terapie migliori come pazienti, si fa sempre più pressante – da parte della società, ma anche degli stessi operatori del mondo tecnologico, a partire dal fondatore di Tesla Elon Musk – la richiesta di riflessione sulle ricadute sociali ed etiche di certi avanzamenti e sulle azioni da intraprendere a tutela degli stessi settori industriali coinvolti. Non stupisce quindi che, pur con i tempi della res publica, anche le istituzioni si stiano muovendo…

Leggi l'articolo per 0,10 €

PAGA CON
Paga con Tinaba

A gennaio 2017 il parlamento europeo ha approvato il report European civil law rules on robotics, primo passo verso una legge europea per regolamentare il settore dell’intelligenza artificiale (I.A.) e della robotica. In attesa che la Commissione europea decida se accettare quanto indicato dal report e di varare una legislazione continentale su questi temi – dagli aspetti di responsabilità civile in caso di danno arrecato da dispositivi robotici e di intelligenza artificiale fino alla costituzione di un’agenzia europea per il settore – il parlamento continua a promuovere la discussione sulle azioni necessarie per regolare il settore.

Già nel report era stata auspicata l’istituzione di un codice di condotta etica che ricercatori, progettisti, ingegneri e tecnologi che lavorano nelle varie applicazioni di robotica e Ia dovrebbero adottare su base volontaria per autocertificare comportamenti conformi a standard etici e legali condivisi a livello europeo. In Ue è stata lanciata una consultazione pubblica – aperta da febbraio a giugno 2017 non solo ai Paesi membri – per raccogliere opinioni sugli aspetti etici, legali, economici e sociali

In seguito il parlamento ha anche lanciato una consultazione pubblica – aperta da febbraio a giugno 2017 con contributi non solo dai Paesi membri – per raccogliere opinioni sugli aspetti etici, legali, economici e sociali dell’innovazione. I risultati sono stati da poco pubblicati e hanno confermato la necessità di leggi specifiche su robotica e I.A.

Il 90% considera una priorità regolare i problemi relativi a privacy, etica e diritti umani che potrebbero nascere dall’introduzione di queste tecnologie in svariati settori, dalle automobili a guida autonoma ai droni per uso civile, fino alla presenza di medici-robot negli ospedali. Quasi la totalità di coloro che hanno risposto alla consultazione (96%) si augura inoltre che la regolamentazione avvenga in maniera concertata a livello europeo o internazionale, così da assicurare controlli più efficaci.

In attesa dell’Europa, gli Stati membri stanno cominciando ad affrontare la questione a macchia di leopardo. In Italia persino in settori non propriamente innovativi come la Pubblica amministrazione e l’ambito sanitario c’è chi se ne sta occupando, con manifesti, tavoli e task force, anche istituzionali.

Nella pubblica amministrazione è nata da una manciata di settimane la task force sull’Intelligenza artificiale, promossa dall’Agenzia per l’Italia digitale della presidenza del Consiglio, con lo scopo di «studiare le opportunità offerte dall’Intelligenza artificiale per migliorare i servizi pubblici e semplificare la vita dei cittadini». Il primo compito del gruppo – composto da 30 esperti (di cui solo 9 donne) – sarà produrre entro fine 2017 un “libro bianco” con cui suggerire eventuali progetti pilota e le azioni necessarie ad allinearsi alle prassi internazionali di utilizzo virtuoso di tecnologie di I.A. nei circuiti della pubblica amministrazione.

A questo lavoro (che si svolge in diretta Facebook) si affianca la nascita di una community, ospitata dal sito ad hoc ia.italia.it, in cui i temi etici imperversano in molti thread di discussione (sia in italiano sia in inglese – anche se di commentatori non madrelingua italiani ce ne sono ben pochi e in generale la community stenta a decollare). In Italia da poco è stato pubblicato il manifesto per una sanità intelligente, scaturito da un incontro che si è svolto al Senato a fine ottobre con attori istituzionali

Nell’ambito della sanità italiana, invece, da poco è stato pubblicato il manifesto per una sanità intelligente, scaturito da un incontro che si è svolto al Senato a fine ottobre con attori istituzionali (il direttore della stessa Agenzia per l’Italia digitale e la presidente della Commissione Igiene e Sanità del Senato), anche se promosso dall’associazione I-Com (Istituto per la Competitività) e vede tra i firmatari numerosi esponenti di aziende che operano nel mondo hi-tech (Ibm, Ericsson, Nokia) e del biopharma (Novartis, Abbott, Roche, Novo Nordisk) e rappresentanti di associazioni di cittadini e pazienti (Cittadinanzattiva, tra le altre).

Il manifesto dovrebbe stimolare il sistema Italia alle possibili integrazioni dell’I.A. nel mondo della sanità, anche come ulteriore passo nel percorso di digitalizzazione del Servizio sanitario nazionale, iniziato con l’introduzione del Fascicolo elettronico sanitario, fino a prevedere un utilizzo esteso dei Big data per una medicina sempre più di precisione. Tra gli otto punti che compongono il manifesto – che è aperto a ulteriori contributi di chi vorrà partecipare – compare il tema della tutela della privacy, e delle questioni connesse di cyber security e trasparenza, argomento cruciale in questo settore.

In questo viaggio verso la produzione di leggi e norme che tutelino i cittadini ma permettano un avanzamento dell’innovazione, mancano però dei meccanismi strutturati di consultazione pubblica, aldilà dei sondaggi come quelli messi in campo dal parlamento europeo, peraltro non somministrati a campione.

Come ha scritto Simon Burall, ex direttore dell’organismo InvolveUK, sul blog dello stesso ente, non è sufficiente consultare solo gli esperti su temi come robotica e intelligenza artificiale che investono tutti noi. Bisognerebbe investire in strumenti e meccanismi di dibattito e informazione del pubblico, continuativi nel tempo, in grado di consultare attraverso “un profondo dibattito democratico” la società tutta.

Altri articoli che potrebbero interessarti