+39 06 835 212 31

Via Francesco Gentile 135 – RM

EnglishItalian

Seguici su:

 

 

 

 

Quando

Martedì 26 Maggio 2020

Dalle ore 15:00 alle 18:00

Dove

Spazio Pin

Viale Sondrio 5 – 20124 Milano

Il Workshop è stato inserito nell’ambito del Programma di Milano Digital Week 2020.

Workshop di presentazione dell’Artificial Intelligence Ethics Model Canvas per il governo digitale delle Smart Cities e la valutazione delle responsabilità aziendali nella fornitura dei servizi e dei beni, sia a scala territoriale che del semplice utente.

Nel workshop, dopo una presentazione di potenzialità e rischi del governo delle Smart Cities affidato alle Intelligenze Artificiali delle aziende e delle start-up specializzate (logistica, mobilità, servizi, partecipazione, sanità, e-commerce, ecc.), verrà condotto un Laboratorio Pratico sulla base delle “Linee Guida Etiche” della UE e dell’esperienza già realizzata a San Francisco (California, Silicon Valley).

Ai partecipanti verrà consegnato l’AI ETHICS MODEL CANVAS con cui verranno simulati situazioni di Governance Urbana affidate alle Intelligenze Artificiali e verificati i presupposti Etici di sicurezza e affidabilità dei processi, servizi e beni forniti dalle aziende e dalle start-up specializzate, compresi i “piani di riserva” nei casi in cui dovessero verificarsi anomalie malevole nei confronti dei cittadini e dei sistemi democratici delle “Polis”.

Il Workshop organizzato da Piazza Copernico intende offrire strumenti per Implementare la consapevolezza dei MANAGER aziendali e dei FOUNDER delle start-up sui potenziali rischi di Responsabilità penale (L. 231/01), di Class Action (L. 31/2019) e violazione della Privacy (GDPR 2016/679) per l’uso di INTELLIGENZE ARTIFICIALI (AI) NON CONFORMI ETICAMENTE alle Linee Guida UE e alle Raccomandazioni OCSE (antropocentriche; affidabili; eque), soprattutto nell’erogazione di servizi a scala territoriale (Smart Cities) o dei singoli utenti (Smart life + E-commerce).

Le recenti Linee Guida della UE (“Etica delle Intelligenze Artificiali”), dell’OCSE (“Orientamenti sulle Intelligenze Artificiali”) e delle Autorità Europee sulla Privacy (“Raccomandazioni per la conformità delle Intelligenze Artificiali al GDPR”) pongono con forza l’esigenza di proteggere gli utenti/cittadini dai potenziali rischi e/o danni derivanti dall’uso di AI non eticamente conformi nell’erogazione dei servizi o prodotti (sia in scala urbana sia a livello di singolo utente/cittadino).

È possibile il verificarsi di potenziali situazioni conflittuali che portino ad adire le vie legali nei confronti delle aziende e delle start-up specializzate, in ambito di:

  • Responsabilità penali;
  • Class action;
  • Violazione Privacy;
  • Sicurezza lavoro;
  • Sostenibilità ambientale;
  • ecc.

Nel contempo, al pari di altri posizionamenti di prodotto (gluten free; biologico; ecologico; efficienza energetica, ecc.), garantire che le AI utilizzate non danneggeranno l’uomo, sosterranno l’ambiente, non effettueranno discriminazioni (di razza, sesso, religione, classe socioeconomica, ecc.), proteggeranno la privacy degli utenti (personale, sindacale, sanitaria e politica), può essere un valore aggiunto determinante nello sviluppo del “brand aziendale” e nella costruzione di un rapporto di “fiducia” con la comunità dei propri consumatori.

Diviene necessario, pertanto, aumentare la consapevolezza dei livelli apicali aziendali o degli startupper circa il valore strategico del dotarsi (ex-ante; in itinere; ex-post) di STRUMENTI DI CONTROLLO E VERIFICA ETICA DELLE AI sviluppate o acquisite in azienda, in modo da garantire, sin dalla fase di concepimento e progettazione, un significativo livello di:

• Sicurezza,
• Affidabilità,
• Equità,
• Antropocentricità.

Lo scopo primario, quindi, è quello di prevenire, sia a scala urbana che del singolo cittadino:

• Perdite finanziarie dovute a loop autoreferenziali di trading automatico;
• Errori negli investimenti industriali a causa di big-data non corretti (bias);
• Furti d’identità elettroniche di massa o violazioni sistematiche della Privacy;
• Discriminazioni razziali o sociali o religiose nella erogazione di crediti o di finanziamenti;
• Discriminazioni di genere nella valutazione dei curricula o nella gestione del personale;
• Infortuni mortali sul lavoro in cicli produttivi Industry 4.0;
• Incidenti mortali derivanti da sistemi di guida autonoma (terrestre ed aerea);
• Collasso di fornitura energetica e idrica per malfunzionamenti di rete o hackeraggio;
• Fake news e campagne di odio sui social o sulle piattaforme di informazione telematica;
• Ecc..

Adottare un modello etico diviene, perciò, una scelta strategica che garantisce la competitività̀ globale del prodotto/servizio che utilizza le AI, perchè:

a) rassicura le comunità̀ di utenti che lo utilizzeranno;
b) abbassa il rischio di boicottaggio commerciale o campagne di odio sui Social;
c) riduce eventuali risarcimenti danni o Class Action che potrebbero derivare dal danneggiamento degli esseri umani (a livello singolo o di intere comunità̀);
d) assicura la conformità̀ normativa;
e) aumenta la “reputation” del Brand aziendale.

I soggetti a cui si rivolge il workshop:

• MANAGER AZIENDALI o FOUNDER DI START-UP, impegnati a gestire lo sviluppo delle IA o il loro utilizzo a supporto di prodotti/processi/servizi, e che quindi ne devono garantire affidabilità e sicurezza per tutta la filiera.

• DIRIGENTI MINISTERIALI o DIRIGENTI DI ENTI PUBBLICI, a cui viene richiesto lo sviluppo di funzioni o servizi in grado di fornire ai cittadini una diversa amministrazione pubblica (non burocratica), in grado di non discriminare le fasce deboli e comunque di non recare danni/privilegi a categorie economiche o imprenditoriali.

• RICERCATORI o PROGRAMMATORI, impegnati (singolarmente o in team) a sviluppare soluzioni e tecniche innovative nell’area delle reti neurali o del machine learning, così che possano valutare le potenziali conseguenze dei risultati delle ricerche (o delle soluzioni) prima che vengano immesse sul mercato.

• STAKEHOLDERS e CITTADINI, concentrati sull’individuazione di nuovi ambiti di responsabilità sino ad ora non esplorati, o sulla funzione di controllo e verifica delle istanze dei loro soggetti di riferimento (dalle associazioni di categoria a quelle dei consumatori o delle minoranze), soprattutto per quel che riguarda la partecipazione alla vita politica e al governo delle Smart Cities.

• Lo stato dell’arte delle Intelligenze Artificiali e i potenziali rischi etici da valutare

o Le diverse tipologie di IA:

– debole,
– forte,
– generale;

o I diversi approcci per l’implementazione degli algoritmi:

– Machine-learning,
– Deep-learning,
– Renforced Learning,
– Reti neurali e Generative Adversarial;

o Gli aspetti etici e legali di una IA:

– L’approccio umano-centrico nella progettazione, gestione e monitoraggio,
– Il pilastro della garanzia una IA affidabile e robusta,
– Gli scopi etici della IA,
– L’etica delle IA come fattore di competitività globale della UE,
– Il rapporto tra Etica delle IA e GDPR,
– Il nodo della responsabilità e/o personalità giuridica delle IA e dei robot,
– I profili di responsabilità legale per le aziende (normativa vigente),
– I profili di responsabilità collettiva per i servizi a scala urbana.

.
Le Linee Guida UE e gli Orientamenti OCSE sull’Etica delle IA

o Il piano coordinato UE sulla IA
o I requisiti dell’affidabilità nella fase di implementazione:

– Responsabilità,
– Gestione dei dati,
– Progettazione per tutti,
– Gestione dell’autonomia delle IA e controllo umano,
– Non discriminazione,
– Rispetto dell’autonomia umana (decisionale) e della Privacy,
– Robustezza, sicurezza, trasparenza,
– Coinvolgimento degli stakeholder.

• L’IA Etichal Model Canvas

o Introduzione al Business Model Canvas

o L’innovativo Canvas per l’Etica delle IA:

– I fondamentali:

• Autonomia umana,
• Governo dei dati,
• GDPR e Privacy,
• Responsabilità,
• Impatto sociale e ambientale,
• Impatto umano,
• Benessere e benefici;

– I trasversali:

• Equità ed eguaglianza,
• Robustezza e sicurezza,
• Trasparenza e tracciabilità;

o L’uso della metodologia del “Legal Design” per la trasparenza

– L’Applicazione del Canvas in scala urbana e territoriale,
– L’esperienza di San Francisco (Silicon Valley).

        – – – Laboratorio pratico di utilizzo del Canvas – – –

Arch. DANIELE VERDESCA

Architetto dell’informazione,  attualmente è anche Direttore della Cassa Edile della provincia di Lecce. Già professore a contratto al Dipartimento di Economia Politica dell’Università di Siena e Direttore generale del Formedil a Roma, è da tempo in prima linea sul fronte della promozione della digitalizzazione dei sistemi gestionali nel settore delle costruzioni.

Co-founder di una start-up sull’intelligenza artificiale semantica, attualmente è impegnato in diversi progetti innovativi mirati all’utilizzo delle AI nei controlli automatizzati della conformità aziendale (Regtech). Relatore in convegni e workshop, è autore di numerosi libri e articoli tecnici sul tema.

ISCRIZIONE AL Workshop

Azienda(*)

Ruolo(*)

Eventuali Richieste e/o Informazioni:

Acconsento al trattamento dei dati personali secondo le condizioni espresse nella pagina informativa privacy.

Scarica la scheda in formato PDF

Entra nel Team

Per mantenere elevato il livello di qualità del nostro lavoro, ricerchiamo costantemente professionisti di esperienza.

CHIUDI
CHIUDI