+39 06 835 212 31

Via Francesco Gentile 135 – RM

Seguici su:

 

 

 

 

Quando

Mercoledì 27.11.2019

dalle ore 09:00 alle ore 13:00

Dove

Presso Binario F from Facebook,

VIA MARSALA 29H, ROMA

Il Seminario organizzato da Piazza Copernico intende offrire strumenti per aumentare la consapevolezza dei MANAGER aziendali e dei FOUNDER delle start-up sui potenziali rischi di Responsabilità penale (L. 231/01), di Class Action (L. 31/2019) e violazione della Privacy (GDPR 2016/679) legati all’uso di INTELLIGENZE ARTIFICIALI (AI) NON CONFORMI ETICAMENTE alle Linee Guida UE e alle Raccomandazioni OCSE: antropocentriche; affidabili; eque.

L’evento è patrocinato da

Le recenti Linee Guida della UE (“Etica delle Intelligenze Artificiali”), dell’OCSE (“Orientamenti sulle Intelligenze Artificiali”) e delle Autorità Europee sulla Privacy (“Raccomandazioni per la conformità delle Intelligenze Artificiali al GDPR”) pongono con forza l’esigenza di proteggere le aziende dai potenziali rischi e/o danni derivanti dall’uso di AI non eticamente conforme nell’erogazione dei propri servizi o prodotti: Responsabilità penali; Class action; violazione Privacy; Sicurezza lavoro; ecc..

Inoltre, il fatto di riuscire a garantire che le AI utilizzate non danneggeranno l’uomo, sosterranno l’ambiente, non causeranno discriminazioni (di razza, sesso, religione, classe socioeconomica, ecc.), proteggeranno la privacy degli utenti (personale, sindacale, sanitaria e politica), può essere un valore aggiunto determinante nello sviluppo del “brand aziendale” e nella costruzione di un rapporto di “fiducia” con la comunità dei propri consumatori.

Diviene necessario, pertanto, aumentare la consapevolezza dei livelli apicali aziendali o degli startupper circa il valore strategico del dotarsi (ex-ante; in itinere; ex-post) di STRUMENTI DI CONTROLLO E VERIFICA ETICA DELLE AI sviluppate o acquisite in azienda.
Ogni progetto deve essere in grado di garantire un significativo livello di:

• Sicurezza,
• Affidabilità,
• Equità,
• Antropocentricità.

Lo scopo primario, quindi, è quello di prevenire:

• Perdite finanziarie dovute a loop autoreferenziali di trading automatico;
• Errori negli investimenti industriali a causa di big-data non corretti (bias);
• Furti d’identità elettroniche di massa o violazioni sistematiche della Privacy;
• Discriminazioni razziali o sociali o religiose nella erogazione di crediti o di finanziamenti;
• Discriminazioni di genere nella valutazione dei curricula o nella gestione del personale;
• Infortuni mortali sul lavoro in cicli produttivi Industry 4.0;
• Incidenti mortali derivanti da sistemi di guida autonoma (terrestre ed aerea);
• Fake news e campagne di odio sui social o sulle piattaforme di informazione telematica;
• Ecc..

Adottare un modello etico diviene, perciò, una scelta strategica che garantisce la competitività̀ globale del prodotto/servizio che utilizza le AI, perchè:

a) rassicura le comunità̀ di utenti che lo utilizzeranno;
b) abbassa il rischio di boicottaggio commerciale o campagne di odio sui Social;
c) riduce eventuali risarcimenti danni o Class Action che potrebbero derivare dal danneggiamento degli esseri umani (a livello singolo o di intere comunità̀);
d) assicura la conformità̀ normativa;
e) aumenta la “reputation” del Brand aziendale.

I soggetti a cui si rivolge il seminario:

• MANAGER AZIENDALI o FOUNDER DI START-UP, impegnati a gestire lo sviluppo delle IA o il loro utilizzo a supporto di prodotti/processi/servizi.

• DIRIGENTI MINISTERIALI o DI ENTI PUBBLICI, a cui viene richiesto lo sviluppo di funzioni o servizi in grado di fornire ai cittadini una diversa amministrazione pubblica (non burocratica), in grado di non discriminare le fasce deboli e comunque di non recare danni/privilegi a categorie economiche o imprenditoriali.

• DIRIGENTI E SPECIALISTI di BANCHE e ASSICURAZIONI, al fine di valutare il rischio del potenziale assicurato o del potenziale finanziamento verso un’azienda che utilizza intelligenze artificiali per i propri servizi ai clienti.

• RICERCATORI o PROGRAMMATORI, impegnati (singolarmente o in team) a sviluppare soluzioni e tecniche innovative nell’area delle reti neurali o del machine learning, così che possano valutare le potenziali conseguenze dei risultati delle ricerche (o delle soluzioni) prima che vengano immesse sul mercato.

• STAKEHOLDERS, concentrati sull’individuazione di nuovi ambiti di responsabilità sino ad ora non esplorati, o sulla funzione di controllo e verifica delle istanze dei loro soggetti di riferimento (dalle associazioni di categoria a quelle dei consumatori o delle minoranze).

• Lo stato dell’arte delle Intelligenze Artificiali e i potenziali rischi etici da valutare

o Le diverse tipologie di IA:

– debole,
– forte,
– generale;

o I diversi approcci per l’implementazione degli algoritmi:

– Machine-learning,
– Deep-learning,
– Renforced Learning,
– Reti neurali e Generative Adversarial;

o Gli aspetti etici e legali di una IA:

– L’approccio umano-centrico nella progettazione, gestione e monitoraggio,
– Il pilastro della garanzia una IA affidabile e robusta,
– Gli scopi etici della IA,
– L’etica delle IA come fattore di competitività globale della UE,
– Il rapporto tra Etica delle IA e GDPR,
– Il nodo della responsabilità e/o personalità giuridica delle IA e dei robot,
– I profili di responsabilità legale per le aziende (normativa vigente).

Le Linee Guida UE e gli Orientamenti OCSE sull’Etica delle IA

o Il piano coordinato UE sulla IA
o I requisiti dell’affidabilità nella fase di implementazione:

– Responsabilità,
– Gestione dei dati,
– Progettazione per tutti,
– Gestione dell’autonomia delle IA e controllo umano,
– Non discriminazione,
– Rispetto dell’autonomia umana (decisionale) e della Privacy,
– Robustezza, sicurezza, trasparenza,
– Coinvolgimento degli stakeholder.

• L’IA Etichal Model Canvas

o Introduzione al Business Model Canvas

o L’innovativo Canvas per l’Etica delle IA:

– I fondamentali:

• Autonomia umana,
• Governo dei dati,
• GDPR e Privacy,
• Responsabilità,
• Impatto sociale e ambientale,
• Impatto umano,
• Benessere e benefici;

– I trasversali:

• Equità ed eguaglianza,
• Robustezza e sicurezza,
• Trasparenza e tracciabilità;

o L’uso della metodologia del “Legal Design” per la trasparenza

Arch. DANIELE VERDESCA

Architetto dell’informazione, è attualmente Direttore della Cassa Edile della provincia di Lecce. Già professore a contratto al Dipartimento di Economia Politica dell’Università di Siena e Direttore generale del Formedil a Roma. Da tempo in prima linea sul fronte della promozione della digitalizzazione dei sistemi gestionali nel settore delle costruzioni, è attualmente impegnato in diversi progetti innovativi mirati all’utilizzo delle intelligenze artificiali per le verifiche e i controlli automatizzati della regolarità delle imprese. Autore di numerosi libri e articoli tecnici sul tema.

ISCRIZIONE AL SEMINARIO

Azienda(*)

Ruolo(*)

Eventuali Richieste e/o Informazioni:

Acconsento al trattamento dei dati personali secondo le condizioni espresse nella pagina informativa privacy.

Acconsento di condividere i miei dati personali con Binario F ai fini della gestione dell’evento e del check-in presso la struttura di Binario F.

Scarica la scheda in formato PDF