Nessun risultato. Prova con un altro termine.
Guide
Notizie
Software
Tutorial

GDPR: quali implicazioni per il Machine Learning?

Link copiato negli appunti

Il mercato del Machine Learning è attualmente uno dei più interessati e floridi, negli ultimi anni esso sta ricevendo un grande attenzione mediatica visto il suo notevole sviluppo e la sua applicazione nei device di uso quotidiano. Tuttavia sembra che siano in arrivo alcuni problemi con la legislazione dell'Unione Europa. Infatti con l'introduzione del nuovo Regolamento generale sulla protezione dei dati (GDPR) alcuni esperti si dicono incerti sul futuro delle applicazioni che sfruttano questo tipo di algoritmi.

Tale regolamento della Commissione Europea ha lo scopo di rafforzare e rendere più omogenea la protezione dei dati personali dei cittadini UE e verrà applicato anche in Italia il 25 maggio 2018.

Ne abbiamo parlato: in buona sostanza il regolamento è indirizzato principalmente alle imprese che, per vari motivi, si ritrovano a dover gestire e conservare i dati personali dei propri utenti. Il GDPR detta quindi norme molto precise e severe sui metodi nonché sulle forme in cui tali dati vanno trattati. In particolare, è necessario fornire all'utente una motivazione valida riguardo alla raccolta e alla conservazione dei dati e tale elemento potrebbe essere la base per un possibile divieto comunitario degli algoritmi di Machine Learning.

Un algoritmo di Machine Learning si limita unicamente a collezionare dati e ad imparare da essi, senza fornire alcuna spiegazione all'utente che, di volta in volta e anche senza saperlo, fornisce accesso a dettagli della propria vita privata e ad informazioni sensibili a dei.

Il "diritto alla spiegazione", in inglese "right to explanation" è uno dei punti cardine del GDPR, l'applicazione di tale regolamento nei 28 paesi dell'Unione Europea renderà di fatto il deep learning illegale?

La risposta è No. Bisogna infatti distinguere tra il concetto di Global explanation, come l'algoritmo lavora in generale, e Local explanation cioè quali sono i fattori che contribuiscono alle specifiche decisioni intraprese da un programma e dei suoi utilizzatori.

Esistono ad esempio progetti come LIME (Local Interpretable Model-Agnostic Explanations) in grado di spiegare con precisione il comportamento dei classificatori basati sul Machine Learning. Per le aziende è dunque possibile, dietro esplicita richiesta dell'utenza o delle autorità europee, fornire i motivi della raccolta dei dati e delle attività del proprio programma.

I legislatori dell'Unione Europa hanno sicuramente voluto applicare regole più ferree per garantire una maggiore trasparenza per gli utenti e i cittadini europei. I sistemi di intelligenze artificiali infatti sono spesso delle "black boxes", difficili da analizzare ai fini di comprendere se siano o meno un rischio per la privacy.

Esistono però degli aspetti "ambigui" nel testo della GDPR, infatti esso si cita spesso il concetto di "system functionality" ma non ci sono riferimenti riguardo al concetto di "motivazione di una decisione" (Local explanation), ovvero il motivo per cui un algoritmo o un programma decide di agire in un determinato modo. Probabilmente il Parlamento Europeo farà luce su questa ambiguità nel prossimo futuro con una direttiva più specifica.

via Kdnuggets

Ti consigliamo anche