POLITICA SULL'UTILIZZO DEI COOKIE - GIUFFRE' FRANCIS LEFEBVRE SPA

Questo sito utilizza cookie di profilazione di prima parte per offrirti un miglior servizio e per trasmetterti comunicazioni in linea con le attività svolte durante la navigazione. Puoi impedire l'utilizzo di tutti i Cookie del sito cliccando MAGGIORI INFORMAZIONI oppure puoi acconsentire all'archiviazione di tutti quelli previsti dal sito cliccando su ACCONSENTI.

Continuando la navigazione del sito l'utente acconsente in ogni caso all'archiviazione degli stessi.


> Maggiori informazioni

Acconsenti

Abbonamento scaduto
Abbonamento inattivo
Numero massimo utenti raggiunto
Utente non in CRM
Manutenzione
sabato 24 ottobre 2020
Accedi   |   Contatti   |   Newsletter   |   Abbonamenti    Feed RSS
Notizie a cura di La Stampa.it |
<p>
	CIVILE e PROCESSO</p>

privacy  | 31 Luglio 2020

La privacy UE sull’Intelligenza Artificiale è un algoritmo “a partecipazione collettiva”

di Deborah Bianchi - Avvocato

Non sono più gli utenti ad essere “omologati” dall’algoritmo in un’“Identità Collettiva” ma è la “Collettività degli Utenti” a co-creare l’algoritmo. Ecco la rivoluzione del mondo digitale intelligente così come lo conosciamo. L’Intelligenza Artificiale (IA) applicandosi ai Big Data non impatta direttamente sulla singola persona ma impatta indirettamente su di essa in quanto appartenente all’ “identità collettiva” di riferimento.    

L’algoritmo di una società assicurativa vaglia i Big Data derivati dagli utenti di braccialetti-fitness-tracer per ricavare la mappa nazionale delle zone a maggior rischio infarto i cui abitanti - di conseguenza - si troveranno a pagare un premio polizza vita più alto. L’algoritmo ha costruito l’“identità collettiva-zona a rischio infarto” e impatta sull’assicurato in quanto appartenente a quell’identità collettiva.

La concezione della privacy UE sull’IA rovescia questa logica: prima pone la “Collettività degli Utenti” e poi l’algoritmo. La “Collettività degli Utenti” viene invitata a partecipare allo sviluppo del sistema intelligente rendendone legittimo il trattamento ab initio (privacy by default) e co-progettandolo (privacy by design). L’algoritmo data protection compliant sarà a partecipazione collettiva by default e by design.

In questa concezione Data Protection l’approccio al rischio ha come riferimento non solo i diritti fondamentali della persona ma anche i diritti dei gruppi o delle comunità. Questo richiede la partecipazione all’algoritmo o al sistema intelligente (es. rete neurale) di Comitati di Esperti, di Comitati Etici, di Rappresentanti del gruppo potenzialmente coinvolto dall’impatto dell’IA.

Il modello Data Protection UE sull’IA pone al centro l’uomo, l’etica, i valori sociali.

 

Inevitabilmente la valutazione di impatto sull’agente IA si spinge oltre l’ambito privacy coinvolgendo la valutazione di impatto sul diritto alla non discriminazione e alla dignità; sul diritto alla libertà di espressione; alla valutazione sulla tenuta dello stato democratico (si pensi all’identificazione biometrica da remoto – RBI); alla valutazione sull’equilibrio del mercato lato consumatore (si pensi all’ubiquità di mercato delle Big Tech e alle concentrazioni tra queste e le aziende di settore come ad es. il matrimonio tra Google e Fitbit ancora sotto la lente dell’Antitrust UE).

 

La Privacy UE sull’Intelligenza Artificiale mira alla programmazione di algoritmi o agenti intelligenti (es. reti neurali) settati di default sull’equità, sulla non discriminazione, sul rispetto della dignità umana, sulla democrazia, sulla solidarietà. Non è facile addestrare o meglio educare un sistema IA alla solidarietà ma con l’algoritmo a partecipazione collettiva potremmo almeno tentare. Pensiamo ai gruppi dei soggetti vulnerabili come bambini, anziani, persone con disabilità, minoranze etniche o gruppi storicamente emarginati, comunità LGBTQIA, lavoratori e altri a rischio esclusione.

Purtroppo, a volte, le loro diversità non vengono contemplate dal set di dati su cui l’algoritmo si è allenato e questo può causare discriminazioni o peggio anche la morte. È successo infatti che un auto driverless abbia investito un handicappato in carrozzina perchè tra il set di immagini per l’allenamento non c’era quella rappresentante la categoria “soggetto in carrozzina”. Nella maggior parte dei casi gli effetti discriminatori o comunque pregiudizievoli dell’agente IA dipendono da un’errata etichettatura dei dati di addestramento. Ecco perchè – seguendo il criterio della solidarietà – il data set deve essere sempre sufficientemente rappresentativo in modo da garantire la presenza di tutte le dimensioni rilevanti di genere, di etnia e di altri eventuali motivi di discriminazione (si veda Gruppi Vulnerabili, par. 69,70,71-72 EDPS Opinion 4/2020). La “ricchezza di sfaccettature” dei modelli rappresentativi si ottiene solo grazie alla partecipazione dei gruppi potenzialmente interessati. Gruppi che partecipano alla co-progettazione dell’algoritmo ma che devono essere messi anche in grado di esercitare un controllo umano per tutto il ciclo di vita del sistema IA.

 

Gli strumenti giuridici cui porre mano per realizzare tutto questo sotto il profilo data protection si trovano essenzialmente nell’Opinion 4/2020 del Garante Privacy UE (EDPS) unitamente alle Linee Guida della Convenzione 108 sui Big Data e sull’Intelligenza Artificiale. Tutti in commento nel presente contributo in relazione al nuovo legal framework proposto dall’Unione per l’emergente mercato dell’Intelligenza Artificiale.

 



— Il nuovo modello UE di Intelligenza Artificiale alla conquista dell’emergente “mercato IA”

— Prima due parole sul funzionamento dei sistemi di IA

— Intelligenza Artificiale. Modello UE prima fase (stadio del cloud computing)

— Intelligenza Artificiale. Modello UE seconda fase (stadio dell’edge computing)

— Privacy Ue e Intelligenza Artificiale. Quadro normativo

— Trattamento automatizzato e diritto all’intervento umano

— Diritto alla gestione umana per tutto il ciclo di vita del dispositivo intelligente. Artt. 24 e 25 e Con. 78 GDPR 2016/679

— Diritto di accesso e algoritmo “impazzito”. Artt. 13 e 15 e Cons. 7 e 13 GDPR

— Principio di non discriminazione e algoritmo “razzista”. Cons. 71 GDPR

— Intelligenza Artificiale. Il GDPR è un modello superato?

— Linee guida della Convenzione 108 e Opinion EDPS 4/2020: la privacy UE sull’IA

— Privacy UE sull’IA. Il principio di precauzione

— Privacy UE sull’IA. La gestione del “rischio per i gruppi”

— Privacy UE sull’IA. Il Parere 4/2020 del Garante UE

— Mercato digitale IA: deregulation privacy della Commissione inaccettabile per il Garante

— Approccio al rischio della Commissione troppo restrittivo. Garante per un approccio modulare e stratificato

— Dall’enforcement privacy per l’IA ad “alto rischio” ai codici di condotta volontari

— DPIA sempre obbligatoria per i sistemi IA

— Stop per i Sistemi di Remote Biometric Identification (RBI)