Facebook obbligata alla rimozione dei contenuti equivalenti. Arriva il filtraggio special preventivo per i diritti della persona

Facebook sarà obbligata a rimuovere i post lesivi non solo in via successiva ma anche in via preventiva se la Corte di Giustizia accoglierà la soluzione prospettata dall'Avvocato Generale. Nessun contrasto con il divieto dell'obbligo generale di sorveglianza ex art. 15, par. 1, Direttiva 2000/31/CE perchè si tratta di obblighi di rimozione per casi specifici.

Viene ammesso il filtraggio special preventivo verso tutti gli utenti portata personale per i contenuti identici portata sostanziale nonché - unicamente verso l'utente autore portata personale - per i contenuti equivalenti portata sostanziale a quelli qualificati illeciti dal giudice. I contenuti equivalenti devono essere ben determinati sia nell'oggetto che nella durata temporale. Inoltre il giudice deve auto-limitarsi nella disposizione di tali misure applicando la logica del balance declinato secondo il criterio di proporzionalità onde evitare di imporre attività troppo generiche e/o oltremodo laboriose per il provider. L'introduzione dei contenuti equivalenti impone al provider l'adozione di misure preventive idonee a contenere il rischio di sinistri internet secondo la diligenza dovuta dall'internet provider professionale, ammettendo così nell'area dei diritti della persona un principio di responsabilità per colpa già esistente nell'ambito del diritto di proprietà intellettuale, es. Cass. 19.03.2019, Caso RTI/Yahoo! . Resta confermato il filtraggio successivo a seguito della notifica. Si ammette che il filtraggio possa essere applicato a livello mondiale portata territoriale ma con la dovuta moderazione derivante dal balance dei diritti in gioco secondo il criterio della proporzionalità. Si vuole legare la portata territoriale del filtraggio al principio dell'effettività della tutela come già esposto nelle Conclusioni del 10.01.2019 nella causa C-507/19 Google/CNIL, par. 76,77,78. Il caso. In data 4 giugno 2019 sono state pubblicate le Conclusioni dell'Avvocato Generale della CGUE sul caso di diffamazione a mezzo Facebook ai danni di una deputata del Parlamento austriaco, portavoce del partito dei Verdi. La particolarità del caso si coglie nelle ulteriori nuove attività richieste al provider nell'ipotesi di sinistro ovvero non solo la rimozione dei contenuti lesivi indicati dalla danneggiata ma anche la rimozione dei contenuti equivalenti nonché la relativa rimozione a livello mondiale. Il 3 aprile 2016 un utente austriaco di Facebook ha condiviso sulla propria pagina personale un articolo della rivista online oe24.at dedicato ai Verdi con foto della relativa portavoce commentandolo con frasi denigranti brutta traditrice del popolo , imbecille corrotta , membro di un partito di fascisti . Il 7 luglio 2016 l'interessata ha chiesto a Facebook Ireland di cancellare il post lesivo senza ottenere alcun risultato. Così ha attivato il giudizio per ottenere un provvedimento inibitorio che è stato emesso il 7 dicembre 2016 dal Tribunale del Commercio di Vienna, poi riconfermato in secondo grado, fino a giungere di fronte alla Corte Suprema austriaca che ha rimesso la questione alla CGUE con provvedimento del 25 ottobre 2017. Le questioni pregiudiziali sottoposte all'alto Collegio europeo vertono sulla responsabilità del provider in merito agli obblighi di sorveglianza e all'art. 15, paragrafo 1, Direttiva 2000/31/CE sul divieto di un obbligo generale di sorveglianza. Precisamente le questioni pregiudiziali sono le seguenti - se l'art. 15, par. 1, Direttiva 2000/31/CE osti a che un host provider di una rete sociale sia costretto a ricercare e ad individuare filtraggio special preventivo - le informazioni identiche a quella qualificata illecita dal giudice dell'ingiunzione portata personale dell'obbligo di rimozione tutti gli utenti - le informazioni equivalenti a quella qualificata illecita dal giudice dell'ingiunzione portata personale dell'obbligo di rimozione solo verso l'utente autore dell'illecito - se l'art. 15, par. 1, Direttiva 2000/31/CE osti a che un host provider di una rete sociale sia costretto a rimuovere le informazioni lesive a livello mondiale filtraggio special preventivo con portata territoriale mondiale - se l'art. 15, par. 1, Direttiva 2000/31/CE osti a che un host provider di una rete sociale sia costretto a rimuovere informazioni equivalenti qualora l'obbligo di rimozione discenda da una conoscenza risultante dalla notifica eseguita dalla parte interessata, dai terzi o da un'altra fonte filtraggio specifico successivo . Prima questione pregiudiziale. L'obbligo di rimozione di contenuti identici ed equivalenti non è in conflitto col divieto generale di sorveglianza ex art. 15, par. 1, Direttiva 2000/31/CE. Viene ammesso il filtraggio specifico preventivo. L'art. 15, par.1, Direttiva 2000/31/CE stabilisce il divieto di imporre al provider un obbligo generale di sorveglianza e di ricerca attiva in via generale dei contenuti illeciti. In difetto si avrebbe un filtraggio generale e massivo della rete nell'ottica Grande Fratello escludendo la figura del provider neutro. Tuttavia per finalità preventive viene introdotto solo per il caso specifico l'obbligo di ricerca e rimozione dei contenuti identici e dei contenuti equivalenti a quelli ritenuti illeciti dal giudice. Un obbligo specifico di rimozione non contrasta col divieto di un obbligo generale di sorveglianza perché il filtraggio è solo su contenuti precisi. Viene ammesso il filtraggio special preventivo dei contenuti identici con portata personale verso tutti gli utenti della piattaforma es. caso della condivisione dei post lesivi . Viene ammesso il filtraggio special preventivo dei contenuti equivalenti con portata personale unicamente verso l'utente autore degli illeciti. I contenuti identici sono quelli uguali alle informazioni illecite determinate dal giudice e provenienti dall'autore stesso o da terzi. I contenuti equivalenti sono quelli di significato simile alle informazioni illecite determinate dal giudice e provenienti dall'autore stesso i terzi sono esclusi . Ove il giudice decida di ingiungere anche la rimozione dei contenuti equivalenti, deve auto-limitarsi determinando con esattezza l'oggetto e la durata temporale del filtraggio. Inoltre il giudice deve garantire che gli effetti della sua ingiunzione siano chiari, precisi e prevedibili al fine di evitare la genericità che farebbe ricadere il comando giudiziale nell'ambito dell'obbligo generale di sorveglianza vietato dall'art. 15, par. 1, DIR/2000/31/CE. L'unico modo per ottenere un'intimazione chiara, precisa e prevedibile si individua nel meccanismo del balance tra i diritti fondamentali contrapposti adottando il criterio della proporzionalità. La protezione della vita privata e dei diritti della personalità non deve necessariamente essere assicurata in maniera assoluta ma deve essere ponderata con la protezione di altri diritti fondamentali. Occorre pertanto evitare misure esorbitanti, le quali trascurerebbero il compito di assicurare un giusto equilibrio fra i diversi diritti fondamentali Conclusioni Avvocato Generale Maciej Szpunar del 4.06.2019, causa C-18/18, Eva Glawischnig-Piesczek/Facebook Ireland, par. 102 . Seconda questione pregiudiziale. L'obbligo di rimozione a livello mondiale non è in conflitto col divieto generale di sorveglianza ex art. 15, par. 1, Direttiva 2000/31/CE. Viene ammesso il filtraggio con portata territoriale mondiale. L'art. 15 della Direttiva 2000/31/CE non disciplina gli effetti territoriali delle ingiunzioni. Lo stesso Regolamento numero 1215/2012 dispone in tema di effetti prodotti dalle ingiunzioni negli Stati Membri però nulla dice e nulla può dire degli effetti a livello extra UE. In definitiva, la portata territoriale dell'obbligo di rimozione - non essendo contemplata nella Direttiva 2000/31/CE - non resta sottoposta a questa direttiva e quindi non è soggetta neppure all'art. 15, par. 1, Direttiva 2000/31/CE che pertanto non osta a che l'ingiunzione possa avere effetti a livello mondiale. Tuttavia, il giudice dovrebbe limitare al necessario gli effetti della sua ingiunzione. Parrebbe che l'Avvocato Generale voglia legare la portata territoriale del filtraggio al principio dell'effettività della tutela come già esposto nelle Conclusioni del 10.01.2019 nella causa C-507/19 Google/CNIL 76. La direttiva 95/46, mira[ndo] a garantire un elevato grado di tutela [nell’Unione] 40 , è volta a creare un sistema completo di protezione dei dati che oltrepassa le frontiere nazionali. Fondata sull’originario articolo 100a TCE 41 , essa si inserisce in una logica di mercato interno che comporta, bisogna ricordarlo, uno spazio senza frontiere interne 42 . Ne consegue che una cancellazione a livello nazionale contrasterebbe con detto obiettivo di armonizzazione e con l’efficacia pratica delle disposizioni della direttiva 95/46 43 . 77. Inoltre, occorre osservare che, nella vigenza del regolamento 2016/679, tale questione nemmeno si pone, posto che il regolamento è, in quanto tale, direttamente applicabile in ciascuno degli Stati membri 44 . Fondato sull’articolo 16 TFUE, il regolamento 2016/679 trascende l’approccio del mercato interno della direttiva 95/46 e mira a garantire un sistema completo di protezione dei dati personali all’interno dell’Unione 45 . Il regolamento di cui trattasi si riferisce sistematicamente all’Unione, al territorio dell’Unione o agli Stati membri 46 . 78. Pertanto, propongo di rispondere alla seconda e alla terza questione pregiudiziale dichiarando che il gestore di un motore di ricerca è tenuto a sopprimere i link controversi che appaiono in esito a una ricerca effettuata, a partire dal nome del richiedente, da un luogo situato all’interno dell’Unione europea. In tale contesto, detto gestore è tenuto ad adottare tutte le misure a sua disposizione per garantire una cancellazione efficace e completa. Ciò include, in particolare, la tecnica detta del blocco geografico da un indirizzo IP che si ritiene localizzato in uno degli Stati membri assoggettato alla direttiva 95/46, e ciò indipendentemente dal nome di dominio utilizzato dall’utente di Internet che effettua la ricerca . Terza questione pregiudiziale. L'obbligo di rimozione di informazioni equivalenti a seguito di notifica della parte interessata, dei terzi o da un'altra fonte non è in conflitto col divieto generale di sorveglianza ex art. 15, par. 1, Direttiva 2000/31/CE. Viene confermato il filtraggio specifico successivo. Quando l'obbligo di rimozione derivi da conoscenza degli illeciti dovuta a notifica non siamo di fronte a un obbligo generale di sorveglianza ma a un obbligo specifico circoscritto dai termini della notifica stessa. Pertanto non esiste nessuna violazione del divieto di cui all'art. 15, par. 1, Direttiva 2000/31/CE. Responsabilità per colpa del provider nell'area dei diritti della persona. La vicenda in oggetto si presta - ove la CGUE accolga le Conclusioni dell'Avvocato Generale - a rappresentare un interessante avamposto della giurisprudenza europea in tema di responsabilità del provider nell'area dei diritti della persona. L'evoluzione giurisprudenziale sulla responsabilità del provider si svolge in varie fasi il regime della non responsabilità del provider il regime della erosione delle esenzioni da responsabilità il regime della accountability o responsabilità per colpa . Il regime della non responsabilità sottintende un provider neutro secondo il considerando 42 della Direttiva 2000/31/CE ovvero un intermediario dal comportamento meramente tecnico, automatico e passivo. Siffatto gestore non ha nessun controllo né alcuna conoscenza sui dati trattati. In una società data driven come la nostra, il provider non è mai del tutto neutro in quanto le relative attività implicano almeno l'impiego di file log. Nella maggior parte dei casi il provider saggia e/o gestisce - fruendo di potenti algoritmi - le basi informative digitali di cui dispone. Si tratta di un nuovo tipo di provider che conosce o può conoscere i dati trattati, che certamente li controlla e spesso li manipola la giurisprudenza lo definisce provider attivo CGUE Caso Vuitton/Google AdWords del 23.03.2010, CGUE Caso L'Oreal/eBay del 12.07.2011, CGUE Caso Scarlet/Sabam del 24.11.2011, CGUE Caso UPC Telekabel/Costantin e Wega del 27.03.2011, CGUE Caso Costeja/Google Sarch del 13.05.2014 . La comparsa del provider attivo segna il passaggio al regime dell'erosione delle esenzioni da responsabilità fino a giungere al regime dell'accountability o responsabilità per colpa cui pare appartenere anche il caso sotteso alle Conclusioni in oggetto. Nella vicenda in parola tra la parlamentare austriaca e Facebook, quest'ultimo - ospitando una rete sociale online - è certamente un provider attivo dal quale ci si aspetta non solo la rimozione dei contenuti segnalati ma anche una condotta proattiva tesa a eliminare le informazioni identiche e quelle equivalenti . L'introduzione dell'obbligo di comportamenti proattivi per evitare la responsabilità determina anche l'introduzione di misure adeguate per contenere il rischio di ulteriori illeciti. Tali misure possono individuarsi in appositi algoritmi filtraggio dedicati a cancellare in modo automatico tutte le informazioni identiche e quelle equivalenti al contenuto qualificato illecito dall'ordinanza cautelare. Tutto questo depone a favore dell'ammissione della colpa nell'ambito del sinistro internet cosicché la diligenza dovuta dall'internet provider professionale implica l'adozione di certe misure. Ove queste non siano state disposte si verifica la scarsa diligenza del gestore e il conseguente presupposto di responsabilità. La normativa europea distingue un host provider neutro da un host provider ipoteticamente responsabile mediante l'evento conoscenza effettiva . Quando il gestore ha ricevuto la segnalazione di contenuti illeciti sulla propria piattaforma passa dallo stato di neutralità a quello di eventuale responsabilità che potrà essere scongiurata mediante la ricerca e la rimozione degli illeciti. L'evoluzione della giurisprudenza europea si è spinta oltre il legislatore, cercando di adeguarsi allo sviluppo esponenziale delle nuove tecnologie digitali. Così accanto alla responsabilità a posteriori del provider neutro stigmatizzata dalla notifica è stata forgiata la responsabilità del provider attivo. Ad oggi, gli ultimi arresti sia nell'area della tutela della proprietà intellettuale sia nell'area della tutela dei diritti della persona introducono la responsabilità per colpa del provider - neutro o attivo - che non abbia adottato le misure idonee per prevenire l'illecito es. filtraggio special preventivo secondo la diligenza dovuta dall'internet provider professionale. Possiamo pertanto osservare che il divieto di imporre obblighi generali di sorveglianza non riguarda le vicende in cui si rende necessario imporre un obbligo di sorveglianza per contenuti specifici filtraggio . In definitiva viene ammessa l'ipotesi di obblighi di sorveglianza specifici anche preventivi filtraggio special preventivo in perfetta sintonia col considerando 47 della DIR/2000/31/CE e col relativo art. 18 incentrato sull'effettività della tutela realizzata tramite attività di prevenzione di ulteriori danni. Tale tesi trova conforto anche nella CGUE Caso L'Oreal/eBay del 2011 che ammette l'adozione di misure idonee ad evitare nuove violazioni della stessa natura di quelle segnalate. In conclusione, al fine di prevenire qualsiasi futura violazione, un host provider può essere costretto a rimuovere contenuti lesivi che non sono ancora stati diffusi al momento dell'ingiunzione senza che la diffusione di tali informazioni venga portata di nuovo a conoscenza del provider e senza che sia necessario un nuovo giudizio inibitorio condotta proattiva autonoma del provider ovvero misure di filtraggio special preventivo . In questi casi il gestore deve adottare delle misure preventive idonee ad evitare l'illecito secondo la diligenza dovuta dall'internet provider professionale. In difetto sarà responsabile per colpa. L’hosting provider è chiamato quindi a delibare, secondo criteri di comune esperienza, alla stregua della diligenza professionale tipicamente dovuta, la comunicazione pervenuta e la sua ragionevole fondatezza ovvero, il buon diritto del soggetto che si assume leso,tenuto conto delle norme positive che lo tutelano, come interpretate ad opera della giurisprudenza interna e comunitaria , nonché, in ipotesi di esito positivo della verifica, ad attivarsi rapidamente per eliminare il contenuto segnalato Cass. 19.03.2019, Caso RTI/Yahoo! .