Il Digital Services Act in full force: adempimenti e opportunità per fornitori e utilizzatori

20-02-2024

Il Digital Services Act in full force: adempimenti e opportunità per fornitori e utilizzatori

Il Digital Services Act. Inquadramento generale.

Il 17 febbraio è diventato pienamente efficace ed applicabile, per tutti gli Internet Service Provider che offrono i propri servizi agli utenti dell’Unione Europea, il Regolamento (UE) 2022/2065 del 19 ottobre 2022 relativo a un mercato unico dei servizi digitali, meglio noto come Digital Services Act (DSA).

In uno spazio digitale ed economico in cui i gestori dei servizi infrastrutturali di Internet (gli Internet Service Provider, o ISP, per l’appunto) e, in particolare, delle piattaforme a user-generated content, tra cui quelle che consentono ai consumatori di concludere contratti a distanza, acquistano sempre più rilevanza e potere, tale Regolamento vuole modernizzare la normativa precedente (in particolare la Direttiva 2000/31/CE, c.d. “Direttiva E-Commerce”) e fondare le basi per una nuova strategia atta ad affrontare le sfide e le opportunità della sharing economy.

Il primo elemento di rilievo per comprendere l’ambito di applicazione della norma, dunque, è di tipo soggettivo. Come detto il DSA si applica a tutti i cc.dd. “servizi di intermediazione” della Rete (come definiti dall’art. 1, par. 1, lett. b) della direttiva (UE) 2015/1535), che consentono agli utenti di memorizzare e spesso condividere informazioni (come ad esempio i servizi di accesso a Internet, i servizi di cloud, i mercati online, le piattaforme di noleggio, i motori di ricerca, gli app store, i social network, ecc.) nei confronti degli utenti dell’Unione Europea.

È importante precisare, a questo proposito, che la norma supera il previgente principio del country of origin, applicandosi “ai servizi intermediari offerti a destinatari il cui luogo di stabilimento si trova nell’Unione o che sono ubicati nell’Unione, indipendentemente dal luogo di stabilimento dei prestatori di tali servizi intermediari” (Art. 2 DSA). Il Regolamento interessa, dunque, tanto gli intermediari che hanno un loro stabilimento nel territorio dell’UE, quanto quelli che, seppur stabiliti altrove, offrono i loro servizi ad utenti localizzati all’interno del territorio dell’Unione.

Essi vengono poi suddivisi per tipologia, in categorie in parte già note, recependo la distinzione (di cui alla Direttiva 2000/31/CE) tra fornitori di servizi di “semplice trasporto” (mere conduit), “memorizzazione temporanea” (caching) e “memorizzazione di informazioni” (hosting); all’interno di quest’ultima categoria vengono poi individuate alcune “nuove” sottocategorie, come quella delle “piattaforme online”, delle “piattaforme online che consentono ai consumatori di concludere contratti a distanza con gli operatori commerciali”, e delle piattaforme online e motori di ricerca definiti “di dimensioni molto grandi” (“very large online platforms”, o VLOP, e “very large search engines”, o VLOSE, utilizzate da almeno 45 milioni di utenti attivi mensili nell’Unione).

Dal punto di vista oggettivo, nella pratica, il DSA costituisce una normativa orizzontale, che si pone “l’obiettivo di garantire un ambiente online sicuro, prevedibile e affidabile, in cui i diritti fondamentali sanciti dalla Carta siano efficacemente tutelati e l’innovazione sia agevolata, contrastando la diffusione di contenuti illegali online e i rischi per la società che la diffusione della disinformazione o di altri contenuti può generare” (Cons. 9 DSA).

In altre parole, se l’obiettivo principale del Regolamento è la tutela dei diritti fondamentali in occasione del loro esercizio in Rete, il suo oggetto sono principalmente i cc.dd. “contenuti illegali” di ogni tipo diffusi online ed ogni altro rischio per la società connaturato all’esercizio di servizi online. Il DSA stesso suggerisce che il concetto di “contenuti illegali” dovrebbe “intendersi riferito alle informazioni, indipendentemente dalla loro forma, che ai sensi del diritto applicabile sono di per sé illegali, quali l’illecito incitamento all’odio o i contenuti terroristici illegali e i contenuti discriminatori illegali, o che le norme applicabili rendono illegali in considerazione del fatto che riguardano attività illegali” (Cons. 12 DSA). A titolo di esempio, si fa riferimento alla “condivisione di immagini che ritraggono abusi sessuali su minori, la condivisione non consensuale illegale di immagini private, il cyberstalking (pedinamento informatico), la vendita di prodotti non conformi o contraffatti, la vendita di prodotti o la prestazione di servizi in violazione della normativa sulla tutela dei consumatori, l’utilizzo non autorizzato di materiale protetto dal diritto d’autore, l’offerta illegale di servizi ricettivi o la vendita illegale di animali vivi” (ibidem).

Le prescrizioni del DSA: contrasto ai contenti illegali, dovere di diligenza e trasparenza, vigilanza.

La norma poggia fondamentalmente su due pilastri: un insieme di regole comuni per l’attribuzione delle responsabilità alle differenti tipologie di ISP, da un lato, e prescrizioni di carattere generale e “strutturale” applicabili ex ante, dall’altro; con prescrizioni che si fanno particolarmente stringenti per i cc.dd. “gatekeeper”, ossia le piattaforme ed i motori di ricerca di dimensioni molto grandi.

In estrema sintesi, per quanto riguarda il primo aspetto, il Regolamento recepisce (con qualche precisazione ulteriore derivante dal grande lavoro svolto nel corso degli ultimi 20 anni dalla Corte di Giustizia dell’Unione Europea) il sistema di responsabilità cui erano già sottoposti i prestatori di servizi intermediari, diversamente regolato a seconda della tradizionale suddivisione in fornitori di servizi di mere conduit, di caching e di hosting.

Come anticipato, il DSA si occupa poi di creare un insieme comune di regole che stabiliscono obblighi specifici per le diverse categorie di ISP, sempre a tutela dei diritti e degli interessi di tutte le parti coinvolte, ed in particolare dei cittadini dell’Unione. Come riportato anche nei documenti di sintesi del DSA pubblicati dalle istituzioni dell’UE, ciò avviene principalmente:

- contrastando la diffusione di contenuti illeciti online, mediante:

·         un maggiore controllo su quello che gli utenti visualizzano online e maggiori informazioni sulle pubblicità visualizzate (Artt. 14 e ss. e 26-28 DSA);

·         la capacità di riconoscere facilmente i contenuti o i prodotti illeciti e quelli che comportano incitamento all’odio e disinformazione (Artt. 16-21 DSA);

·         la fornitura di una modalità di cooperazione delle piattaforme per mezzo dei cc.dd. “segnalatori attendibili” (Art. 22 DSA);

·         l’imposizione di obblighi di tracciabilità degli operatori commerciali nei mercati online (Art. 30 DSA);

- fornendo agli utenti e ad altri soggetti interessati nuovi strumenti:

·         permettendo loro di impugnare le decisioni di modifica dei contenuti e di chiedere un risarcimento, tramite un meccanismo di controversia o un ricorso giudiziario (Artt. 53 e 54 DSA);

·         fornendo l’accesso ad autorità e ricercatori ai dati chiave generati dalle piattaforme di dimensioni molto grandi per valutare i rischi online (Art. 40 e ss. DSA);

·         offrendo trasparenza su una serie di questioni, compresi gli algoritmi utilizzati per raccomandare contenuti o prodotti (Artt. 15, 24, 27, 38, 42 DSA);

- la valutazione e la mitigazione dei rischi, tra cui:

·         obblighi per piattaforme e motori di ricerca online di dimensioni molto grandi al fine di evitare che i loro sistemi vengano utilizzati impropriamente e far sì che i loro sistemi di gestione dei rischi siano sottoposti ad audit indipendenti (Artt. 34 e 35 DSA);

·         sistemi per reagire rapidamente ed efficacemente alle crisi che colpiscono la sicurezza pubblica o la sanità pubblica (Art. 36 DSA);

·         garanzie per i minori e limiti all’uso di dati personali sensibili per la pubblicità mirata (Artt. 26-28 e 38-39 DSA);

- il rafforzamento dei meccanismi di vigilanza e di applicazione per tutti i prestatori di servizi intermediari, affidando un ruolo importante ai cc.dd. “coordinatori dei servizi digitali” in ciascuno Stato membro dell’Unione (per l’Italia il ruolo è ricoperto da AGCOM) (Art. 49 e ss.).

Nuovi strumenti ed opportunità per utenti e titolari di diritti.

Il Regolamento, nell’ambito di tutte le disposizioni di natura precettiva direttamente applicabili specificamente ai fornitori di servizi intermediari, indirettamente coinvolge e si rivolge anche ad altre tipologie di soggetti.

Tra questi vi sono naturalmente i destinatari degli stessi servizi di intermediazione ed ogni altro soggetto interessato, tra cui vengono in considerazione, in particolare, i titolari dei diritti che possono essere oggetto di violazione online, per mezzo dei servizi intermediari individuati.

Il DSA, dunque, impatta anche tali soggetti e fornisce loro importanti indicazioni operative, utili a capire come comportarsi, quali precauzioni adottare e come approcciarsi alle procedure ed agli strumenti posti a loro disposizione ed a loro tutela, in particolare in riferimento alle procedure di contrasto ai contenuti illegali.

A questo proposito è senz’altro il caso di richiamare quelle indicazioni relative alla possibilità per utenti e soggetti interessati di segnalare ai fornitori dei servizi la presenza di contenuti illegali sui propri sistemi (Art. 16 e ss. DSA), e di presentare una richiesta all’autorità giudiziaria o amministrativa competente per l’emissione di un ordine di rimozione di contenuti illegali (Art. 9 DSA) o di rilascio di informazioni identificative di un destinatario del servizio (Art. 10 DSA).

In entrambi i casi è bene sapere, infatti, che è innanzitutto compito dei soggetti richiedenti individuare, nella propria segnalazione o richiesta di intervento dell’autorità, tra l’altro:

- la motivazione per cui le informazioni oggetto di richiesta costituiscano contenuti illegali, o dell’obiettivo perseguito con la richiesta di informazioni;

- informazioni chiare che consentano al prestatore di servizi intermediari di individuare e localizzare i contenuti illegali in questione, quali uno o più URL esatti e, se necessario, informazioni supplementari;

- informazioni chiare che consentano al prestatore di servizi intermediari di identificare il destinatario o i destinatari specifici interessati (e dei quali sono richieste le informazioni), quali uno o più nomi di account o identificatori unici.

A questo proposito è opportuno ricordare come le regole dettate dal DSA vadano coordinate con le ulteriori disposizioni di legge vigenti (e che dal DSA vengono espressamente fatte salve).

È il caso, ad esempio, di alcune norme introdotte nella Legge sul Diritto d’Autore dal D.Lgs. n. 177/2021, di recepimento della Direttiva (UE) 2019/790 (c.d. “Direttiva DSM”), che ha previsto, tra l’altro, una regolamentazione particolare delle procedure di notice and take down delle piattaforme online a user-generated content (sulla cui definizione v. l’art. 2, n. 6) della Direttiva). In particolare, l’art. 102-decies della Legge sul Diritto d’Autore prevede che quando i titolari dei diritti chiedono al prestatore di servizi di condivisione di contenuti online di disabilitare l’accesso a loro specifiche opere o ad altri materiali o di rimuoverli, devono indicare i motivi della richiesta e le decisioni sulla richiesta di disabilitazione o la rimozione dei contenuti sono soggette a verifica umana.

Sempre nell’ambito delle procedure relative al contrasto ai contenuti illegali, il DSA prevede poi che gli utenti e gli altri soggetti che abbiano presentato una segnalazione verso un fornitore di un servizio di “piattaforma online” hanno diritto di presentare un reclamo avverso la decisione del fornitore stesso (Art. 20 DSA), nonché di rivolgersi ad un organismo di risoluzione extragiudiziale delle controversie, in caso di disaccordo (Art. 21 DSA).

Infine, vengono espressamente previsti un diritto degli utenti e degli ulteriori soggetti interessati a presentare un reclamo presso il coordinatore dei servizi digitali dello Stato membro in cui il destinatario del servizio è situato o è stabilito (in Italia, come già menzionato, AGCOM), diretto nei confronti di uno o più fornitori di servizi intermediari e vertente sulla violazione del Regolamento da parte loro (Art. 53 DSA), nonché un diritto di “chiedere un risarcimento” ai fornitori di servizi intermediari “relativamente a danni o perdite subiti a seguito di una violazione degli obblighi stabiliti dal presente regolamento da parte dei fornitori di servizi intermediari” (Art. 54 DSA).

 

Avv. Riccardo Traina Chiarini

Trevisan & Cuonzo

TAGS

Trevisan & Cuonzo


TOPLEGAL REVIEW

Per ogni numero selezioniamo minuziosamente i temi che interessano davvero gli avvocati d'impresa.

Se conta, ne parliamo.

 

Sei già abbonato? Sfoglia la tua rivista


TopLegal Review edizione digitale
ENTRA