Le piattaforme web di grandi dimensioni e i motori di ricerca svolgono un ruolo fondamentale nella vita quotidiana delle persone, e dei minori in particolare.

Un ambiente online più sicuro, e la repressione dei contenuti illeciti che incitano all’odio e alla disinformazione, sono gli obiettivi del regolamento UE sui servizi digitali (Digital Services Act), il quale, entrato in vigore nell’agosto del 2023, punta a disciplinare il mondo online, modificando la precedente direttiva 2000/31.

Chi dovrà adeguarsi al Digital Services Act

Le 19 piattaforme individuate dalla Commissione europea che dovranno rispettare gli obblighi della legge UE sui servizi digitali sono i due grandi motori di ricerca Bing e Google, oltre a 17 Big Tech company che si occupano di:

  • Social media (Facebook, Instagram, Twitter, TikTok, Snapchat, LinkedIn, Pinterest)
  • Commercio elettronico (Alibaba, AliExpress, Amazon Store, Apple AppStore, Zalando)
  • Servizi Google (Google Play, Google Maps, Google Shopping)
  • Turismo, informazione e intrattenimento (Booking.com, Wikipedia, YouTube)

Come già anticipato dopo la pubblicazione in Gazzetta Ufficiale Europea, il regolamento verrà applicato a partire dal 17 febbraio 2024.

La normativa, dal lato degli operatori economici, si propone di promuovere l’innovazione, la crescita, la competitività, e la facilitazione dell’espansione delle piattaforme più piccole, delle PMI e delle start-up.

Feed senza algoritmo

Una prima novità è la possibilità di decidere liberamente cosa vedere su Facebook e Instagram. 

Grazie all’introduzione del Digital Services Act, infatti, Meta permetterà agli utenti europei di visualizzare e cercare contenuti saltando il filtro dell’algoritmo.

Ad esempio, sarà possibile vedere nella propria home solo i post delle persone seguite, in ordine cronologico.

Insomma, si potrà avere un maggiore controllo sui contenuti da visualizzare, senza meccanismi di selezione automatici che scelgono cosa proporre sulla base di azioni di monitoraggio svolte in precedenza.

Segnalazioni e censure

Le grandi piattaforme online saranno inoltre obbligate a fornire maggiori informazioni sui motivi per i quali è stato cancellato un post o bloccato un profilo.

Queste motivazioni serviranno a evitare che gli utenti si imbattano in contenuti non idonei alla loro età, ma anche a permettere loro di acquisire le capacità necessarie a individuarli e segnalarli.

Le piattaforme dovranno perciò dotarsi di un team dedicato unicamente alla moderazione e alla lettura delle segnalazioni.

Sicurezza e privacy

Un’altra priorità del Digital Services Act sarà garantire la sicurezza e la privacy degli utenti online, bloccando la diffusione di contenuti dannosi, come quelli che promuovono la violenza.

Ciò non limiterà la libertà di espressione, che anzi è intenzione del regolamento tutelare, ma ogni condivisione dovrà seguire regole più stringenti, e sarà attentamente monitorata.

Trasparenza sulla pubblicità

Per limitare l’influenza negativa della pubblicità online, questa non potrà utilizzare dati sensibili, come la fede religiosa, la salute, o l’orientamento sessuale.

Le aziende dovranno inoltre controllare gli investitori pubblicitari.

Per ogni post pubblicato saranno tenute a conservare le informazioni riguardanti chi lo ha prodotto, per quanto tempo è stato mostrato, e a quale gruppo (basandosi su età, sesso, ecc.), in modo che il messaggio e la sua origine siano trasparenti per i destinatari.

Saranno infine vietati i “dark pattern”, ovvero quelle interfacce accuratamente progettate per indirizzare gli utenti verso precise scelte, e quindi per orientare i loro comportamenti in modo subdolo.

Sanzioni

Al fine di rendere effettiva l’osservanza delle sue disposizioni, il Digital Services Act ha stabilito un impianto sanzionatorio per chi violerà le sue regole.

Si parla di ammende fino al 6% del fatturato annuo globale e, in caso di recidiva, del divieto di operare sul territorio europeo. 

Inoltre, la Commissione vigilerà sulle 19 entità designate, lavorando a stretto contatto con le autorità nazionali responsabili del controllo delle piattaforme e dei motori di ricerca di dimensioni più ridotte, che ogni Stato membro dovrà istituire.

Più tutela per i minori

Ogni misura prevista dal Digital Services Act ha l’intento di proteggere innanzitutto la sicurezza di bambini e adolescenti.

In riferimento a ciò, una volta l’anno le piattaforme dovranno effettuare una valutazione dei rischi per i minori, evitando di indirizzarli verso contenuti violenti, discriminatori e dannosi per la salute.

In particolare, verrà impedita la condivisione di “challenge”, ossia di sfide pericolose che possano costituire una minaccia concreta al loro sviluppo e alla loro crescita.

Con l’introduzione del Digital Services Act, bambini e ragazzi saranno dunque più tutelati nella fruizione dei contenuti digitali presenti sulle principali piattaforme online.

Queste, a loro volta, potranno essere utilizzate con maggiore sicurezza anche a fini educativi, dato che il mondo della scuola fa sempre più riferimento ai nuovi strumenti digitali come integrazione alla didattica tradizionale.