Il rapporto media-minori: breve riflessione sul consapevole utilizzo da parte dei minori sui social

Condividi

La tristissima vicenda della bambina di Palermo, deceduta per strangolamento per aver partecipato ad una scellerata estrema challenge sulla piattaforma più rinomata tra i giovanissimi Tik Tok, fusa con Musical.ly e creata dall’azienda ByteDance, rappresenta lo spunto per affrontare la comunque non nuova necessità di regolamentare l’utilizzo consapevole del web da parte dei minorenni, e in particolare la presenza dei minori sui social, atteso il significativo numero di suicidi di giovanissimi o di atti di autolesionsmo, in conseguenza della partecipazione a sfide sui social network; non è lontano, invero, il ricordo del terribile caso del “Blue Whale” su Reddit.

Nel caso da ultimo ricordato, la bambina di 9 anni risultava iscritta a diverse piattaforme social alle quali si accede, mediante iscrizione, senza alcun controllo stringente dell’età anagrafica, dato il divieto facilmente aggirabile di iscrizione al di sotto dei 13 anni.

Tik Tok Blackout challenge e istigazione al suicidio sui social: possibili profili di responsabilità penale per gli ISP?

Il vuoto normativo veniva rilevato, di certo, dalla risonanza mediatica della vicenda citata ma, altresì, dal Garante per la Privacytutela dei minori che, dapprima, ha chiesto ai gestori delle piattaforme social cui la minorenne era iscritta di fornire informazioni sui suoi profili aperti su Facebook, Instagram, Tik Tok e sulle relative modalità di iscrizione, auspicando l’adozione indifferibile di misure che “pur evitando di accentrare in capo alle piattaforme una sorta di anagrafe mondiale, siano tuttavia effettivamente in grado di accertare, in maniera univoca e non eludibile, l’età dei soggetti che vi accedono” (cfr. Le sfide social e le armi spuntate del Garante. “Verifica sull’età? C’è un vuoto di legge”, Quotidiano.net, 28.01.2021).

La tutela dei minori

Non può non evidenziarsi, peraltro, che alquanto deludenti siano stati gli interventi in tema di tutela pubblicistica del minore a carattere extra penale, rappresentati quasi unicamente dall’esperienza, giammai avviata, di un codice di autoregolamentazione internet e minori adottato nel 2003.

Allorquando si disquisisce in tema di interventi a tutela dei minori o di altri interessi generali, a dire il vero, si avverte fortemente il rischio che siffatte iniziative possano essere lette come misure di carattere censorio e, dunque, incompatibili con le libertà costituzionali e di cui alla Carta dei diritti fondamentali UE.

Il consenso digitale dei minori su Facebook

Già dal 1996, invero, a livello europeo si è precisato che qualsiasi misura normativa tesa a salvaguardare i minori “non debba assumere la forma di una proibizione assoluta di impiegare internet (…)” (cfr. Comunicazione al Parlamento europeo, al Consiglio, al Comitato economico e sociale, al Comitato delle regioni “informazioni di contenuto illegale e nocivo su internet”, COM. (96) 487), per approdare alla successiva Raccomandazione del Parlamento europeo e del Consiglio del 20.12.2006, relativa alla tutela dei minori e della dignità umana e al diritto di rettifica relativamente alla competitività dell’industria europea dei servizi audiovisivi e d’informazione in linea, con cui la tutela dei minori veniva ancorata ai principi costituzionali di cui agli artt. 1 e 24 della Carta dei diritti fondamentali, rimarcando la necessità di operare un bilanciamento tra l’esigenza di protezione dei minori e le libertà informative.

Con il suddetto strumento, già si sviluppava l’invito ad attivare, in favore dei minori, appositi sistemi di filtro per l’accesso ai servizi audiovisivi (come blacklisting, whitelisting, walled gardens, international content rating system) e altre strategie pratiche come la realizzazione di un sistema di simboli descrittivi comuni o messaggi di avvertimento, indicando la fascia di età che aiutasse a valutare il contenuto dei servizi audiovisivi e d’informazione in linea o attraverso l’attivazione di software per il controllo parentale.

Unitamente a tale linea d’azione si colloca il ruolo della cd. media education che dovrebbe essere svolta in maniera capillare presso le scuole ma che stenta ad attivarsi, come rilevato da uno studio dell’Agenzia esecutiva per l’istruzione, gli audiovisivi e la cultura, da cui si ricava che la sicurezza in linea risulta materia specifica nei programmi scolastici in ben 23 Paesi, ma tale previsione rimane largamente inattuata, soprattutto per carenza di adeguate risorse.

GDPR: la tutela dei dati personali dei minori

Tenendo conto delle sopra accennate implicazioni problematiche derivanti dall’impiego sempre più massivo delle nuove tecnologie, soprattutto da parte di una platea di giovanissimi, il 22.01.2021, la nostra Autorità Garante è pervenuta a disporre, ai sensi dell’art. 58 par. 2, lett. f) del Regolamento GDPR, nei confronti di Tik Tok, in via d’urgenza, “la misura della limitazione provvisoria del trattamento, vietando l’ulteriore trattamento dei dati degli utenti per i quali non vi sia assoluta certezza dell’età e, conseguentemente, del rispetto delle disposizioni collegate al requisito anagrafico”.

L’omologa Autorità irlandese, ove insiste il Data Center europeo per Tik Tok, si è impegnata a verificare l’effettivo rispetto del provvedimento di blocco da parte della piattaforma, impegnatasi a dare attuazione al provvedimento, bloccando ad horas l’utenza italiana e chiedendo di fornire la data di nascita per poter accedere ex novo al social, attivando, al contempo, sistemi di intelligenza artificiali di age verification per identificare con maggiore certezza ed efficacia gli utenti di età inferiore ai 13 anni, inviando notifiche push, invitando al cambio delle credenziali, aumentando il numero dei moderatori di lingua italiana, diffondendo codici di condotta, promuovendo campagne informative indirizzate anche e soprattutto ai genitori, rafforzando la consapevolezza tra i genitori stessi, sviluppando forme di peer support e di apposite helplines.

TikTok e Garante Privacy a confronto

Proprio a tal riguardo, si è inteso attivare una collaborazione tra Garante Privacy e Telefono Azzurro al fine di sensibilizzare e coinvolgere i genitori perché implementino la propria vigilanza sugli accessi ai social da parte dei figli minori, intesi quali soggetti deboli che, come tali, vanno tutelati.

E ciò in quanto la tutela dei minori, avverso contenuti illeciti facilmente fruibili attraverso uno sconsiderato ed incontrollato accesso al web, passa, necessariamente, attraverso l’attenzione preventiva da parte dei genitori e, in via successiva, da parte della magistratura, polizia postale.

A tanto si accompagna, non da ultimo, l’attività del Garante che ha l’espresso compito di vigilare sistematicamente sul rispetto degli obblighi gravanti sui gestori delle piattaforme social al fine di tutelare gli utenti più vulnerabili dell’ambiente digitale, promuovendo “una vera e propria pedagogia digitale, capace di rendere i minori consapevoli delle grandi opportunità, ma anche dei rischi che caratterizzano l’ecosistema digitale e che, con l’adozione di alcune minime cautele, possono essere sensibilmente ridotti. La via della consapevolezza è quella necessaria per non privare i minori, almeno ultra 14enni, di una socialità che oggi si esprime in questi termini, conferendo loro, tuttavia, anche gli strumenti indispensabili per orientarsi in un contesto che altrimenti è davvero troppo più grande di loro” (cfr. Le sfide social e le armi spuntate del Garante. Ibidem).

Tiziana di Palma

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *