Vulnerabilità all’addiction, tra contenuti pericolosi e interesse economico: l’AGCM sanziona TikTok

Premessa

Con Delibera del 5 marzo 2024, la nota società di video sharing è stata sanzionata, dall’Autorità garante della concorrenza e del mercato, per esercizio di pratiche commerciali scorrette.

In rilievo questioni di primaria importanza: la tutela dei minori e la trasparenza nel trattamento dei dati personali.

Il procedimento sanzionatorio si inquadra in un contesto di crescente attenzione verso il fenomeno dei social media che genera l’esigenza di assicurare un livello elevato di protezione nell’ambiente digitale, specie per i soggetti più vulnerabili. Il social network è difatti ampiamente utilizzato dai minori per la facilità di condivisione di video di breve durata, secondo una modalità consumistica in linea con l’attuale e diffusa tendenza alla velocità di produzione e fruizione.

In questo senso, la recente “Risoluzione del Parlamento europeo del 12 dicembre 2023 sulla progettazione di servizi online che crea dipendenza e sulla tutela dei consumatori nel mercato unico dell’UE” evidenzia che molti servizi digitali progettano i propri sistemi per profittare della vulnerabilità degli utenti al fine di catturarne l’attenzione e aumentare la quantità di tempo che trascorrono sulle piattaforme, e che “alcuni servizi, prodotti o funzioni che potenzialmente non hanno alcun effetto sugli adulti possono invece essere estremamente rischiosi e dannosi per i minori e creare dipendenza in questi ultimi”.

Viene anche considerato che taluni sistemi di raccomandazione di contenuti digitali, fondati su meccanismi di personalizzazione e di interazione, contribuiscono al funzionamento delle piattaforme per migliorare lo scambio sociale, ma mirano altresì a trattenere surrettiziamente gli utenti sulla piattaforma.

La Risoluzione prende atto della recente ipotesi scientifica sull’esistenza di fenomeni di vera e propria “dipendenza dai social media(addiction), sostanzialmente analoga a quella da consumo di sostanze stupefacenti.

Orbene, le condotte oggetto del provvedimento sanzionatorio dell’Autorità, risultano appieno sussumibili nell’alveo di criticità descritte dalla detta Risoluzione. Sono infatti finalisticamente preordinate a incrementare la permanenza sulla piattaforma degli utenti, soprattutto minori, mediante contenuti anche pericolosi, ed afferiscono precipuamente:

a) alla violazione degli obblighi di diligente applicazione delle proprie Linee Guida comunicate agli utenti;

b) all’indebito condizionamento degli utenti attraverso la riproposizione di contenuti che sfruttano la vulnerabilità di alcuni gruppi di consumatori;

c) all’inadeguatezza delle misure di controllo e vigilanza adottate da TikTok sui contenuti pubblicati dagli utenti, con particolare riferimento alla tutela dei soggetti minori e vulnerabili;

d) alla diffusione di contenuti in grado di minacciare la sicurezza psico-fisica di bambini ed adolescenti.

Difatti, l’analisi della piattaforma consente di acquisire evidenze inerenti ai seguenti profili di lesività:

1) personalizzazione dei contenuti visualizzati dagli utenti attraverso un sistema di raccomandazione dei contenuti digitali fondato su meccanismi di profilazione algoritmica;

2) presenza di contenuti pericolosi, insufficienti iniziative rispetto agli stessi e riproposizione dei contenuti tramite un efficace sistema di raccomandazione;

3) interesse economico di TikTok a massimizzare presenze e attività degli utenti sulla propria piattaforma;

4) carente applicazione contrattuale delle Linee Guida della Community.

5) scarsa efficacia di strumenti e interventi a tutela dei minorenni.

Personalizzazione dei contenuti

Dagli atti del procedimento è emerso che la modalità più diffusa per consultare i contenuti di TikTok è lo scorrimento del feed “per te”, all’interno del quale brevi video sono proposti automaticamente anziché essere scelti dall’utente. I video sono selezionati per ciascun utente da un “sistema di raccomandazione” dei contenuti digitali, fondato su un meccanismo di profilazione mediante algoritmo, che individua e seleziona contenuti personalizzati in base a una combinazione di fattori volti a cogliere le preferenze e gli interessi del singolo utente.

Tali fattori sono processati dal sistema e automaticamente valutati in base al rilievo che essi assumono per l’utente.

La profilazione si estrinseca in maniera tanto più precisa quanto più attivamente viene utilizzata la piattaforma, perché il sistema apprende in modo più approfondito le preferenze e gli interessi. La cospicua quantità di informazioni acquisite consente di dedurre dati sensibili come il genere, l’età, la posizione geografica, le interazioni e le ricerche passate.

Altra modalità di utilizzo di TikTok è la consultazione del feed Seguiti”, dove sono rinvenibili i video pubblicati dagli utenti di cui il consumatore è diventato “follower”. Anche tali contenuti risultano proposti agli utenti secondo un sistema di raccomandazione basato su meccanismi di profilazione algoritmica. La personalizzazione, in tali casi, si estrinseca nella proposizione dei contenuti della cerchia di utenti seguiti in ordine “di interesse” per chi li visiona.

In via del tutto residuale, il consumatore può ricercare in modo proattivo contenuti su TikTok mediante la modalità di ricerca per parole chiave, visionando ciò che è postato su uno specifico profilo di un utente selezionato o cliccando hashtag e link a contenuti audio presenti sui video, che rimandano ad altri video con analoghi contenuti.

Difatti, il sistema sfrutta la vulnerabilità di gruppi di consumatori e tende a generare un indebito condizionamento degli utenti. Ciò al fine di perseguire lo specifico interesse economico di aumentare le interazioni tra gli utenti e il loro tempo di permanenza sulla piattaforma, onde accrescere la redditività degli introiti pubblicitari e similari.

Il potenziale lesivo per i minori e i soggetti vulnerabili deriva non solo dalla proposizione di singoli video pericolosi ad un ampio numero di utenti, ma è amplificato, per via del sistema di raccomandazione, dalla riproposizione a ciascun singolo utente di video analoghi in successione.

Nonostante il sistema di raccomandazione personalizzato sia presentato all’utente come un fattore positivo che contribuisce alla scoperta del mondo, “che ispira la creatività e porta gioia”, la raccomandazione in sequenza di determinati contenuti può creare effetti pregiudizievoli, in particolare per i minori, soggetti più vulnerabili, coducendo ad elevate forme di dipendenza (addiction).

Inoltre, l’impostazione di default, per l’utente, del sistema di raccomandazione con contenuti personalizzati, all’atto dell’iscrizione, rappresenta una chiara limitazione della libertà di scelta del consumatore. TikTok infatti impone per tale via una opzione pre-stabilita di fruizione della piattaforma, obbligandoli ad attivarsi per disattivarla. In sostanza, il consumatore può esercitare l’opzione contraria solo mediante uno specifico comportamento attivo che, a sua volta, dipende dalle informazioni fornite all’utente e dalla agevole fruibilità del relativo comando. Un tale meccanismo di pre-impostazione, operante in via generalizzata e preventiva, rappresenta – come confermato dalla prassi e dalla giurisprudenza applicativa del Codice del consumo – una palese compressione della facoltà di scelta.

Pertanto la scelta della personalizzazione quale opzione di default non appare adeguata a rimuovere i citati profili di condizionamento legato – come vedremo – non solo alla visualizzazione di video pericolosi, ma anche alla ripetuta riproposizione, ad opera dell’algoritmo di TikTok, di contenuti simili a uno stesso utente minore/vulnerabile, idonea a generare un fenomeno di visualizzazione in successione da parte dello stesso utente, che amplifica la portata potenzialmente lesiva dei contenuti.

Le descritte condotte appaiono in grado di condizionare indebitamente la scelta dei consumatori, in particolare minori e utenti vulnerabili, in relazione al tempo e modo di fruizione del servizio offerto da TikTok, limitando la sua capacità di prendere una decisione consapevole e alterando la sua decisione di consumo in palese violazione dell’articolo 25, comma 1, lettera c) del Codice del consumo.

Contenuti pericolosi

La presenza in piattaforma di contenuti pericolosi e l’impatto negativo dei social media ha ormai assunto rilevanza mediatica e solleva preoccupazioni tra gli specialisti in campo psicologico e sanitario.

Il riscontro di una sfida on line, denominata “cicatrice francese – french scar”, avente ad oggetto la diffusione di video di ragazzini che si procurano e insegnano a procurarsi un segno rosso sullo zigomo, evidente e duraturo, come se si trattasse di un’ampia cicatrice, a decorrere dal 5 febbraio 2023, ha fortemente allertato l’attenzione dell’Autorità.

Le osservazioni tecniche dell’esperto di neuropsichiatria infantile incaricato ad hoc, nel corso del procedimento, evidenziano che comportamenti autolesionistici, ancorché non suicidari, come quelli riguardanti la cicatrice francese, sono comunque in grado di rappresentare un pericolo per soggetti vulnerabili, atteso che il comportamento autolesionistico, benché lieve, costituisce il primo fattore di rischio di condotte ulteriori, di tipo suicidario.

Valutazioni conformi emergono in un rapporto del 2023 del U.S. Surgeon General, il principale portavoce del governo federale statunitense in materia di salute.

Più in generale, l’esigenza di effettuare un controllo stringente sui contenuti di TikTok nasce dalla struttura cognitiva di ragazzi e adolescenti, e dalla tendenza dei medesimi a voler far parte di un gruppo mediante l’adozione di comportamenti emulativi di “leader”, anche virtuali.

L’adolescente ha una capacità limitata di valutare le conseguenze delle proprie azioni; la capacità di discernimento infatti si acquisisce a livello neurobiologico solo nell’età adulta, considerato che il sistema nervoso raggiunge l’apice del proprio sviluppo intorno all’età di 30 anni. I ragazzi presentano poi maggiori difficoltà degli adulti nel distinguere la realtà dalle suggestioni della finzione; stante l’assenza di strumenti di inibizione generazionale, i giovani tendono a prendere decisioni più avventate degli adulti, dettate anche dal loro senso di onnipotenza.

A livello neurologico la dipendenza dai dispositivi elettronici è del tutto analoga a quella dalle sostanze stupefacenti. Per procurarsi piacere è necessario un utilizzo sempre maggiore dello strumento, con una ricerca compulsiva (cosiddetto craving). Le aree del cervello che si attivano, in caso di astinenza da strumenti elettronici, sono quelle interessate da astinenza dalle droghe.

I cinque video in cui viene mostrata l’esecuzione della cicatrice francese, risultati maggiormente popolari in Italia, risultano visualizzati oltre 5 milioni di volte e sono inseriti da TikTok, sulla scorta dei propri sistemi di profilazione algoritmica, in circa 4 milioni di feed per te”.

I potenziali effetti dannosi dei contenuti presenti in piattaforma, amplificati dalla riproposizione di contenuti similari più volte a uno stesso utente, sono stati evidenziati sia da studiosi dell’ambito medico sia da operatori nel settore dell’etica dell’intelligenza artificiale, come l’International Association for Suicide Prevention (IASP) e il Digital Wellness Lab del Boston Children’s Hospital.

Da uno studio effettuato dal Center for Countering Digital Hate, ONG britannica, nel dicembre 2022, emerge un dato inquietante: ai teenager che, sulla base di interazioni sulla piattaforma TikTok, mostrano un interesse per video legati a istinti suicidi, autolesionismo, malattie mentali/depressione o disturbi alimentari, vengono riproposti video con contenuti simili ad una frequenza di gran lunga maggiore a quella di adolescenti che non hanno mostrato tale interesse iniziale. In altre parole, adolescenti vulnerabili sono esposti con una frequenza maggiore a contenuti pregiudizievoli e ciò avviene sulla base del sistema di raccomandazione di contenuti digitali presenti in piattaforma.

Le condotte, come sopra illustrate, integrano una violazione dell’articolo 21, comma 4, del Codice del consumo in quanto sono in grado di ledere la salute psico-fisica di alcuni gruppi di utenti e, in particolare, di minacciare anche indirettamente la sicurezza di bambini ed adolescenti.

Interesse economico

Il modello di forte personalizzazione dei contenuti sopra illustrato si traduce in maggiore tempo speso dal singolo utente su tale piattaforma social rispetto al tempo medio speso su piattaforme concorrenti.

Ciò implica un aumento dei ricavi di TikTok, in quanto gli introiti derivanti dalla raccolta pubblicitaria dipendono in modo determinante dalle visualizzazioni degli utenti e dalle loro interazioni. In particolare, i ricavi derivanti dalla pubblicità crescono con il numero di “impressioni” (apparizioni sullo schermo), di visualizzazioni (per almeno 6 secondi), di click effettuati sui link contenuti nell’annuncio, nonché delle “impressioni” di utenti selezionati sulla base della probabilità che abbiano un interesse per i contenuti pubblicizzati.

Gli inserzionisti, a loro volta, tramite un’apposita dashboard, possono targhettizzare la comunicazione pubblicitaria, attraverso campi quali la collocazione geografica degli utenti, il sesso, la fascia di età, la lingua, la capacità di spesa, gli interessi.

L’ampliamento della platea di iscritti e l’aumento del tempo speso da ciascun utente sulla piattaforma consentono a TikTok non solo di accrescere la quantità di contenuti pubblicati o potenzialmente pubblicabili, ma anche di attirare il massimo numero di utenti addizionali grazie agli effetti di rete: l’interesse dell’utente all’utilizzo della piattaforma si incrementa al crescere del numero degli utenti che la utilizzano. L’aumento dell’attività degli utenti sulla piattaforma amplifica la redditività degli spazi pubblicitari perché il maggior utilizzo di TikTok fornisce al sistema di raccomandazione algoritmico più informazioni sulle preferenze degli utenti, consentendo di elaborarne una profilazione sempre più accurata, e possibilmente anche garantendo un miglioramento costante dell’algoritmo che organizza e gestisce la proposizione degli stessi contenuti ai vari utenti.

Da un confronto tra i dati di crescita del numero di utilizzatori della piattaforma e del fatturato da raccolta pubblicitaria a livello globale emerge come quest’ultimo non sia proporzionale all’aumento del numero degli utenti ma sia in buona parte legato al progressivo crescere del tempo di permanenza del singolo utente su TikTok; a conferma del fatto che il modello di personalizzazione su cui si basa la piattaforma – che, come visto, registra un tempo medio speso dal singolo utente ben maggiore di altre piattaforme di social media – genera un effetto di addiction.

In definitiva l’interesse di TikTok a massimizzare presenze e attività degli utenti sulla propria piattaforma è eminentemente economico: la monetizzazione, ottenuta dall’addiction del singolo utente e dai conseguenziali effetti a cascata, per trarne quanto più beneficio in termini di raccolta pubblicitaria. Inoltre, la riproposizione di contenuti quali quelli relativi alle challenge consente a TikTok di ricavare ulteriori vantaggi economici derivanti da attività di promozione commerciale e/o di marketing ad essi specificamente indirizzata, come l’acquisto di oggetti virtuali utilizzati per esprimere apprezzamento per gli specifici contenuti in questione.

Carente applicazione delle Linee guida

TikTok ha adottato “Linee Guida della Community”, che “definiscono un insieme di norme e un codice di condotta con l’obiettivo di rendere la piattaforma uno spazio sicuro e accogliente per tutti”, e contemplano la rimozione di “qualsivoglia contenuto – video, audio, live, immagini, commenti, link e testo che violi le nostre Linee Guida”, con specifica attenzione alla “tutela dei minori“ ad “atti pericolosi e sfide” e “suicidio, autolesionismo e alimentazione scorretta”.

Rispetto alla tutela dei soggetti più giovani si afferma che “Ci impegniamo profondamente per garantire la tutela dei soggetti minorenni sulla nostra piattaforma […]. Qualunque contenuto […] che rappresenti l’abuso, lo sfruttamento o situazioni di pericolo di minori costituisce una violazione della nostra piattaforma e verrà rimosso non appena rilevato”.

Il controllo dei contenuti presenti sulla piattaforma avviene secondo un processo progressivo così sintetizzabile:

a) i video caricati sulla piattaforma vengono sottoposti a una “revisione automatizzata” che esamina le informazioni relative a contenuti di testo, audio e video, rilevando anche oggetti e simboli; se, in esito di tale vaglio, il loro contenuto risulta contrario alle Linee Guida vengono rimossi direttamente oppure sottoposti a una fase successiva di “revisione manuale”. La valutazione automatizzata si basa su un sistema binario per specifiche soglie di pericolosità, superate le quali si innesca l’intervento manuale;

b) la “revisione manuale” viene effettuata da un “team di moderatori” composto da persone fisiche (Trust and Safety team), che si concentrano su aree contestuali come la disinformazione, le molestie, i disturbi alimentari, le sfide.

I moderatori vengono formati tramite corsi interni sull’applicazione delle Linee Guida che, per quanto in atti, appaiono incentrati più sui contenuti violenti, illegali, o a contenuto sessuale che non su challenge e atti pericolosi per i minori. Peraltro, il numero complessivo dei moderatori è dinamico a seconda delle necessità di TikTok, che li recluta anche attraverso parti terze in misura flessibile a seconda delle esigenze.

Inoltre, rispetto alla specifica capacità delle procedure di controllo di TikTok di supervisionare l’impatto dei video diffusi in lingua italiana, si osserva che il sistema di revisione automatizzato per i contenuti in lingua italiana sembra meno efficace che per i contenuti in lingua inglese, dal momento che nel corso del 2022 il 30-35% dei video in lingua inglese eliminati da TikTok è stato rimosso con la sola automazione, mentre per i video in lingua italiana tale percentuale scende al 22-27%.

Infine la rimozione di video relativi a “atti e sfide pericolose” caricati da utenti italiani avviene con minore tempestività rispetto a quelli caricati nel resto del mondo.

In definitiva, le Linee Guida, pur prevedendo diverse tipologie di controlli sui contenuti e pur attribuendo alla piattaforma TikTok il carattere di “luogo sicuro”, sono applicate in maniera lacunosa. Ciò è in grado di condizionare la scelta economica del consumatore di registrarsi su TikTok e utilizzare il servizio di social media, inducendolo a credere che non saranno visualizzati contenuti suscettibili di pregiudicare gli utenti, specie se vulnerabili, in evidente violazione dell’articolo 21, comma 2, lettera b), del Codice del consumo.

Tutela inefficace

L’accesso alla piattaforma è vietato agli utenti minori di 13 anni. TikTok ha previsto alcuni strumenti per limitare l’esposizione dei ragazzi nella fascia di età 13-18 a contenuti potenzialmente inopportuni, nonché per limitare la visibilità dei contenuti da loro pubblicati.

TikTok dichiara che i contenuti creati dai minori di 16 anni non sono inseriti nel feedper te” e non sono suscettibili di essere raggiunti con strumenti di ricerca. Tuttavia, nella pagina “Seguiti” sono visualizzabili i contenuti inseriti dai minori di 16 anni dei quali l’utente è diventato follower attivando semplicemente il tasto “segui” presente su ciascun profilo.

Al fine dell’identificazione di possibili utenti di età compresa tra i 13 e i 18 anni che si registrano in piattaforma come maggiorenni, TikTok utilizza principalmente sistemi basati su segnalazioni circostanziate di altri utenti. I moderatori analizzano i profili segnalati e, per i casi sospetti, TikTok imposta soglie più rigide di filtro del feedper te”.

Le Linee Guida di TikTok, consultabili sulla piattaforma, contengono affermazioni volte a rassicurare gli utenti sull’offerta di un ambiente virtuale protetto, volto a rendere la piattaforma “uno spazio sicuro e accogliente per tutti”, promettendo controlli pervasivi rispetto ad un ampio spettro di tematiche e contemplando la rimozione di “qualsivoglia contenuto – video, audio, live, immagini, commenti, link e testo che violi le nostre Linee Guida”.

Vi è inoltre una dichiarata attenzione ai giovani utenti e ai soggetti vulnerabili, asseritamente volte a garantire la “tutela dei soggetti minorenni sulla nostra piattaforma”, nonché una specifica preoccupazione con riguardo ad “atti pericolosi e sfide” e “suicidio, autolesionismo e alimentazione scorretta”.

Invero, le Linee Guida sembrano costituire una mera declinazione di principi virtuosi, soggetti tuttavia ad una interpretazione e applicazione discrezionale e lacunosa da parte dei professionisti, tale da tradursi in una elusione degli stessi principi enunciati.

Le Linee Guida difatti tendono a catalogare quali contenuti pericolosi soltanto quelli che presentano una manifesta illiceità, ma non anche quelli contrari alla comune sensibilità culturale e psicologica, come emerge dalla vicenda relativa alla “challenge cicatrice francese”. In proposito, si ribadisce quanto gli esperti affermano che i danni derivanti dall’esposizione a simili contenuti vanno apprezzati anche sotto il profilo della assuefazione all’autolesionismo, suscettibile di condurre a episodi di possibile più ampia scala e maggiore gravità.

La “revisione automatizzata” non ha, in effetti, impedito il dilagare dei citati video sulla piattaforma; quella manuale, realizzata attraverso specifiche valutazioni dei moderatori, ha concluso per la coerenza dei video con le Linee Guida. Secondo TikTok, la “french scar challenge” non rientrerebbe infatti nella categoria “autolesionismo”, che include solo le lesioni fisiche qualificabili come tali dal punto di vista giuridico e legale.

Solo dopo l’avvio del procedimento sanzionatorio da parte dell’AGCM, sono state ampliate le Linee Guida, includendo la possibilità di limitare la pagina “per te” di soggetti minorenni evitando di mostrare contenuti suscettibili di determinare danni fisici reputati “moderati”.

Dalle evidenze rinvenute, sono emerse inoltre lacune negli strumenti utilizzati per il monitoraggio dei contenuti, tali da limitare l’efficacia del processo di moderazione previsto nelle Linee Guida. La moderazione automatizzata risulta meno efficace nei casi in cui le violazioni sono più complesse da interpretare e attinenti a settori in continua evoluzione, mentre la moderazione umana diverrebbe particolarmente rilevante per valutare i contenuti la cui inadeguatezza è meno immediata. Ciò nonostante, il reclutamento dei componenti del “Team di moderazione” appare effettuato sulla base di requisiti generici e la loro formazione interna è incentrata sui soli contenuti manifestamente illegali, violenti, oppure a contenuto sessuale. L’analisi del numero di video rimossi in diverse lingue lascia inoltre supporre che il sistema di revisione automatizzata sia meno efficace per i video diffusi in lingua italiana.

Sebbene TikTok adotti alcune misure specifiche per sottrarre a minori e soggetti vulnerabili la visibilità di alcuni contenuti, queste trovano un limite importante nella possibilità che gli utenti inseriscano in fase di registrazione alla piattaforma false informazioni sulla propria età, che è rimessa, nelle parole di TikTok stessa, alla mera autodichiarazione.

In conclusione, le Linee Guida – pur prevedendo diverse tipologie di controlli sui contenuti e pur attribuendo alla piattaforma TikTok il carattere di “luogo sicuro” – sono state oggetto, nei fatti, di una applicazione lacunosa, in dispregio all’articolo 21, comma 2, lettera b), del Codice del consumo.

Tutto ciò si appalesa in grado di condizionare la scelta economica del consumatore di registrarsi su TikTok e utilizzare il servizio di social media, inducendolo a credere che non saranno visualizzati contenuti suscettibili di pregiudicare gli utenti, specie vulnerabili, in violazione dell’articolo 21, comma 2, del Codice del consumo.

In concreto, nel caso dei video relativi alla cicatrice francese, gli interventi di controllo compiuti sulla base dei criteri rinvenibili nelle Linee Guida non hanno tenuto conto dell’inconfutabile vulnerabilità degli adolescenti, caratterizzata da peculiari meccanismi cognitivi dai quali derivano, ad esempio, la difficoltà a distinguere la realtà dalla finzione, l’assenza di strumenti di inibizione, la tendenza ad emulare comportamenti di gruppo. Se alcuni servizi o funzioni potrebbero non avere un effetto equivalente sugli adulti, possono invece essere maggiormente rischiosi e dannosi per i minori e creare dipendenza, anche a causa dell’impatto cumulativo di una combinazione di più funzioni o degli effetti prolungati nel tempo. Pertanto, nel superiore interesse di questi ultimi, è necessario che i controlli sui contenuti in applicazione delle Linee Guida siano più rigorosi.

L’omessa adozione di misure e procedure adeguate, pur nella disponibilità della Società erogatrice del servizio, volte a prevenire e rimuovere la diffusione di contenuti potenzialmente pericolosi, viola l’articolo 20 commi 2 e 3, del Codice del consumo. Tale condotta, contrariamente alla diligenza professionale richiesta alle piattaforme di social media, è idonea a falsare in misura apprezzabile il comportamento economico del consumatore.

Considerazioni finali

In breve, sul banco degli imputati si pone l’utilizzo di un sistema di raccomandazione di contenuti digitali che sfrutta le vulnerabilità degli utenti, in particolare dei minori, basato un algoritmo di profilazione finalizzato a personalizzare i contenuti visualizzati da ciascun utente, sulla scorta di una serie di fattori, tra cui l’età, il genere, la posizione geografica, le interazioni e le ricerche passate.

Tale sistema è così strutturato per massimizzare la durata temporale della permanenza degli utenti sulla piattaforma, per incrementare gli introiti economi e pubblicitari, ma inducendo, nel contempo, a pericolose forme di dipendenza (addiction).

Il tutto avviene senza un adeguato parametro di trasparenza nel trattamento dei dati personali e senza una chiara informazione in ordine alle modalità di utilizzo dei dati da parte del social network e agli strumenti di controllo della loro privacy da parte degli utenti, senza tralasciare la carenza di un’effettiva e puntuale applicazione delle Linee guida approvate dagli utenti medesimi.

Sono inoltre rinvenibili sulla piattaforma contenuti digitali ad alto rischio, come la promozione di sfide, dal carattere talvolta estremo, tra i ragazzi, tra cui la challenge cosiddetto “cicatrice francese” (“french scar”). Tali tipologie di comportamenti, di natura autolesionistica, seppur non suicidari, costituiscono, a parere degli esperti, un incontestabile pericolo per i soggetti più vulnerabili.

L’immaturità di discernimento e la tendenza emulativa dei ragazzi, sopratutto in relazione a condotte promosse in rete, con modalità premiale, costituiscono elementi di alto rischio per la loro incolumità e sicurezza.

I comportamenti contestati dall’AGCM si traducono in evidenti violazioni di specifiche norme del Codice del consumo, ut supra illustrate, perché sono idonee a determinare un’alterazione della scelta economica dell’utente-consumatore, avente ad oggetto le modalità di fruizione dei servizi offerti dalla piattaforma. Tali condotte integrano gli estremi della pratica commerciale scorretta, ma soprattutto costituiscono l’inquietante cartina al tornasole del potere pervasivo che hanno i social media nell’indirizzare pensieri, scelte e comportamenti delle persone, sopratutto quelle in formazione o più vulnerabili.

La tutela dei minori su TikTok, ma in genere in rete, rappresenta, in prospettiva, una sfida altamente complessa e in continua evoluzione. Essenziale diventa l’impegno collettivo e pro quota di tutti i soggetti attivi coinvolti.

Intelligenza artificiale e machine learning potrebbero essere implementati in modo sempre più funzionale all’individuazione e alla rimozione automatica di contenuti pericolosi e dannosi per gli utenti più vulnerabili. Parimenti dovrebbe essere sommistrata ai moderatori preposti alla revisione manuale una formazione più rigorosa e attenta, per costituire un baluardo perenne ed efficace alla fruizione di contenuti anche solo minimanente pericolosi o potenzialmente lesivi.

L’accesso stesso ai contenuti andrebbe regolato mediante sistemi seletttivi di sicurezza, che vadano oltre la mera dichiarazione di maggiore età: utili in tal senso potrebbero essere meccanismi di chiavi criptate o di un più affinato ed efficace parental control (doppia autenticazione, verifica biometrica, et similia), in grado di inibire l’effettivo accesso a contenuti inappropriati da parte dei minori.

Di base è tuttavia fondamentale lo sviluppo, generalizzato a tutti livelli sociali e contesti geografici, di una cultura del digitale che abbia i caratteri inderogabili della correttezza e della responsabilità, premessa ineluttabile per una regolamentazione più accurata, stringente ed efficacemente cautelativa nei confronti dei soggetti, per loro natura evolutiva, maggiormente vulnerabili.

Solo un’equilibrata sintesi di cultura e diritto può garantire l’utilizzo più corretto e responsabile dei social media. Valori come trasparenza ed equità, unitamente ad un impianto normativo quanto più sovranazionale, esteso e condiviso, che imponga obblighi ben specifici in capo a sviluppatori, fornitori e utilizzatori delle prefate piattaforme, sembrano essere gli ingredienti essenziali di una ricetta niente affatto semplice.

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *