Il CEO di Meta, Mark Zuckerberg, testimonierà in un processo storico che esaminerà se le piattaforme di social media progettano consapevolmente prodotti che secondo i querelanti creano dipendenza e dannosi per i bambini.
Si prevede che Zuckerberg affronterà mercoledì un interrogatorio da parte degli avvocati che rappresentano una donna di 20 anni, identificata nei documenti giudiziari come KGM.
La donna ha affermato che il suo utilizzo precoce delle piattaforme di social media, incluso Instagram di Meta, ha portato alla dipendenza e ha peggiorato la depressione e pensieri suicidi. Meta Platform e YouTube di Google sono gli altri imputati nel caso. TikTok e Snap hanno già raggiunto accordi.
Il caso presso la Corte Superiore di Los Angeles è uno dei tre processi designati come processi bellwether, il che significa che l’esito potrebbe influenzare il modo in cui vengono gestite migliaia di casi simili contro società di social media a livello nazionale.
Sebbene Zuckerberg abbia testimoniato davanti al Congresso e in altri procedimenti legali – inclusa un’udienza incentrata sulla sicurezza dei giovani, in cui si è scusato con le famiglie che hanno affermato che i social media hanno contribuito a tragedie nelle loro vite – il processo ha segnato la prima volta in cui ha risposto a domande simili davanti a una giuria.
Si prevede che i genitori in lutto siano nuovamente presenti, anche se i posti pubblici in aula sono limitati.
Un portavoce di Meta ha affermato che l’organizzazione è fortemente in disaccordo con le accuse e che “prove credibili dimostreranno il nostro impegno di lunga data a sostegno dei giovani”.
Finora il processo sui social media del KGM
Nella sua dichiarazione di apertura, l’avvocato di Meta Paul Schmidt ha affermato che la società non contesta il fatto che KGM abbia avuto problemi di salute mentale, ma ha negato che Instagram sia stato un fattore significativo nella loro causa.
Schmidt ha citato cartelle cliniche che descrivono una vita domestica tumultuosa e ha sostenuto, su suggerimento di YouTube, che KGM utilizzava i social media come meccanismo di coping piuttosto che esserne danneggiato.
Il CEO di Instagram Adam Mosseri ha testimoniato la scorsa settimana. Non è d’accordo con l’idea che le persone possano diventare clinicamente dipendenti dai social media e sostiene che Instagram lavora per proteggere i giovani utenti. Ha detto alla corte che “nel lungo periodo, non è positivo per l’azienda prendere decisioni che sono redditizie per noi ma dannose per il benessere delle persone”.
L’avvocato del querelante Mark Lanier ha interrogato ampiamente Mosseri sui filtri cosmetici di Instagram che alterano l’aspetto degli utenti, una questione che dovrebbe sollevare nuovamente con Zuckerberg.
Zuckerberg potrebbe anche essere interrogato sull’algoritmo di Instagram, sul feed a scorrimento infinito e su altre funzionalità del prodotto che i querelanti sostengono siano progettate per mantenere gli utenti coinvolti.
Algoritmi, scroll infinito, filtri sotto esame
Algoritmi, scorrimento infinito e filtri visivi sono diventati il fulcro di una crescente ondata di cause legali che accusano le società di social media di danneggiare i bambini e di fuorviare gli utenti sulla sicurezza della piattaforma.
Al centro di questi casi c’è il modo in cui le scelte progettuali modellano il comportamento, in particolare tra gli utenti giovani, con preoccupazioni sul loro potenziale di causare problemi di salute mentale.
Gli algoritmi sono sotto accusa per promuovere attivamente contenuti basati sul coinvolgimento piuttosto che sull’idoneità. I pubblici ministeri sostengono che il sistema di raccomandazione potrebbe portare i bambini a materiale sempre più sessuale, di sfruttamento o emotivamente dannoso, rendendo più facile per i predatori identificare e contattare gli utenti vulnerabili.
L’affermazione è che non solo esistono contenuti dannosi, ma che le piattaforme di social media li amplificano e li mettono a portata di mano dei bambini.

Lo scorrimento infinito è stato citato dalla critica come un meccanismo che incoraggia l’uso compulsivo. Rimuovendo i soliti punti di arresto, dicono gli oppositori, le piattaforme mantengono gli utenti, soprattutto gli adolescenti, coinvolti più a lungo del previsto, aumentando l’esposizione a interazioni dannose e rendendo più difficile per i genitori controllarne l’utilizzo.
In tribunale, questo viene spesso fatto come un disegno deliberato per massimizzare l’attenzione.
Filtri e strumenti che alterano l’aspetto sono oggetto di studio per i loro effetti sulla salute mentale. Gli avvocati sostengono che i filtri di bellezza e la manipolazione delle immagini contribuiscono all’ansia, alla bassa autostima e all’immagine corporea distorta, soprattutto tra le ragazze, mentre le aziende hanno minimizzato gli studi interni che mostrano tali rischi.
Insieme, queste caratteristiche costituiscono la spina dorsale delle argomentazioni che confrontano le cause legali sui social media con le passate cause legali contro le aziende produttrici di tabacco, incentrate non sull’abuso individuale, ma su prodotti che si presume causino danni su larga scala. Le società di social media contestano queste argomentazioni, affermando che le prove sono spesso esagerate.
Processo Mater nel Nuovo Messico
Meta è stato anche processato in New Mexico la scorsa settimana in un altro caso attentamente seguito che potrebbe rimodellare il modo in cui gli Stati Uniti ritengono responsabili le società di social media per presunti danni ai bambini.
La causa civile, intentata dal procuratore generale del New Mexico Raul Torrez, accusa Facebook e Instagram di non aver protetto i minori dallo sfruttamento sessuale, dall’adescamento e dal traffico di esseri umani, ingannando i genitori sulla sicurezza delle loro piattaforme.
Il processo, che si è svolto a Santa Fe, è il primo caso condotto dallo stato a raggiungere una giuria.
Lo stato sostiene che gli algoritmi e le scelte progettuali di Mater hanno contribuito a creare quello che Torrez descrive come un “terreno fertile” per i predatori, dando priorità alla crescita rispetto al coinvolgimento degli utenti e alla protezione dei bambini.
Il caso dello stato si è basato in gran parte su un’indagine sotto copertura in cui gli agenti si sono finti bambini e hanno documentato la rapidità con cui sono stati avvicinati da adulti in cerca di interazione sessuale. Si prevede che i documenti interni all’azienda e le testimonianze degli ex dipendenti Meta avranno un posto di rilievo.
Meta nega con veemenza le accuse, affermando che il caso si basa su prove selezionate e ignora gli investimenti dell’azienda nella moderazione dei contenuti, negli strumenti di reporting e nella protezione degli “account adolescenti”. L’azienda sostiene di non poter essere ritenuta responsabile per l’uso improprio criminale dei suoi servizi e afferma di essere stata trasparente sui rischi online.
Si prevede che il processo durerà diverse settimane, con potenziali implicazioni a livello nazionale poiché altri stati perseguono affermazioni simili contro le principali piattaforme tecnologiche.

I social media sono vietati agli adolescenti
I governi negli Stati Uniti e all’estero si stanno muovendo in modo più aggressivo per frenare l’impatto dei social media sui bambini, prendendo di mira sia la progettazione che l’accesso alle piattaforme.
In Australia, una legge prima a livello mondiale ha fissato un’età minima di 16 anni per le principali piattaforme di social media, spostando l’onere sulle aziende di impedire ai minorenni di avere account o di incorrere in pesanti multe. Il divieto, entrato in vigore alla fine dello scorso anno, viene osservato da vicino come potenziale modello per altri paesi.
Negli Stati Uniti, i legislatori devono ancora approvare un limite di età a livello nazionale, ma la pressione sta aumentando. Il Congresso sta prendendo in considerazione una legislazione bipartisan come il Kids Online Safety Act, che imporrebbe un obbligo legale di diligenza sulle piattaforme per ridurre i rischi, tra cui dipendenza, autolesionismo e sfruttamento sessuale.
A livello statale, le leggi in luoghi come California, Florida e Connecticut prendono di mira le caratteristiche di progettazione che creano dipendenza, rafforzano la verifica dell’età e limitano la raccolta di dati da parte dei minori.
Altrove, l’Unione Europea ha utilizzato il Digital Services Act per costringere le piattaforme a riprogettare i prodotti tenendo presente la protezione dei minori, compresi limiti sui miglioramenti algoritmici e impostazioni predefinite sulla privacy per i minori.
Diversi paesi europei stanno anche esplorando limiti di età in stile australiano. Insieme, queste misure segnalano un cambiamento globale verso il trattamento dei danni dei social media come una questione di sicurezza pubblica piuttosto che una questione di scelta personale.
Questo articolo utilizza i resoconti dell’Associated Press.
In un’era polarizzata, il centro viene liquidato come malleabile. UN NewsweekLa nostra diversità: il centro audace: non è “entrambi i lati”, è acuto, stimolante e vivo di idee. Seguiamo i fatti, non le fazioni. Se questo sembra il tipo di giornalismo che vuoi vedere prosperare, abbiamo bisogno di te.
Quando diventi membro di Newsweek, sostieni la missione di mantenere il centro forte e vivace. I membri godono di: navigazione senza pubblicità, contenuti esclusivi e conversazioni con gli editor. Aiutaci a mantenere il centro coraggioso. Iscriviti oggi.

















