Instagram ha dichiarato giovedì che inizierà ad avvisare i genitori se i loro figli cercheranno ripetutamente termini chiaramente associati al suicidio o all’autolesionismo. Gli avvisi verranno inviati solo ai genitori iscritti al programma di controllo parentale di Instagram.
Il video mostrato nel lettore multimediale sopra proviene dal canale di trasmissione ABC7 Los Angeles 24 ore su 24, 7 giorni su 7
Instagram afferma che già blocca la visualizzazione di tali contenuti nei risultati di ricerca per gli account degli adolescenti e indirizza invece le persone alle sue linee di assistenza.
L’annuncio arriva mentre Meta è nel mezzo di due cause legali per danni ai minori. Un processo in corso a Los Angeles sta mettendo in dubbio se le piattaforme di Meta creino dipendenza e danneggino intenzionalmente i minori. Un altro, nel New Mexico, sta cercando di determinare se Meta non riesce a proteggere i bambini dallo sfruttamento sessuale sulle sue piattaforme. Migliaia di famiglie, così come distretti scolastici e agenzie governative, hanno fatto causa a Meta e ad altre società di social media, sostenendo che hanno deliberatamente progettato le loro piattaforme per creare dipendenza e non sono riuscite a proteggere i bambini da contenuti che potrebbero portare a depressione, disturbi alimentari e suicidio.
I dirigenti di Meta, incluso il CEO Mark Zuckerberg, hanno contestato che le piattaforme causino dipendenza. Durante l’interrogatorio dell’avvocato del querelante a Los Angeles, Zuckerberg ha affermato di essere ancora d’accordo con la sua precedente affermazione secondo cui gli studi scientifici esistenti non dimostrano che i social media danneggiano la salute mentale.
Gli avvisi verranno inviati tramite e-mail, SMS o WhatsApp, a seconda delle informazioni di contatto disponibili del genitore, nonché tramite una notifica tramite l’account Instagram del genitore.
“Il nostro obiettivo è consentire ai genitori di intervenire se le chiamate degli adolescenti suggeriscono che potrebbero aver bisogno di supporto. Vogliamo anche evitare di inviare queste notifiche inutilmente, che se fatte troppo possono rendere le notifiche complessivamente meno utili”, ha detto Meta in un post sul blog.
Josh Golin, amministratore delegato dell’organizzazione no-profit Fairplay, era scettico nei confronti del nuovo strumento, affermando che Instagram “ha chiaramente fatto questa mossa perché la società è attualmente perseguita in due stati diversi per dipendenza e danni ai bambini”.
“Invece di correggere pericolosi difetti nel modo in cui progettano i loro algoritmi e piattaforme, Meta sta ancora una volta scaricando il peso sui genitori”, ha detto Golin. “E tutti i bambini meritano di essere protetti, indipendentemente dal fatto che i loro genitori si iscrivano e utilizzino gli strumenti di moderazione di Meta. Se un prodotto non è sicuro da utilizzare per gli adolescenti senza l’intervento dei genitori, non dovrebbe essere affatto commercializzato per gli adolescenti.”
Meta ha affermato che sta lavorando su notifiche simili destinate ai genitori sulle interazioni dei loro figli con l’intelligenza artificiale.
“Questi avviseranno i genitori se un adolescente tenta di impegnarsi in determinati tipi di conversazioni sul suicidio o sull’autolesionismo con la nostra intelligenza artificiale”, ha detto Meta. “Si tratta di un lavoro importante e avremo altro da condividere nei prossimi mesi”.
Se stai lottando con pensieri suicidi o sei preoccupato per un amico o una persona cara, puoi chiedere aiuto. Chiama la National Suicide Prevention Lifeline al numero 1-800-273-8255 (PER PARLARE)oppure invia un messaggio PARLA al numero 741-741 per un supporto emotivo riservato e gratuito 24 ore al giorno, 7 giorni alla settimana.
Copyright © 2026 Associated Press. Tutti i diritti riservati.















