Big Tech afferma che i divieti non sono la risposta

Ciò potrebbe cambiare man mano che il disegno di legge avanza, hanno riconosciuto senatori e genitori in conferenza stampa. È probabile che si trovi ad affrontare la reazione dei difensori della privacy che hanno espresso preoccupazione per il fatto che la raccolta di dati personali in massa per la verifica dell’età metta le informazioni sensibili a rischio di violazione dei dati o altri abusi.

L’industria tecnologica è già contraria. Martedì, la Camera del Progresso, un grande gruppo del settore tecnologico, ha criticato la legge in quanto adotta un “approccio pesante” alla protezione dei bambini. KJ Bagchi, vicepresidente del gruppo per la politica americana e le relazioni con il governo, ha affermato che “tutti vogliamo garantire la sicurezza dei bambini, ma la risposta è l’equilibrio, non il divieto.

“È bene concentrarsi sulla trasparenza quando i bambini chattano con l’intelligenza artificiale, evitare progetti manipolativi e segnalare quando sorgono problemi delicati”, ha affermato Bagchi.

Tuttavia, diverse organizzazioni dedite alla protezione dei bambini online, tra cui la Young People’s Alliance, il Tech Justice Law Project e l’Institute for Families and Technology, hanno accolto con favore l’annuncio dei senatori martedì. Il GUARD Act, hanno detto i gruppi al TIME, è “parte di un movimento nazionale per proteggere i bambini e gli adolescenti dai pericoli dei chatbot associati”.

I genitori in lutto si stanno mobilitando a sostegno di quel movimento. All’inizio di questo mese, Garcia ha elogiato la California per aver “finalmente” approvato la prima legge statale che impone alle aziende di proteggere gli utenti che esprimono pensieri suicidi nei chatbot.

“Le famiglie americane, come la mia, stanno lottando per la sicurezza online dei nostri figli”, disse all’epoca Garcia.

Durante la conferenza stampa di martedì, Blumenthal ha osservato che il disegno di legge sul divieto dei chatbot è una delle tante iniziative che lui e Hawley vogliono introdurre per aumentare il controllo sulle società di intelligenza artificiale.

Collegamento alla fonte