Scritto da: Khari Johnson, CalMatters

Una nuova legge della California impone alle aziende tecnologiche di rivelare come gestiscono i rischi di catastrofe derivanti dai sistemi di intelligenza artificiale. Conferenza Dreamforce ospitata da Salesforce a San Francisco il 18 settembre 2024. Foto: Florence Middleton per CalMatters

Questa storia è stata pubblicata per la prima volta da CalMatters. Iscriviti alla loro newsletter.

Le aziende tecnologiche che creano modelli di intelligenza artificiale avanzati e di grandi dimensioni dovranno presto condividere maggiori informazioni su come i modelli potrebbero influenzare la società e fornire ai propri dipendenti modi per avvisare il resto di noi se le cose vanno male.

Una legge firmata dal governatore Gavin Newsom, in vigore dal 1° gennaio, fornisce protezione agli informatori ai dipendenti di aziende come Google e OpenAI il cui lavoro prevede la valutazione del rischio di incidenti critici di sicurezza. Richiede inoltre ai principali sviluppatori di modelli di intelligenza artificiale di pubblicare sui propri siti Web framework che includano il modo in cui l’azienda risponde a eventi critici di sicurezza e valuta e gestisce il rischio di disastri. Le multe per la violazione delle norme possono raggiungere 1 milione di dollari per violazione. Per legge, le aziende sono tenute a segnalare al governo gli incidenti critici relativi alla sicurezza entro 15 giorni o entro 24 ore se ritengono che un rischio rappresenti una minaccia imminente di morte o lesioni.

Così è nata la legge Senato disegno di legge 53Scritto dal Sen. Scott WienerUn democratico di San Francisco per affrontare il rischio di disastro rappresentato dai modelli avanzati di intelligenza artificiale, a volte chiamati modelli di frontiera. La legge definisce il rischio di disastro come una situazione in cui la tecnologia potrebbe uccidere più di 50 persone attraverso un attacco informatico o danneggiare persone con armi chimiche, biologiche, radioattive o nucleari, o in cui l’uso dell’intelligenza artificiale potrebbe portare a furti o danni per oltre 1 miliardo di dollari. Affronta i rischi nel contesto in cui un operatore perde il controllo del sistema di intelligenza artificiale; Queste situazioni sono in gran parte considerate ipotetiche, ad esempio perché l’IA le inganna o intraprende azioni indipendenti.

La legge aumenta le informazioni che i produttori di IA devono condividere con il pubblico, incluso un rapporto sulla trasparenza che deve includere gli usi previsti, i limiti o le condizioni per l’utilizzo del modello, il modo in cui un’azienda valuta e affronta il rischio catastrofico e se tali sforzi sono stati esaminati da una terza parte indipendente.

Rishi Bommasani, parte di un gruppo dell’Università di Stanford che monitora la trasparenza sull’intelligenza artificiale, ha affermato che la legge apporterebbe i chiarimenti tanto necessari al settore dell’intelligenza artificiale. Solo tre delle 13 società esaminate di recente dal suo gruppo effettuano regolarmente segnalazioni di incidenti e i punteggi di trasparenza assegnati dal gruppo a tali società sono diminuiti in media nell’ultimo anno. Secondo un rapporto appena pubblicato.

Bommasami è anche l’autore principale di un rapporto ordinato dal governatore Gavin Newsom che ha fortemente influenzato l’SB 53, definendo la trasparenza la chiave per la fiducia del pubblico nell’intelligenza artificiale. Ritiene che l’efficacia dell’SB 53 dipenda in gran parte dalle agenzie statali incaricate di attuarlo e dalle risorse assegnate a tali agenzie.

“In teoria puoi scrivere qualsiasi legge, ma il suo impatto pratico è in gran parte determinato da come la implementi, come la applichi e come l’azienda la gestisce”.

La legge era efficace già prima della sua entrata in vigore. Il governatore di New York Kathy Hochul accettato questo come base Il 19 dicembre ha firmato il disegno di legge sulla trasparenza e la sicurezza dell’IA. La somiglianza aumenterà Lo riferiscono la città e lo stato di New Yorkperché la legge “sarà sostanzialmente riscritta l’anno prossimo, in gran parte per adattarsi alla lingua della California”.

Limitazioni e applicazione

I critici sostengono che la nuova legge non sarà all’altezza, non importa quanto bene sarà implementata. Non include nella sua definizione questioni di rischio dirompente, come l’impatto dei sistemi di intelligenza artificiale sull’ambiente, la loro capacità di diffondere disinformazione o il loro potenziale di perpetuare sistemi storici di oppressione come il sessismo o il razzismo. La legge inoltre non si applica ai sistemi di intelligenza artificiale che i governi utilizzano per profilare le persone o assegnare loro punteggi che potrebbero portare alla negazione di servizi governativi o ad accuse di frode, e prende di mira solo le aziende che generano 500 milioni di dollari di entrate annuali.

Inoltre, le misure di trasparenza non garantiscono una piena visibilità pubblica. Oltre a presentare rapporti sulla trasparenza, gli sviluppatori di intelligenza artificiale devono anche presentare rapporti sugli incidenti all’Ufficio dei servizi di emergenza quando le cose vanno male. Il pubblico può rivolgersi a questo ufficio anche per segnalare eventi catastrofici.

Tuttavia, i contenuti delle segnalazioni di incidenti inviate a OES dalle aziende o dai loro dipendenti non possono essere resi pubblici tramite richieste di documentazione e saranno invece condivisi con i membri della Legislatura della California e Newsom. Anche in questo caso, possono essere modificati per nascondere informazioni che le aziende considerano segreti commerciali; Questo è un modo comune con cui le aziende impediscono la condivisione di informazioni sui modelli di intelligenza artificiale.

Bommasami spera che il disegno di legge del Parlamento del 2013 fornisca ulteriore trasparenza. Il disegno di legge diventerà legge nel 2024 e entrerà in vigore anch’esso il 1° gennaio. Questo regolamento impone alle aziende di divulgare ulteriori dettagli sui dati che utilizzano per addestrare i modelli di intelligenza artificiale.

Alcuni elementi dell’SB 53 non entreranno in vigore fino al prossimo anno. A partire dal 2027, l’Ufficio dei servizi di emergenza produrrà un rapporto sugli incidenti critici per la sicurezza che l’agenzia riceve dal pubblico e dai produttori di modelli su larga scala. Questo rapporto potrebbe fornire maggiore chiarezza sulla misura in cui l’intelligenza artificiale può attaccare le infrastrutture o sulla portata dei modelli che agiscono senza la guida umana, ma il rapporto sarà reso anonimo, quindi non sarà noto pubblicamente quali modelli di intelligenza artificiale rappresentano questa minaccia.

Questo articolo è stato pubblicato per la prima volta su CalMatters e Attribuzione Creative Commons-Non commerciale-Nessun derivato licenza.

Collegamento alla fonte