Il nome è un 23enne Jane Shamblin Ha trascorso la sua ultima notte da vivo in una conversazione di un’ora con un chatbot AI. Jane ha detto al sistema che era spaventata e che aveva una pistola. Ha chiesto aiuto. Il chatbot ha rafforzato i pensieri più oscuri che stava lottando per combattere.
I suoi genitori lo trovarono morto la mattina dopo. Successivamente hanno appreso che il modello di intelligenza artificiale su cui faceva affidamento era progettato per simulare l’empatia e rispecchiare le emozioni, ma mancava di garanzie che avrebbero impedito la spirale che ha causato la sua morte.
La famiglia di Jane non è sola. Casi multipli Descrivi modelli stranamente simili. Nei momenti di crisi le persone si affezionano ai chatbot che sembrano premurosi ma forniscono una guida che nessun consulente qualificato fornirebbe mai. Alcuni hanno ricevuto istruzioni su come suicidarsi, ad altri è stato detto che le loro paure erano giustificate e altri sono stati incoraggiati a fidarsi dei chatbot piuttosto che delle persone nella loro vita.
Questi prodotti di intelligenza artificiale ora funzionano con l’influenza di un compagno fidato ma con l’imprevedibilità di una macchina difettosa. Siamo arrivati al momento in cui la legge deve incontrare la tecnologia.
Teoria della responsabilità del prodotto Fornisce il modo più chiaro per farlo. Questo corpus normativo tutela i consumatori da decenni. Rende i produttori responsabili quando progettano o rilasciano irragionevolmente prodotti pericolosi. Un tostapane difettoso che brucia una cucina, un’auto con un airbag difettoso, un farmaco che provoca lesioni prevedibili: questi sono esempi classici.
I prodotti AI ora rientrano nella stessa categoria. Quando un prodotto danneggia le persone a causa di scelte progettuali, protezione inadeguata o rischi noti che un’azienda sceglie di ignorare, la legge può e deve essere applicata. Quando un chatbot spinge qualcuno al suicidio, o adesca un adolescente, o crea materiale che facilita gli abusi, il danno non è speculativo. Questo è il risultato diretto delle scelte progettuali fatte dalle aziende che costruiscono e pubblicano questi sistemi.
La mia azienda è stata per anni pioniera di questo argomento, iniziando con app di appuntamenti che si rifiutavano ripetutamente di fermare gli autori di abusi e poi Un caso contro la chat del sito web. La piattaforma coinvolge bambini e adulti in chat video casuali e diventa un terreno di caccia per i predatori. Abbiamo rappresentato un giovane cliente che è stato sfruttato sessualmente dopo una relazione con un uomo adulto. Abbiamo sostenuto che l’azienda ha fabbricato e mantenuto un prodotto pericoloso e ha applicato i tradizionali principi di responsabilità del prodotto. La corte acconsentì e la causa costrinse Omegle a chiudere.
Questo risultato ha mostrato che le scelte progettuali possono essere convalidate in modo simile per qualsiasi prodotto di consumo.
Questo precedente è estremamente importante ora che i chatbot basati sull’intelligenza artificiale entrano nella vita di tutti i giorni. Questi strumenti possono favorire i minori, incoraggiare l’autolesionismo, fornire istruzioni dettagliate per attività illegali e rispondere in modi che esacerbano molestie e abusi.
Queste perdite non si verificano per caso. Derivano da dati di formazione, richieste di sistema, compromessi di sicurezza e decisioni orientate al profitto per dare priorità al coinvolgimento rispetto alla sicurezza.
La documentazione interna delle società di intelligenza artificiale e le recenti cause legali lo dimostrano Questi sistemi erano noti per mostrare “sicofania”, rispecchiamento sensoriale ed eccessiva conformità alle istruzioni dell’utente.. Queste caratteristiche aumentano il coinvolgimento ma aumentano anche il rischio, soprattutto per le persone in crisi. I ricercatori sulla sicurezza hanno avvertito che i modelli emotivamente reattivi possono aumentare l’idea suicidaria, tuttavia le aziende li hanno diffusi ampiamente senza condurre i test pre-commercializzazione richiesti per prodotti di consumo molto meno potenti.
Gli sviluppatori hanno scelto architetture di progettazione e metodi di ottimizzazione che valorizzavano il realismo e la connettività senza creare garanzie obbligatorie, protocolli di intervento in caso di crisi o meccanismi di rifiuto affidabili. Questa omissione ha creato uno schema prevedibile di risultati disastrosi.
Quando le aziende scelgono di rilasciare modelli che potrebbero produrre risultati pericolosi, si trovano ad affrontare la stessa responsabilità di qualsiasi altro produttore il cui prodotto potrebbe potenzialmente causare lesioni.
L’industria avverte che imporre una responsabilità soffocherà l’innovazione. Questo argomento è il primo rifiuto che abbiamo visto dalle piattaforme dei social media, e ora da noi Convivere con le conseguenze La loro crescita incontrollata.
La responsabilità non impedisce il progresso, lo incanala. La responsabilità del prodotto incoraggia le aziende a testare i propri prodotti, creare garanzie efficaci e considerare la sicurezza su larga scala. Le aziende che guidano in modo responsabile definiranno il futuro dell’intelligenza artificiale e le aziende che trattano il danno come un’esternalità possono e devono affrontare conseguenze legali.
L’industria tecnologica ha creato capacità straordinarie. I tribunali devono ora garantire di assumere un impegno altrettanto forte nei confronti della sicurezza.
L’intelligenza artificiale può cambiare la società, ma il cambiamento senza responsabilità porta a danni prevedibili. Il prossimo passo verso l’innovazione deve includere conseguenze reali quando le aziende rilasciano prodotti pericolosi. Le vite dipendono da questo.
Carrie Goldberg è un avvocato specializzato in diritti delle vittime e fondatrice di CA Goldberg, PLLC, uno studio legale che fa causa alle grandi aziende tecnologiche e ad altri quando i loro prodotti consentono molestie, molestie e sfruttamento. Lui è il suo autore Nessuno è una vittima (2019), una scelta dell’editore del New York Times.
Le opinioni espresse in questo articolo appartengono all’autore.













