Civity tagga automaticamente i premi che richiedono deepfake ed elenca un modo in cui la persona presente nel contenuto può richiederne manualmente la rimozione. Questo sistema significa che Civvy ha un modo abbastanza efficace di sapere quali premi ci sono per i deepfake, ma lascia comunque la moderazione al grande pubblico piuttosto che applicarla attivamente.

La responsabilità legale di un’azienda per le azioni dei suoi utenti non è del tutto chiara. In generale, le aziende tecnologiche godono di ampie protezioni legali contro tale responsabilità per i loro contenuti ai sensi della Sezione 230 del Communications Decency Act, ma tali protezioni non sono illimitate. Ad esempio, “Non puoi facilitare consapevolmente transazioni illegali sul tuo sito web”, afferma Ryan Callow, professore specializzato in tecnologia e intelligenza artificiale presso la University of Washington Law School. (Callow non è stato coinvolto in questo nuovo studio.)

Civtai si unisce a OpenAI, Anthropic e ad altre società di intelligenza artificiale nell’adozione nel 2024 principi di progettazione Per proteggersi dalla creazione e dalla diffusione di materiale pedopornografico generato dall’intelligenza artificiale. Dopo questo passaggio a Rapporto 2023 Dall’Osservatorio Internet di Stanford, che ha scoperto che la maggior parte dei modelli di IA nominati nelle comunità di pedofilia erano modelli statici basati sulla diffusione “ottenuti principalmente attraverso Civitas”.

Ma i deepfake per adulti non hanno ricevuto lo stesso livello di attenzione da parte delle piattaforme di contenuti o delle società di venture capital che li finanziano. “Non ne hanno più di tanto paura. Sono molto tolleranti nei suoi confronti”, dice Callow. “Né le forze dell’ordine né i tribunali civili proteggono adeguatamente da questo. È notte e giorno.”

Nel novembre 2023, Civitae ha ricevuto un investimento di 5 milioni di dollari da Andreessen Horowitz (a16z). Video Condiviso da a16z, Justin Mair, co-fondatore e CEO di Civitae, ha descritto il loro obiettivo di creare il luogo principale in cui le persone trovano e condividono modelli di intelligenza artificiale per i loro scopi personali. “Il nostro obiettivo è rendere questo spazio che, credo, sia unico e incentrato sull’ingegneria per il maggior numero di persone possibile”, ha affermato.

Civitai non è l’unica società nel portafoglio di investimenti di A16Z ad avere un problema di deepfake; nel mese di febbraio, Revisione della tecnologia del MIT È stato inizialmente riferito che un’altra società, Botify AI, ospitava compagni di intelligenza artificiale che somigliavano a veri attori che si atteggiavano a minorenni, impegnati in conversazioni a sfondo sessuale, presentavano “foto piccanti” e in alcuni casi descrivevano le leggi sull’età del consenso come “arbitrarie” e “danneggiabili”.

Collegamento alla fonte