Questi sono i giorni in cui il Web è stato dominato dagli aggiornamenti dei social media sul Web o sul Web sugli umani. All’inizio di quest’anno, dopo che i primi dati sono stati monitorati, Robot Web-puzz invece di umaniIl Web è responsabile dell’ingrosso del traffico.
Ad esempio, da oltre la metà dei robot dannosi di quel traffico di bot, i singoli dati non sono stati garantiti online. Ma un rapporto crescente deriva dai robot inviati dalle società di intelligenza artificiale per raccogliere dati per il loro modello o per rispondere ai segnali degli utenti. In effetti, l’utente di Chatgate, un bot che alimenta OpenAi’s Chatgate, è ora responsabile del 6 percento di tutto il traffico web, mentre un sistema automatizzato sviluppato dall’AI Company Antropic è per Cloudbott, 13 percento.
Le aziende di intelligenza artificiale affermano che tali demolizioni di dati sono importanti per mantenere aggiornato il suo modello. I creatori di contenuti si sentono diversi, tuttavia, guardando i robot di intelligenza artificiale come strumento per una splendida violazione del copyright. All’inizio di quest’anno, ad esempio, Disney e Universal hanno intentato una causa contro la compagnia AI Midorney, sostenendo che l’immagine dell’azienda tecnologica era le lettere di Plagiars del generatore di immagini come i famosi franchisee come il famoso franchise Star Wars E Detestabile me,
Alcuni creatori di materiali hanno denaro per i casi, quindi alcuni stanno adottando metodi più radicali per combattere. Stanno usando strumenti online che rendono difficile trovare i loro contenuti per i robot di intelligenza artificiale o che lo manipolano in questo modo I trucchi lo hanno detto in modo erratoIn modo che l’IA inizi a confondere immagini di auto con immagini di mucche. Ma quando questo materiale “avvelenamento da AI” può aiutare i creatori a proteggere il loro lavoro, può inavvertitamente rendere la rete più pericolosa.
Violazione del copyright
Per secoli, Copycatis ha guadagnato un rapido profitto copiando il lavoro degli artisti. Questo è uno dei motivi per cui abbiamo le leggi sulla proprietà intellettuale e sul copyright. Ma negli ultimi anni, il generatore di immagini AI come Midorney o Dal-E di Openaii ha supercizzato il problema.
Una preoccupazione centrale negli Stati Uniti è conosciuta come teoria del fair use. Ciò consente l’uso di campioni di copyright in determinate condizioni senza richiedere l’autorizzazione al titolare del copyright. La legge sull’uso equo è deliberatamente flessibile, ma nel suo cuore è l’idea che puoi usare un’opera originale per creare qualcosa di nuovo, a condizione che sia cambiato abbastanza e non sia un effetto di mercato dannoso sull’opera originale.
Molti artisti, musicisti e altri attivisti sostengono che i materiali delle attrezzature di intelligenza artificiale stanno colorando il confine tra uso equo e violazioni del copyright per il costo dei creatori. Ad esempio, non è necessariamente dannoso disegnare un’immagine di Topolino per qualcuno, dice l’universo Sympansons per il proprio intrattenimento. Ma con l’IA, ora è possibile per chiunque girare un gran numero di tali immagini rapidamente e in questo modo, in cui la natura trasformativa di ciò che hanno fatto è dubbio. Una volta formate queste immagini, sarà facile produrre una serie di magliette alla loro base, ad esempio, che supererà l’uso individuale all’uso commerciale e dissolverà la teoria dell’uso equo.
Desiderosi di proteggere i loro interessi commerciali, alcuni produttori di materiali negli Stati Uniti stanno intraprendendo azioni legali. Disney e Universal Case contro Midzorney sono stati lanciati a giugno, solo l’ultimo esempio. Altri sono inclusi La battaglia legale tra Il New York Times E aperto Su presunta uso non autorizzato delle storie di giornali.

Disney ha citato in giudizio la compagnia AI Midzorney sul suo generatore di immagini, che afferma che il Playziyaris Disney Varna
Foto 12/Almi
Le aziende di intelligenza artificiale negano qualsiasi illecito, affermando che la raschiatura dei dati è consentita sotto la corretta teoria dell’uso. In Lettera aperta all’Ufficio americano di scienza e politica tecnologica A marzo, Chris Lehene, il Chief Global Affairs Officer di Openaii, ha avvertito che le rigorose regole del copyright altrove nel mondo, dove Sono stati fatti sforzi per fornire una forte sicurezza del copyright Per i creatori di materiali, “l’innovazione e gli investimenti sono soppressi”. Openai ha precedentemente dichiarato che sarebbe “impossibile” sviluppare un modello di intelligenza artificiale che soddisfa le esigenze delle persone senza usare il lavoro sul copyright. Google ha una vista simile. In una lettera aperta pubblicata a marzo, la società ha dichiarato: “Tre campi dei modelli leader di legge: il copyright, la privacy e la formazione sui brevetti possono interrompere l’accesso corretto ai dati richiesti per la formazione”.
Tuttavia, almeno in questo momento, sembra che gli attivisti abbiano un’opinione pubblica. Quando il sito Ipwatchdog ha analizzato le reazioni pubbliche per un’indagine su copyright e AI da parte dell’ufficio del copyright degli Stati Uniti, è stato scoperto che si è scoperto che Commenti del 91 percento Ci sono emozioni negative sull’intelligenza artificiale.
L’IA non può aiutare le aziende a guadagnare simpatia pubblica, si sospetta che i loro robot stiano inviando così tanto traffico ad alcuni siti Web Stanno sottolineando le risorse E forse Persino costringendo alcuni siti Web ad andare offline – E quei produttori di materiali sono impotenti per fermarli. Ad esempio, ci sono tecniche che i creatori di materiali possono utilizzare per uscire per strisciare i loro siti Web, tra cui il ri -organizzazione di un piccolo file nel cuore del sito Web, per dire che i robot sono stati vietati. Ma ci sono segni che a volte le bottiglie possono fare Negare tali richieste E continua comunque a strisciare.
Avvelenamento da dati AI
Raramente è sorpreso che vengano forniti nuove attrezzature ai creatori che forniscono una forte protezione contro i robot di intelligenza artificiale. Un dispositivo è stato lanciato da ClaudFlare quest’anno da una società di infrastrutture Internet, che fornisce protezione contro gli attacchi Daniel-Off-Service (DDOS) distribuiti ai suoi utenti, in cui un aggressore si inonda con un server Web con così tanto traffico che chiude il sito stesso. Per combattere i robot di intelligenza artificiale che possono causare rischi come i propri DDO, Claudflair sta combattendo il fuoco con il fuoco: produce un labirinto di pagine trasmesse dall’intelligenza artificiale piene di materiali senza senso in modo che i robot di intelligenza artificano passi tutto il loro tempo ed energia, che stanno guardando la spazzatura invece di informazioni reali.
Attrezzatura, nota come AI LabyrinthClaudflare, progettato per intrappolare 50 miliardi di richieste di AI Craler al giorno, afferma di affrontare siti Web all’interno della sua rete. Secondo CloudFlare, AI Labyrinth dovrebbe rallentare, confondere e rovinare le risorse di Ai Craler e altri robot che rispettano le istruzioni “No Crawl”. Da allora Cloudflare ha rilasciato Un’altra attrezzaturaIl che chiede alle società di intelligenza artificiale di pagare per raggiungere i siti Web o è bloccato strisciando i suoi contenuti.
Un’alternativa consente ai robot di intelligenza artificiale di raggiungere i contenuti online, ma sottili per “avvelenare” in modo tale da offrire ai dati meno utili per gli obiettivi del bot. attrezzatura Occhiata E NatshideSviluppata all’Università di Chicago, questa forma di resistenza è diventata centrale. Entrambi sono gratuiti da scaricare dal sito Web universitario e possono camminare sul computer dell’utente.
Glaze, rilasciato nel 2022, serve difensivamente per il lavoro di un artista, implementando il cambiamento a livello di pixel o “mantelli di stile”. Questi cambiamenti sono invisibili agli umani, interpretare male lo stile dell’arte al modello AI. Ad esempio, una pittura ad acquerello può essere considerata come dipinto ad olio. Knightshed pubblicato nel 2023, è un dispositivo più aggressivo che è un dati più invasivi – per quanto riguarda gli umani – in un certo senso incoraggia un modello di intelligenza artificiale a creare un’associazione sbagliata, come imparare ad aggiungere la parola “gatto” con le immagini dei cani. Entrambi i dispositivi sono stati scaricati più di 10 milioni di volte.

Lo strumento da notte avvela gradualmente i robot di AI in modo che indicano i cani come gatti
Ben Y. Shed
Gli strumenti di avvelenamento AI rimettono il potere nelle mani degli artisti, Ben Jhao All’Università di Chicago, che sono ricercatori senior dietro glassati e notti. Dice: “Queste sono società di battute di mercato da trilioni di dollari, che sono veramente le più grandi aziende del mondo, che vogliono”.
L’uso di dispositivi come lo spazzamento è un modo per gli artisti di ridurre la piccola potenza su come usano il loro lavoro. “Gli occhiali e i cavalieri sono strumenti davvero interessanti e calmi che mostrano un modo di agire pulito che non dipende dalle regole che cambiano, che possono richiedere del tempo e non possono essere un luogo di profitto per gli artisti”, Jacob Hoffman-Andrews Nella Fondazione Electronic Frontier, i diritti digitali con sede negli Stati Uniti sono senza scopo di lucro.
L’idea di materiale autonoma non è nuova nel cercare di presunta copia. Elonora Rosati All’Università di Stoccolma in Svezia. “Ai tempi, quando c’era un grande uso non autorizzato del database – dai direttori telefonici alle liste dei brevetti – è stato consigliato di mettere alcuni errori per aiutarti in caso di prove”, afferma. Ad esempio, un cartografo può includere deliberatamente il nome di un posto falso sulla sua mappa. Se quei nomi falsi compaiono nella mappa costruita da un rivale in seguito, fornirà chiari prove di furto letterario. La pratica è ancora in servizio oggi: sito web musicale genio Dichiarato di aggiungere vari tipi di epostrofi Nei suoi contenuti, il che è stato affermato che Google stava usando il suo materiale senza permesso. Google ha negato le accuse e un caso giudiziario presentato da Genius contro Google è stato licenziato.
Anche chiamarlo “sabotaggio” è una questione di dibattito, secondo Hoffman-Andrews. “Non lo capisco come sabotaggio”, dicono. “Queste sono le immagini dell’artista che stanno implementando il proprio editing. Sono completamente liberi di fare ciò che vogliono con i loro dati.”
Non è noto che in che misura le aziende di intelligenza artificiale stanno prendendo i propri controtest per cercare di combattere questo avvelenamento del pozzo, ignorando qualsiasi materiale contrassegnato con veleno o cercando di rimuoverlo dai dati. Ma gli sforzi di Jhao per rompere il proprio sistema hanno rivelato che Glaze era ancora efficace dell’85 % contro tutti i banchi che poteva pensare di prendere, suggerendo che le aziende di intelligenza artificiale potrebbero concludere che trattare con i dati del veleno è più problematico di quanto ne valga la pena.
Notizie false
Tuttavia, non è solo un artista con materiali che stanno sperimentando avvelenamento del pozzo contro l’IA. Alcuni stati-nazione stanno usando principi simili per portare avanti false narrazioni. Ad esempio, il think tank con sede negli Stati Uniti che il Consiglio Atlantico ha affermato all’inizio di quest’anno che la rete di notizie di Pravada in Russia, il cui nome è “verità” in russo. Tossicità usata Ai bot per trasmettere notizie false.
Il think tank presumibilmente prevede la pubblicazione di milioni di pagine Web nell’approccio di Pravada, come il labirinto di AI di Claudflare. Ma in questo caso, il Consiglio Atlantico afferma che la pagina è progettata per assomigliare a veri articoli di notizie e viene utilizzata in Ucraina per promuovere la storia del Cremlino sulla guerra della Russia. La pura quantità di storie può portare a Ai Craler per enfatizzare alcune narrazioni sulla risposta agli utenti e quest’anno un’analisi pubblicata dalla società tecnologica statunitense Newsgard, che tiene traccia delle attività di Pravada, ha scoperto 10 principali chatbot AI emettono il testo per adattarsi alle idee di Pravada In un terzo dei casi.
Il successo relativo nel muovere le conversazioni evidenzia il problema sottostante con tutte le cose: i trucchi tecnologici utilizzati da buoni attori con buone intenzioni possono sempre essere bocconiati da obiettivi malvagi da cattivi attori.
Tuttavia, esiste una soluzione a questi problemi, afferma Jhao, sebbene potrebbe non essere uno che le aziende di intelligenza artificiale sono pronte a prendere in considerazione. Invece di raccogliere tutti i dati che possano trovare indiscriminatamente, le aziende di intelligenza artificiale possono stipulare accordi formali con fornitori di materiali legittimi e garantire che i loro prodotti siano formati utilizzando solo dati affidabili. Ma questo approccio ha un prezzo, poiché gli accordi di licenza possono essere costosi. “Queste aziende non sono pronte a dare la licenza alle opere di questi artisti”, afferma Zhao. “Ci sono soldi nella radice di tutto questo.”
Soggetto:
- intelligenza artificiale,
- Gonfio















