Wikipedia ha vietato i contenuti generati da modelli LLM (large-lingual models) dalla sua piattaforma, con due eccezioni.
Piattaforma Notare che I contenuti generati dall’intelligenza artificiale (AI) prodotti da ChatGPT, Claude, DeepSeek e Google Gemini “violano molte delle principali politiche sui contenuti di Wikipedia”.
eccezione
Wikipedia prevede due eccezioni alla sua politica sull’intelligenza artificiale.
Innanzitutto, gli editori possono utilizzare LLM per la copia, a condizione che LLM non crei il proprio contenuto come parte del testo fornito.
Secondo l’annuncio, “è necessaria cautela, perché i LLM possono andare oltre ciò che chiedi e cambiare il significato del testo in un modo che non è supportato dalla fonte citata”.
Wikipedia riconosce che è possibile per alcuni scrittori ed editori avere uno stile simile al LL.M.
“Giustificare un divieto richiede più prove che segni stilistici o linguistici, ed è meglio considerare la conformità del testo ai principi del contenuto originale e alle recenti modifiche dell’editore in questione”, si legge nell’annuncio.
Una seconda eccezione per gli editori riguarda le traduzioni.
Wikipedia, secondo gli editori, “è autorizzata a utilizzare LLM per tradurre articoli da Wikipedia in altre lingue in Wikipedia in inglese, ma deve seguire le linee guida delineate in Wikipedia: traduzione assistita da LLM”.
404 mezzi Il rapporto afferma che la decisione è arrivata dopo mesi di “acceso dibattito”.
Con il suo aiuto la politica è stata scritta WikiProject AI Cleanup.
“Un gran numero di testi generati da LLM rimangono su Wikipedia dal 2022 al 2026”, si legge nel sito.
“Lo scopo di questo progetto è identificare e affrontare l’uso improprio dell’intelligenza artificiale negli articoli.”
‘all’aperto’
in una dichiarazione Newsweek“La forza di Wikipedia è stata e sarà sempre il suo modello incentrato sull’uomo e guidato dai volontari”, ha affermato un portavoce della Wikimedia Foundation.
“I volontari discutono e dibattono finché non viene raggiunto un consenso condiviso su quali informazioni includere e come tali informazioni dovrebbero essere presentate”, ha detto il portavoce.
“Questo processo è completamente pubblico. Ogni modifica è visibile nella pagina ‘Cronologia’ e ogni argomento di discussione è visibile nella pagina di discussione dell’articolo.
“I volontari discutono, rivedono e sviluppano regolarmente politiche e linee guida per garantire che Wikipedia continui a essere una risorsa affidabile e imparziale per tutti.”
“È saggio evitarlo”
Molti commentatori su r/wikipedia di Reddit foro Pensavo che Wikipedia stesse prendendo un’ottima decisione.
“Base. Dona ora se puoi”, ha scritto uno.
“(I contenuti AI) inevitabilmente non soddisferanno gli standard editoriali e di ricerca di Wikipedia”, ha aggiunto un altro utente.
“I LLM sono incapaci di sintetizzare le prove in un argomento più ampio e si affidano invece alle sintesi già a loro disposizione all’interno della loro base di conoscenza. Ciò ignora persino la tendenza dei LLM a innovare e falsificare le fonti”.
Altrove, “le società LLM utilizzano i propri dati per addestrare i propri modelli”, ha pubblicato una persona.
“Dal punto di vista di Wikimedia, è saggio evitare questo, per evitare il ‘collasso del modello’, altrimenti rischiano di perdere il loro nuovo flusso di entrate.”
Tuttavia, alcuni critici si sono chiesti come Wikipedia lo saprebbe.
“Il punto è: come puoi verificare in modo affidabile che qualcosa sia stato scritto da un LL.M.”, ha chiesto un commentatore.
“Penso che alla fine si tornerà alle regole esistenti.”
Newsweek Wikipedia è stata raggiunta per un commento via e-mail.















