Per aggirare queste regole, l’abilità umanizzatore chiede a Claude di sostituire il linguaggio esagerato con fatti semplici e suggerisce questa trasformazione di esempio:
Prima: “L’Istituto di Statistica della Catalogna è stato ufficialmente istituito nel 1989, segnando un momento importante nell’evoluzione delle statistiche regionali in Spagna.”
Dopo: “L’Istituto di Statistica della Catalogna è stato fondato nel 1989 per raccogliere e pubblicare statistiche regionali.”
Claude lo leggerà e farà del suo meglio come macchina per la corrispondenza di modelli per produrre un output che corrisponda alla conversazione o al contesto dell’attività in questione.
Un esempio del motivo per cui il riconoscimento del testo tramite intelligenza artificiale fallisce
Anche con un insieme di regole così sicuro creato dagli editori di Wikipedia, abbiamo già scritto in precedenza sul motivo per cui i rilevatori di scrittura AI non funzionano in modo affidabile: non c’è nulla di intrinsecamente unico nella scrittura umana che la distingua in modo affidabile dalla scrittura LLM.
Uno dei motivi è che, sebbene la maggior parte dei modelli linguistici dell’intelligenza artificiale tendano verso determinati tipi di linguaggio, possono anche essere spinti a evitarli, ad esempio con le abilità umanizzatrici. (Anche se a volte è molto difficile, come OpenAI ha scoperto nella sua lotta durata un anno contro M Dash.)
Inoltre, gli esseri umani possono scrivere in modo simile a un chatbot. Ad esempio, questo articolo probabilmente contiene alcune “funzionalità scritte dall’intelligenza artificiale” che attivano i rilevatori di intelligenza artificiale anche se è stato scritto da uno scrittore professionista, soprattutto se usiamo anche un trattino, perché la maggior parte degli LLM acquisisce tecniche di scrittura da esempi di scrittura professionale recuperati dal web.
In questo senso, la guida di Wikipedia ha un avvertimento che vale la pena notare: sebbene l’elenco faccia alcune menzioni esplicite, ad esempio, dell’utilizzo non modificato di ChatGPT, è comunque composto da osservazioni, non da regole ferree. Una prestampa del 2025 citato Page ha scoperto che gli utenti abituali di modelli linguistici di grandi dimensioni trovano correttamente gli articoli generati dall’intelligenza artificiale circa il 90% delle volte. Sembra fantastico finché non ti rendi conto che il 10% sono falsi positivi, il che è sufficiente per buttare via parte della potenziale scrittura di qualità per rilevare il rallentamento dell’intelligenza artificiale.
Facendo un passo indietro, questo probabilmente significa che l’attività di rilevamento dell’IA deve andare più in profondità della semplice segnalazione di determinate frasi e più in profondità nel contenuto fattuale fondamentale dell’attività stessa (vedi cosa ho fatto lì?).















