Dan Houser, co-fondatore di Rockstar ed ex scrittore di Grand Theft Auto, ha paragonato l’intelligenza artificiale alla mucca pazza e ha affermato che l’umanità viene trascinata in una direzione “da un certo gruppo di persone che potrebbero non essere persone a tutto tondo”.
L’impatto dell’intelligenza artificiale è stato rapido e forte e con l’avvento di tecnologie come ChatGPT che alimentano una bolla economica, alcune preoccupazioni potrebbero scoppiare. Anche l’idea del fair use dei contenuti per addestrare modelli di intelligenza artificiale sui ferri corti con la protezione del copyright sta rimodellando il modo in cui funziona Internet. Ciò ha provocato un contenzioso in corso. Disney e Universal, ad esempio, hanno citato in giudizio il produttore di immagini di intelligenza artificiale Midjourney, sostenendo che la società ha utilizzato e distribuito in modo improprio i personaggi generati dall’intelligenza artificiale dei loro film. La Disney ha anche inviato una lettera di cessazione e desistenza a Character.AI, avvertendo la startup di smettere di usare i suoi personaggi protetti da copyright senza autorizzazione.
Entra Dan Houser, che ha lasciato Rockstar nel 2020 e ha visto Absurd Ventures lavorare su tutti i giochi dello studio fino a quel momento. Il suo nuovo romanzo, A Better Paradise, è una storia che ruota attorno all’intelligenza artificiale, e quindi è logico che gli sia stato chiesto della tecnologia in una recente intervista. Virgin Radio UK.
Hauser ha ragione a essere scettico sul futuro dell’intelligenza artificiale.
“Alcune di queste persone che usano l’intelligenza artificiale per cercare di definire il futuro dell’umanità, della creatività o altro, non sono le persone più umane o creative”, ha detto. “Quindi dicono che come esseri umani siamo migliori di voi. E questo ovviamente non è vero.
“Questa è una delle altre cose che stiamo cercando di catturare, è che l’umanità viene trascinata in una direzione da un certo gruppo di persone che forse non sono persone a tutto tondo.”
Ha continuato: “Penso che l’intelligenza artificiale alla fine mangerà se stessa. Per quanto ho capito, il che è molto superficiale, i modelli frugano in Internet alla ricerca di informazioni, ma Internet sarà sempre più pieno di informazioni generate dai modelli. Quindi è come quando mangiamo mucca con mucca e ci viene la malattia della mucca pazza.
“Non vedo come i dati miglioreranno. Stanno già finendo i dati. Farà alcune cose alla grande ma non farà tutto alla grande. Diventerà una specie di specchio di se stesso.
“Sono un po’ ossessionato dal fatto che quando cerchi di nuovo la stessa cosa, non ti dà la stessa risposta. Ed è sbagliato la maggior parte delle volte, ma lo dice con tanta sicurezza.”
Hauser sta parlando di cosa succede quando i modelli di intelligenza artificiale iniziano ad allenarsi sui propri risultati, cosa che secondo gli esperti li mette a rischio di rottura. I modelli linguistici di grandi dimensioni, o LLM, che rafforzano quelli come ChatGPT si definiscono cannibalizzazione tramite Garbage In/Garbage Out (GIGO). Oppure, come dice Hauser, “Questo è ciò che accade quando mangiamo mucche con mucche e ci viene la malattia della mucca pazza”.
L’uso dell’intelligenza artificiale nell’intrattenimento è uno degli argomenti più caldi tra videogiochi, film e televisione. Il mese scorso, il CEO di Zenvid, la società dietro la serie interattiva scegli la tua avventura Ascensione di Silent Hill – afferma che “i consumatori in genere non si preoccupano” dell’intelligenza artificiale generativa nei giochi: “La generazione Z ama l’intelligenza artificiale”.
Ma c’è qualche resistenza. Questa settimana, Epic Games è stata criticata per ciò che i fan credono essere arte generata dall’intelligenza artificiale in Fortnite.
Foto di Chelsea Guglielmino/Getty Images.
Wesley è il direttore delle notizie di IGN. Trovatelo su Twitter all’indirizzo @wyp100. Puoi contattare Wesley a wesley_yinpoole@ign.com o privatamente a wyp100@proton.me.















