Solo due anni fa, agli studenti in Cina è stato chiesto di evitare di usare l’IA per i loro incarichi. A quel tempo, per aggirare un blocco nazionale su Chatgpt, gli studenti dovevano acquistare una versione a specchio da un mercato di seconda mano. Il suo uso era comune, ma era meglio tollerato e annegato più spesso. Ora, i professori non avvertono più gli studenti dall’uso dell’IA. Invece, sono incoraggiati a usarlo, fino a quando non seguono le migliori pratiche.

Come quelli in Occidente, le università cinesi stanno subendo una rivoluzione tranquilla. L’uso dell’intelligenza artificiale generica nel campus è diventato quasi universale. Tuttavia, c’è una differenza significativa. Mentre molti insegnanti in Occidente vedono l’IA come una minaccia, devono gestire, più lezioni di cinese lo assumono come un’abilità per padroneggiarlo. Leggi la storia completa.

-Cawai Chen

Se sei interessato a leggere di più su come l’IA sta influenzando l’educazione, allora vedi:

+ È menzionato qui come le aziende Ed-Tech stanno lanciando insegnanti AI.

+ I giganti degli AI come OpenI e Antropic affermano che le loro tecnologie possono aiutare gli studenti a imparare, non solo che imbroglia. Ma l’uso del mondo reale altrimenti suggerisce altrimenti. Leggi la storia completa.

+ La storia attorno agli studenti imbroglioni non racconta l’intera storia. Incontra gli insegnanti che pensano che l’IA generativa possa davvero migliorare l’apprendimento. Leggi la storia completa.

+ Questo sistema AI migliora i tutor umani nell’insegnamento della matematica ai bambini. Il tutor si chiama copilota, mostra come l’IA può aumentare, piuttosto che cambiare il lavoro degli insegnanti. Leggi la storia completa.

Perché è così difficile costruire una fiera dell’intelligenza artificiale

Ci sono molte storie sull’intelligenza artificiale che causano danni quando vengono distribuiti in situazioni sensibili e, in molti di questi casi, il sistema è stato sviluppato senza molta ansia sia che significhi o applicare l’equità.

Ma la città di Amsterdam ha speso molto tempo e denaro per cercare di creare un’intelligenza artificiale morale – in effetti, ha seguito ogni raccomandazione nel playbook di AI responsabile. Ma quando lo ha distribuito nel mondo reale, non può ancora rimuovere i pregiudizi. Allora perché Amsterdam ha fallito? E cosa più importante: può mai essere corretto?

La nostra editrice Amanda Silverman, la giornalista investigativa Eleen Guo e Gabriel Gigar, si uniscono a un giornalista investigativo del Lighthouse Report, una tavola rotonda della Cavalry per la conversazione per scoprire alle 13:00 di mercoledì 30 luglio per scoprire se l’algoritmo può essere appropriato in qualsiasi momento. Registrati qui!

Collegamento alla fonte