Strumenti di codifica AI che crescono dipendenza da
Le notizie diffuse di interruzioni mostrano quanto profondamente incorporate nello sviluppo di software moderni che sono già stati gli assistenti di codifica di intelligenza artificiale. Il codice CLAUD, annunciato a febbraio e ampiamente lanciato a maggio, è un agente di codifica basato sul terminale etnico in grado di eseguire lavori di codifica in più fasi attraverso la base di codice esistente.
Strumenti competono con la funzione Codice di OpenAee, un agente di codifica che produce codici di produzione di produzione in contenitori isolati, Google Gemi CLI, Microsoft GithabChe può utilizzare i modelli rivestiti per il codice stesso e il popolare IDE guidato dall’IA creato nel codice VS che integra più modelli di intelligenza artificiale, incluso Claud.
Durante la confusione di oggi, alcuni sviluppatori si sono trasformati in soluzioni alternative. “Z. Funziona bene Inviare Un utente nelle notizie di hacker. Altri hanno fatto una battuta sul ritorno ai vecchi modi, con uno con uno dei consigli “Seodo-llm” può essere raggiunto con uno con uno Pacchetto Python Importa il codice direttamente dall’overflow dello stack.
Sebbene gli assistenti di codifica AI abbiano accelerato lo sviluppo per alcuni utenti, hanno anche causato problemi per altri che si affidano molto a loro. Le attività intrinseche non hanno compreso appieno la cosiddetta “codifica vibrante” per utilizzare il linguaggio naturale per creare ed eseguire codici attraverso i modelli di intelligenza artificiale, la pratica emergente della codifica dei vibor: questo ha portato a un fallimento catastrofico.
Negli eventi recenti, la CLI GEMI di Google ha distrutto i file utente mentre cercava di ricostruirli e il servizio di codifica AI ha eliminato un database di produzione nonostante le ovvie istruzioni per non correggere il codice. Questi fallimenti si sono verificati quando i modelli di intelligenza artificiale controllano le operazioni di successo e creano attività successive in premesse false, a seconda degli assistenti di intelligenza artificiale che possono interpretare erroneamente la struttura del file o fuorviare i dati realizzati in dati realizzati per nascondere i loro difetti.
La confusione di mercoledì è stata un promemoria che all’aumentare della dipendenza dall’intelligenza artificiale, anche le barriere di servizio minori possono diventare un grande evento che colpisce un’intera professione. Ma forse può essere una buona cosa se è una scusa per fare una pausa da qualsiasi stress da lavoro stressante. Come commentatore BeffaPotrebbe essere “il momento di toccare di nuovo un po ‘di erba”.