Cosa succede quando centinaia di agenti IA autonomi hanno il compito di costruire da zero un browser web completamente funzionante? Basic Dave spiega come il team Cursor ha tentato questo ambizioso esperimento volto a ampliare i confini dello sviluppo di software basato sull’intelligenza artificiale. Nonostante la promessa di tecnologie innovative e investimenti spettacolari $ 5 milioniIl progetto non ha raggiunto il suo obiettivo, mettendo in luce gravi difetti nella capacità dell’intelligenza artificiale di gestire compiti complessi e collaborativi. Dai conflitti di blocco dei file ai componenti incompleti, questo esperimento ha rivelato una chiara realtà di dove si trova l’intelligenza artificiale e dove fatica a sostituire le competenze umane.

In questa panoramica scopriremo gli affascinanti dettagli della sperimentazione del cursore, dal sistema di lavoro gerarchico progettato per migliorare il coordinamento dell’intelligenza artificiale alla sorprendente dipendenza da librerie open source preesistenti. Saprai perché è nato il progetto 1 milione di righe di codice L’incapacità di creare ancora un browser funzionale e cosa significa per il futuro dell’intelligenza artificiale nello sviluppo di software. Che tu sia curioso riguardo alle sfide tecniche o alle implicazioni più ampie del ruolo dell’intelligenza artificiale nell’ingegneria, questa panoramica offre uno sguardo dettagliato alle lezioni apprese. Questa è una storia di ambizione, limiti e dell’innegabile importanza della supervisione umana nel dare forma a ciò che l’intelligenza artificiale può ottenere.

Limitazioni dell’intelligenza artificiale nella codifica

TL;DR Fatti principali:

  • Lo scopo dell’esperimento era verificare se gli agenti IA autonomi potessero sviluppare autonomamente un browser web funzionale, ma alla fine è fallito a causa di inefficienze ed errori nella collaborazione e nell’esecuzione.
  • Le sfide includevano conflitti di blocco dei file, duplicazione di attività e componenti incompleti, evidenziando la difficoltà di coordinare centinaia di agenti IA su attività complesse.
  • Un sistema di gestione gerarchica delle attività ha migliorato leggermente il coordinamento ma non è riuscito a risolvere problemi diffusi, risultando in oltre 1 milione di righe di codice incoerente e soggetto a errori.
  • Il progetto ha fatto molto affidamento su librerie open source preesistenti, sollevando interrogativi sull’originalità e sulle capacità degli agenti AI nella creazione dei componenti principali del browser.
  • L’esperimento ha consumato 3-5 milioni di dollari di risorse, dimostrando che l’intelligenza artificiale può generare grandi quantità di codice, ma la supervisione e la competenza umana sono necessarie per produrre software funzionale e di alta qualità.

Esplorare gli obiettivi dell’esperimento

Lo scopo dell’esperimento era verificare se gli agenti di intelligenza artificiale potessero sostituire i tradizionali ingegneri del software automatizzando lo sviluppo dei browser web. Nel corso di una settimana, centinaia di agenti IA sono stati incaricati di progettare e codificare componenti critici del browser, tra cui:

  • Uno Analizzatore HTML
  • UN analizzatore css
  • UN motore di rendering

Inizialmente, agli agenti veniva concessa completa autonomia per organizzare ed eseguire i propri compiti. Tuttavia, questo approccio ha rivelato rapidamente significative inefficienze. Il coordinamento tra gli agenti si è interrotto, portando a diversi problemi seri:

  • Conflitto di blocco dei file: Più agenti hanno tentato di accedere o modificare lo stesso file contemporaneamente, causando ritardi ed errori.
  • Ripetizione dell’attività: Gli agenti lavoravano in modo ridondante sugli stessi compiti, sprecando preziose risorse computazionali.
  • Componenti incompleti: Gli agenti evitavano compiti complessi o poco chiari, lasciando incomplete parti importanti del progetto.

Queste sfide evidenziano la difficoltà di ottenere una collaborazione continua tra agenti IA autonomi, soprattutto in un progetto complesso come lo sviluppo di browser.

Implementazione di un sistema di gestione del lavoro gerarchico

Per eliminare le inefficienze, il team ha introdotto un sistema di gestione del lavoro gerarchico. Questa struttura divide gli agenti AI in tre ruoli distinti per migliorare il coordinamento e l’esecuzione delle attività:

  • Pianificatore: Responsabile della divisione del progetto in compiti piccoli e gestibili e della loro assegnazione agli agenti lavoratori.
  • Lavoratori: Focalizzato sull’esecuzione dei compiti assegnati dai pianificatori.
  • giudice: È stata valutata la qualità e l’accuratezza dell’output generato dai lavoratori.

Questo approccio strutturato ha portato alcuni miglioramenti nell’allocazione del lavoro e una riduzione dei licenziamenti. Tuttavia, ciò non è stato sufficiente per superare sfide più ampie. Alla fine dell’esperimento, gli agenti IA avevano generato oltre 1 milione di righe di codice in 1.000 file. Nonostante questo risultato impressionante, il codice risultante era pieno di errori, incoerenze e avvisi. Il browser non soddisfaceva i requisiti di funzionalità di base e non seguiva gli standard web stabiliti.

Il progetto dell’agente Cursor AI non riesce a fornire un browser Web funzionante

Esplora altre guide dal nostro vasto contenuto che potrebbero interessare agli agenti AI.

Sfide nello sviluppo di un browser

Una delle critiche più significative all’esperimento è stata l’affermazione che gli agenti AI hanno sviluppato componenti fondamentali del browser come i parser HTML e CSS completamente da zero. Dopo un esame più attento, gli esperti hanno scoperto che il progetto dipendeva fortemente dalle librerie open source preesistenti. servo E quickjs. Questa dipendenza ha sollevato dubbi sull’originalità del lavoro e sull’entità del contributo degli agenti di intelligenza artificiale al processo di sviluppo.

Anche la qualità del codice generato dall’intelligenza artificiale è stata esaminata attentamente. Gli esperti hanno individuato diverse gravi carenze:

  • Cattiva progettazione: Il codice mancava di modularità, rendendone difficile la manutenzione o l’estensione.
  • Incoerenza: I componenti generati non riuscivano a soddisfare i requisiti dei motori web reali.
  • Non conformità: Il codice non seguiva gli standard di settore o le migliori pratiche, limitandone ulteriormente l’utilità.

Questi problemi evidenziano le sfide legate all’utilizzo dell’intelligenza artificiale per produrre in modo indipendente software che soddisfi le aspettative di livello professionale. L’esperimento ha dimostrato che l’intelligenza artificiale può generare grandi quantità di codice, ma ha difficoltà con il processo decisionale micro e la pianificazione strategica richiesti per progetti software complessi.

Costi finanziari e computazionali

L’esperimento ha richiesto un sostanziale investimento di risorse finanziarie e computazionali. Le stime mostrano che il progetto ha consumato tra $ 3 milioni e $ 5 milioni Nelle risorse computazionali, tra cui l’infrastruttura cloud e la potenza di elaborazione. Nonostante questa spesa significativa, il progetto non è riuscito a raggiungere il suo obiettivo primario di fornire un browser web funzionale. Ciò solleva importanti domande sull’efficienza e la scalabilità dell’intelligenza artificiale autonoma nello sviluppo di software su larga scala.

Risultati chiave e implicazioni più ampie

L’esperimento del cursore ha fornito preziose informazioni sulle attuali capacità e limiti dell’intelligenza artificiale nello sviluppo di software. Le lezioni chiave del progetto includono:

  • Volume vs qualità: Sebbene gli agenti IA possano generare grandi quantità di codice, faticano a produrre software funzionale e di alta qualità senza l’intervento umano.
  • L’ispezione umana è necessaria: Una guida e una supervisione efficaci sono fondamentali per garantire che i progetti basati sull’intelligenza artificiale forniscano risultati significativi.
  • Ruoli supplementari: Il ruolo dell’intelligenza artificiale nello sviluppo del software è visto come un complemento, piuttosto che un sostituto, della competenza umana.

Sebbene alcuni critici sostengano che l’esperimento sia stato più uno sforzo di marketing che una vera svolta tecnologica, esso evidenzia comunque i limiti dell’intelligenza artificiale autonoma. Poiché la tecnologia dell’intelligenza artificiale continua a svilupparsi, è probabile che le sue capacità nello sviluppo di software si espandano. Tuttavia, l’esperimento chiarisce che le competenze umane rimarranno indispensabili per colmare il divario tra le capacità dell’intelligenza artificiale e le esigenze delle applicazioni del mondo reale.

Credito mediatico: sviluppo di base

Archiviato in: AI, Notizie sulla tecnologia, Notizie principali





Ultime offerte di gadget Geeky

Divulgazione: Alcuni dei nostri articoli contengono link di affiliazione. Se acquisti qualcosa tramite uno di questi link, Geeky Gadgets può guadagnare una commissione di affiliazione. Scopri la nostra politica di divulgazione.

Collegamento alla fonte