E se l’intelligenza artificiale su cui fai affidamento può dire con fiducia, “Non lo so”, invece di fuorviarti con un encomiabile ridicule, ma completamente sbagliato, reagire? Nel corso degli anni, il tallone di Akilis di grandi modelli linguistici (LLM) è stata la sua tendenza a produrre le cosiddette “allucinazioni”-che sembra affidabile, ma manca di precisione fattuale. Questi incomprensioni hanno ridotto la fiducia nell’intelligenza artificiale in settori importanti come l’assistenza sanitaria, l’istruzione e la legge, ovunque possano verificarsi i risultati di poco inesattezza. Ma ora, Openai ha affermato di rompere il codice. Ripensare il modo in cui LLM viene addestrato e valutato, hanno esposto le cause della radice delle allucinazioni e hanno proposto nuove strategie per affrontarle. Può essere una svolta per l’affidabilità dell’IA?

In questa osservazione, Ves Roth spiega le magnifiche implicazioni delle conclusioni di OpenI e come modellano nuovamente il futuro del sistema AI. Integrando Livello di confidenza In risposta alla ricompensa del modello per accettare incertezza, queste innovazioni promettono di rendere l’IA non solo intelligente ma più affidabile. Scoprirai perché hanno allucinazioni, come vengono eliminati dai metodi di allenamento attuali e cosa succederà per attraversare queste sfide. Ulteriori strada non è priva di barriere, ma l’IA ha la capacità di creare un sistema che dà la priorità Precisione di fiducia Può ridefinire il suo ruolo nelle applicazioni ad alto punto. Se l’IA può imparare a dire alla fine “Non sono sicuro”, cos’altro può essere giusto?

Riduci le allucinazioni in LLM

Tl; Dr Key Takeaways:

  • Le allucinazioni nell’LLM si verificano quando i modelli producono un output ammirevole ma fatto errata, spesso a causa di metodi di allenamento che preferiscono la risposta alla fiducia sull’accuratezza.
  • La formazione e la valutazione della ricerca di Openai identificano questioni sistemiche nelle pratiche, come la mancanza di incoraggiamento ad accettare incertezza e dipendenza dalla matrice binaria Pass/fallimento.
  • Le soluzioni proposte includono incertezza gratificante, perfezionamento della matrice di valutazione e punizione eccessiva di fiducia per migliorare l’affidabilità e la trasparenza della produzione LLM.
  • Le sfide nell’implementazione di queste soluzioni includono il ripristino dei parametri di riferimento, l’affrontare i costi computazionali e l’adattamento della struttura di formazione per incorporare le misurazioni della fiducia.
  • La riduzione delle allucinazioni può aumentare significativamente l’affidabilità di LLM in settori importanti come l’assistenza sanitaria, la ricerca legale e l’educazione, promuovendo la fiducia e adottando ampiamente il sistema di intelligenza artificiale.

Quali sono le allucinazioni in LLMS?

Le allucinazioni si verificano quando un LLM produce reazioni che sembrano affidabili ma mancano di precisione fattuale. Questo fenomeno sorge spesso quando il modello è incerto, ma è costretto a fornire una risposta. Come uno studente, l’LLM è addestrato per massimizzare l’accuratezza senza punire per stime errate, specificate o premiate per accettare incertezza. Questo comportamento è il risultato diretto delle attuali pratiche di addestramento e valutazione, che preferiscono l’output fiducioso su allerta o persone accurate.

Le implicazioni delle allucinazioni sono importanti, soprattutto in applicazioni ad alto punto come l’assistenza sanitaria, la ricerca legale e l’istruzione. In questi contesti, anche le impurità minori possono avere gravi conseguenze, sottolineano la necessità di soluzioni che affrontano il problema alla sua origine.

Formazione e valutazione: origine del problema

Lo studio di Openi identifica carenze significative nelle tecniche di apprendimento utilizzate per formare LLM. Questi metodi premiano il modello per le risposte corrette, ma non riescono a incoraggiarli ad accettare incertezza. Inoltre, il sistema di valutazione si basa spesso su metriche binarie pass/fail, che ignora le reazioni fini come “Non lo so”. Questo approccio incoraggia inconsapevolmente il modello a dare la priorità alle risposte piene di confidenza, anche quando mancano di conoscenze sufficienti per garantire l’accuratezza.

La ricerca afferma che questo problema non è solo un intervallo tecnico, ma una sfida sistemica su come LLM è stata progettata e valutata. Concentrandosi sulla fiducia sull’accuratezza, l’attuale funzionamento elimina inconsapevolmente il problema delle allucinazioni, limitando l’affidabilità di questi modelli in scenari del mondo reale.

Openai ha appena risolto le allucinazioni …

Leggendo gli articoli precedenti scritti da noi, sblocca più capacità nel Big Language Model (LLM).

L’output di LLM include il livello di fiducia

Una soluzione promettente proposta da OpenAI è l’integrazione del livello di fiducia nell’output LLM. La fiducia può essere valutata analizzando ripetutamente la stabilità di un modello Reazioni per le domande. Per esempio:

  • Le risposte costanti con variazioni minori spesso indicano un’alta fiducia nella reazione.
  • Le reazioni incoerenti o contraddittorie suggeriscono incertezza e mancanza di conoscenze affidabili.

Incorporando misurazioni di fiducia sia nei processi di formazione che di valutazione, LLM può essere meglio allineato con le loro conoscenze effettive. Ciò consentirà al modello di aggiustamento di esprimere incertezza quando appropriato, di ridurre la possibilità di allucinazioni e aumentare l’affidabilità complessiva.

Strategie per ridurre le allucinazioni

Lo studio Openai sottolinea diverse strategie pratiche per affrontare le allucinazioni e migliorare la dipendenza di LLM:

  • Premio incertezza: Incoraggia il modello ad accettare il modello quando sono incerti rispondendo con frasi come “Non lo so” invece di indovinare.
  • Metriche di valutazione del raffinazione: Vai oltre il sistema di classificazione binaria per incorporare criteri raffinati responsabili dell’incertezza e della purezza parziale.
  • Penizione di Over -Confidence: Introdurre la punizione alle risposte sbagliate fornite con alta fiducia durante l’allenamento, scoraggia la tendenza dell’ipotesi.

Lo scopo di queste strategie è di concentrarsi sulla produzione di risultati sicuri per la priorità dell’accuratezza e della trasparenza. In questo modo, LLM può diventare strumenti più efficaci e affidabili in una vasta gamma di applicazioni.

Sfide nell’implementazione

Mentre le soluzioni proposte sono ideologicamente dritte, la loro implementazione presenta molte sfide che devono essere affrontate per ottenere progressi significativi:

  • RE -designing Benchmark: L’attuale sistema di valutazione non è attrezzato per gratificare l’incertezza o punire la fiducia, che richiede aggiornamenti significativi per il framework esistente.
  • Costo computazionale: Il modello con nuovi incentivi e criteri di valutazione può richiedere risorse e tempo computazionali adeguate, che aumentano la complessità della distribuzione.
  • Adottare il quadro di formazione: Il metodo di addestramento esistente dovrebbe essere la snoda per includere efficacemente la misurazione della confidenza e la matrice di valutazione fine.

Nonostante questi ostacoli, possibili benefici per ridurre le allucinazioni giustificano lo sforzo. Risolvendo queste sfide, i ricercatori e gli sviluppatori possono creare sistemi di intelligenza artificiale più affidabili in grado di fornire un output accurato e affidabile.

Affidabilità e implicazioni per le applicazioni del mondo reale

L’applicazione di queste raccomandazioni può aumentare notevolmente l’affidabilità di LLM, rendendole più efficaci nelle applicazioni del mondo reale in cui è importante accurata e accuratezza. Per esempio:

  • Nell’assistenza sanitaria, una produzione di intelligenza artificiale più accurata può migliorare le attrezzature cliniche, le raccomandazioni del trattamento e la cura dei pazienti.
  • Nella ricerca legale, la riduzione delle allucinazioni può aumentare l’affidabilità e l’utilità dell’analisi dell’intelligenza artificiale, il che può garantire risultati più affidabili.
  • Nell’istruzione, il sistema di intelligenza artificiale affidabile può fornire informazioni accurate e assistenza agli studenti, promuovendo migliori esperienze di apprendimento.

Questi miglioramenti non solo amplieranno l’utilità di LLM, ma creeranno anche fiducia nelle loro capacità, incoraggiando l’adozione diffusa in settori e soggetti.

La forma futura del sistema AI

La ricerca di Openi ha evidenziato un’importante sfida nello sviluppo di LLM: la priorità della risposta alla fiducia sulle persone accurate. Affrontando i difetti nei processi di formazione e valutazione, le soluzioni proposte forniscono un percorso chiaro per ridurre le alivazioni e migliorare l’affidabilità del modello. Mentre l’implementazione di questi cambiamenti può essere complessa e ad alta intensità di risorse, la capacità di creare sistemi di intelligenza artificiale più affidabili e affidabili rende necessari questi sforzi.

Mentre LLM continua a svilupparsi, sarebbe importante sbloccare la loro produzione con precisione e trasparenza fattuale. Dopo aver affrontato il problema delle allucinazioni, ricercatori e sviluppatori possono garantire che questi modelli servissero come strumenti affidabili dalle assistenza sanitaria e dal diritto all’istruzione e alle applicazioni oltre. Il futuro dell’IA non solo dipende dalla capacità di fornire risposte ammirevoli, ma anche a persone accurate e affidabili che soddisfano le esigenze delle sfide del mondo reale.

Credito mediatico: Wes Roth

Archiviato sotto: AI, notizie migliori





Ultime offerte di gadget geek

Divulgazione: Alcuni dei nostri articoli includono collegamenti associati. Se acquisti qualcosa attraverso uno di questi link, il gadget geek può guadagnare una commissione affiliata. Scopri la nostra politica di divulgazione.

Collegamento alla fonte