LinkedIn è leader nei sistemi di raccomandazione dell’intelligenza artificiale, avendo sviluppato questi sistemi negli ultimi 15 anni. Ma raggiungere la prossima generazione di raccomandazioni per le persone in cerca di lavoro di domani ha richiesto una tecnica completamente nuova. L’azienda doveva guardare oltre i modelli standard per raggiungere livelli avanzati di precisione, latenza ed efficienza.

“Non c’era modo di farlo attraverso incentivi”, afferma Erran Berger, vicepresidente dell’ingegneria di prodotto di LinkedIn, in una nuova dichiarazione. Oltre il pilota podcast. “Non l’abbiamo nemmeno provato per i sistemi di raccomandazione di prossima generazione perché ci siamo resi conto che era un fallimento.”

Invece, il suo team ha deciso di sviluppare un documento di politica di prodotto estremamente dettagliato per mettere a punto quello che inizialmente era un enorme modello da 7 miliardi di parametri; questo è stato poi trasformato in ulteriori modelli per insegnanti e studenti ottimizzati su centinaia di milioni di parametri.

Questa tecnica ha creato un libro di ricette ripetibile che ora viene riutilizzato nei prodotti AI di LinkedIn.

“L’adozione di questo processo di valutazione end-to-end porterà a un miglioramento significativo della qualità dei Mi piace su LinkedIn che probabilmente non vedevamo da anni”, afferma Berger.

Perché la distillazione multi-insegnante è stata una “svolta decisiva” per LinkedIn

Berger e il suo team hanno deciso di creare un Master in grado di interpretare le singole domande di lavoro, i profili dei candidati e le descrizioni del lavoro in tempo reale e in un modo che riflettesse la politica di prodotto di LinkedIn nel modo più accurato possibile.

Collaborando con il team di gestione del prodotto dell’azienda, gli ingegneri hanno infine creato un documento di 20-30 pagine che valutava la descrizione del lavoro e le coppie di profili “su più dimensioni”.

“Abbiamo lavorato molto su questo aspetto”, afferma Berger. Questo documento sulla politica del prodotto è stato quindi confrontato con un “set di dati d’oro” di migliaia di query e profili duplicati; Il team ha inserito questi dati in ChatGPT durante la generazione e la sperimentazione dei dati, consentendo al modello di apprendere le coppie di punteggi nel tempo e infine produrre un set di dati sintetici molto più ampio per addestrare un modello insegnante di 7 miliardi di parametri.

Ma un master in ambito produttivo non basta solo per la politica di prodotto, sostiene Berger. “In fin dei conti, si tratta di un sistema di consigli e dobbiamo fare qualche previsione e personalizzazione dei clic.”

Pertanto il suo team ha utilizzato questo primo modello dell’insegnante incentrato sulla politica del prodotto per sviluppare un secondo modello dell’insegnante per la previsione dei clic. Utilizzando questi due, hanno ulteriormente distillato un modello con 1,7 miliardi di parametri a scopo di formazione. Berger afferma che il modello studentesco finale è stato guidato da “molte, molte sessioni di formazione” e ottimizzato “in ogni punto” per ridurre al minimo la perdita di qualità.

Questa tecnica di distillazione multi-insegnante, dice, ha permesso al team di “raggiungere una grande approssimazione” alla politica di prodotto originale e alla previsione dei clic “atterrati”. Sono riusciti anche a “modularizzare e scomporre” il processo educativo per lo studente.

Considera questo nel contesto di un agente di chat con due diversi modelli di insegnante: uno addestra l’agente sull’accuratezza delle risposte e l’altro addestra l’agente sul tono di voce e su come comunicare. Berger osserva che queste due cose sono obiettivi molto diversi ma pur sempre fondamentali.

“Ora, quando li mescoli, ottieni risultati migliori, ma li replichi anche in modo indipendente”, afferma. “Questa è stata una svolta per noi.”

Cambiare il modo in cui i team lavorano insieme

Berger afferma di non poter sottovalutare l’importanza di aderire ad una politica di prodotto e ad un processo di valutazione ricorrente.

Il raggiungimento di una “politica di prodotto davvero valida” richiede di distillare le competenze del dominio del product manager in un documento unificato. Berger osserva che in passato il team di gestione del prodotto si concentrava sulla strategia e sull’esperienza dell’utente, lasciando gli approcci di iterazione della modellazione agli ingegneri del machine learning. Ma ora i due team stanno lavorando insieme per “connettersi” e creare un modello di insegnante coeso.

“Il modo in cui i product manager lavorano con gli ingegneri del machine learning è ora molto diverso da quello che facevamo prima”, afferma. “Questo è un modello praticamente per tutti i prodotti AI che realizziamo su LinkedIn.”

Guarda il podcast completo Per saperne di più su:

  • In che modo LinkedIn ottimizza ogni fase del processo di ricerca e sviluppo per supportare la velocità e fornire risultati reali in giorni o ore anziché in settimane;

  • Perché i team dovrebbero sviluppare pipeline per la collegabilità e la sperimentazione e provare diversi modelli per supportare la flessibilità?

  • La continua importanza del debugging ingegneristico tradizionale.

Puoi anche ascoltare e iscriverti. Oltre il pilota Aprire Spotify, Mela o ovunque trovi i tuoi podcast.

Collegamento alla fonte