Il futuro dell’intelligenza artificiale non è solo azione; È una personalizzazione profonda.
Invece di semplici sistemi di raccomandazione che correlano il comportamento degli utenti per identificare modelli e applicarli a flussi di lavoro individuali, modelli linguistici di grandi dimensioni (LLM) e agenti AI possono analizzare direttamente gli utenti per creare esperienze profondamente personalizzate.
Questo tipo di personalizzazione aggressiva è ciò che gli utenti chiedono sempre più e le organizzazioni più esperte che lo offrono (e presto) vinceranno.
L’obiettivo è questo: “Non cercare di scegliere a caso o indovinare chi sono. Te lo dico, è quello che mi interessa”, spiega Lijuan Qin, product manager di Zoom AI, in una nuova dichiarazione. Oltre il podcast pilota.
In che modo Zoom incorpora la personalizzazione?
Zoom è un’azienda che si sta adattando a questa tendenza: il suo assistente produttivo, AI Companion, va oltre i riepiloghi di base, le registrazioni intelligenti e le azioni post-riunione per tenere traccia del disaccordo e della conformità degli utenti.
Gli utenti possono personalizzare i riepiloghi delle riunioni in base ai loro interessi specifici e creare modelli mirati per e-mail di follow-up a diversi contatti (che si tratti di un venditore o di un account manager). L’assistente AI può compilare automaticamente questi documenti dopo la ricerca. Nel frattempo, un dizionario personalizzato in Zoom AI Studio può elaborare terminologia e vocabolario aziendale unici per risultati di intelligenza artificiale più pertinenti, mentre una modalità di ricerca approfondita può fornire rapidamente analisi complete basate su “competenze interne e approfondimenti esterni”.
Il controllo è fondamentale qui; Qin ha spiegato che l’essere umano “può avere un’autorizzazione (e) agente molto specifica”. Hanno “controlli molto chiari” sulle azioni di follow-up, come ad esempio: l’agente può inviare automaticamente e-mail a destinatari specifici? Oppure attiverà una fase di verifica quando si renderà conto che le trascrizioni contengono informazioni sensibili (come specificato dall’utente)?
Sapendo che l’intelligenza artificiale a volte può sfuggire al controllo, gli utenti umani possono monitorare il comportamento degli agenti in Zoom, abilitare e disabilitare funzionalità e controllare l’accesso ai dati. Ciò può aiutare a prevenire risultati errati o fuori target.
“La cosa più importante è non dare per scontato che l’intelligenza artificiale sia abbastanza intelligente da fare tutto bene”, ha sottolineato Qin.
Ottenere il contesto giusto
Sam Witteveen, co-fondatore di Red Dragon AI e conduttore di Beyond the Pilot, spiega nel podcast che questa nuova era dell’intelligenza artificiale delle agenzie è essenzialmente un “accaparramento di terre per il contesto”.
“È importante conoscere con precisione i tuoi utenti, giusto? Sapere in quali app vivono, quali attività quotidiane svolgono costantemente?” ha detto. “Più informazioni hanno su di te le aziende, meglio si rendono conto che la memoria (AI) può essere e meglio possono personalizzarla.”
Witteveen afferma che Claude Cowork è una delle pratiche che “si distingue davvero” in questo senso; OpenClaw è qualcos’altro. I modelli sono sufficientemente validi da poter iniziare a prendere decisioni per conto degli utenti e rispondere a istruzioni come: "Sai molte cose di me. Hai tutti questi contesti. Vai e sviluppa competenze che mi aiuteranno a fare un lavoro migliore."
“Con qualcosa come OpenClaw, puoi personalizzarlo come preferisci, giusto? Puoi chattare con esso, dirgli: ‘Ehi, voglio che tu lo faccia alle 4′”, ha detto Witteveen.
Tuttavia, ha consigliato di tenere sempre conto dell’utilizzo e della sicurezza dei token. OpenClaw è stato afflitto da problemi di sicurezza sin dal suo rilascio. Ciò ha portato molte aziende a rimuovere l’agente autonomo o a vietarne del tutto l’uso; ma queste rimozioni devono essere eseguite correttamente in modo che i leader IT non eliminino accidentalmente l’intero stack aziendale.
Nel frattempo, in termini di budget simbolico, la personalizzazione può aumentare i costi. “Devi pensare ai parametri che stai monitorando”, ha detto Witteveen. “Questo è molto diverso da prodotto a prodotto, ma i parametri relativi a questi saranno importanti."
Guarda il podcast per saperne di più su:
-
Perché le aziende non stanno testando le competenze di intelligenza artificiale in questo momento "può essere tostato"
-
Come Zoom ha sviluppato un assistente AI che tiene traccia non solo delle azioni ma anche delle differenze di opinione nelle riunioni.
-
Perché la questione della creazione e dell’acquisto di software aziendale è diventata molto più urgente?
-
Da dove "abilità" Potrebbe essere più importante di MCP per il futuro dell’intelligenza artificiale aziendale
Puoi anche ascoltare e iscriverti. Oltre il pilota Aprire Spotify, Mela o ovunque trovi i tuoi podcast.















