“La sicurezza psicologica è essenziale in questa nuova era dell’intelligenza artificiale”, afferma Rafi Tarafdar, vicepresidente esecutivo e chief technology officer di Infosys. “La tecnologia stessa si sta evolvendo così velocemente: le aziende devono sperimentare e alcune cose falliranno. È necessaria una rete di sicurezza.”

Per scoprire in che modo la sicurezza psicologica influisce sul successo con l’intelligenza artificiale a livello aziendale, il MIT Technology Review Insights ha condotto un sondaggio tra 500 leader aziendali. I risultati rivelano elevati livelli di sicurezza psicologica auto-riferiti, ma mostrano anche che la paura persiste ancora. Aneddoticamente, gli esperti del settore evidenziano una delle ragioni del divario tra retorica e realtà: mentre le organizzazioni possono promuovere pubblicamente messaggi sicuri da usare, profonde correnti culturali nascoste possono contrastare tale intento.

Costruire la sicurezza psicologica richiede un approccio coordinato a livello di sistema e le risorse umane (HR) da sole non possono garantire tale cambiamento. Le imprese dovrebbero invece integrare profondamente la sicurezza psicologica nei loro processi di collaborazione.

I principali risultati di questo rapporto includono:

  • Le aziende con culture favorevoli alla sperimentazione hanno più successo nei progetti di intelligenza artificiale. La maggior parte dei dirigenti intervistati (83%) ritiene che una cultura aziendale che dà priorità alla sicurezza psicologica migliori significativamente il successo delle iniziative di intelligenza artificiale. Quattro leader su cinque concordano sul fatto che le organizzazioni che promuovono tale sicurezza hanno più successo nell’adozione dell’intelligenza artificiale e l’84% vede una connessione tra sicurezza psicologica e risultati tangibili dell’intelligenza artificiale.
  • Le barriere psicologiche si stanno rivelando ostacoli più grandi delle sfide tecniche per l’adozione dell’IA aziendale. È incoraggiante che quasi tre quarti (73%) degli intervistati abbiano dichiarato di sentirsi sicuri nel fornire un feedback onesto ed esprimere liberamente le proprie opinioni sul posto di lavoro. Tuttavia, una parte significativa (22%) ammette di essere riluttante a guidare un progetto di intelligenza artificiale perché potrebbero essere incolpati se fallisce.
  • Raggiungere la sicurezza psicologica è un obiettivo in movimento per molte organizzazioni. Meno della metà dei leader (39%) considera “molto alto” l’attuale livello di sicurezza psicologica della propria organizzazione. Un altro 48% ne ha riferito un livello “moderato”. Ciò potrebbe significare che alcune imprese stanno tentando di adottare l’intelligenza artificiale su una base culturale non ancora del tutto stabile.

Scarica Rapporto,

Questo contenuto è stato prodotto da Insights, il ramo dei contenuti personalizzati di MIT Technology Review. Non è stato scritto dalla redazione del MIT Technology Review. È stato ricercato, progettato e scritto da scrittori, editori, analisti e illustratori umani. Ciò include la scrittura di sondaggi e la raccolta di dati per i sondaggi. Gli strumenti di intelligenza artificiale che potrebbero essere stati utilizzati erano limitati ai processi di produzione secondari sottoposti a un’accurata revisione umana.

Collegamento alla fonte