(Adnkronos) – Solo il 62% dei leader aziendali accoglie con favore l’intelligenza artificiale. Lo stesso vale per poco più del 50% dei dipendenti. Il 23% nello specifico, non è sicuro che la propria organizzazione metta gli interessi dei dipendenti al di sopra dei propri quando implementa l’intelligenza artificiale. Questi sono i dati emersi dall’ultimo studio globale di Wordkday Inc, leader nelle applicazioni cloud aziendali per la finanza e le risorse umane. Ciò che è evidente è un divario di fiducia nell’Ai sul posto di lavoro che si accentua quando si parla di responsabilità e scetticismo da parte dei dipendenti nei confronti dei colleghi della leadership. Vediamo insieme cosa ne pensano. Il 70% dei leader aziendali concorda che l’intelligenza artificiale dovrebbe essere sviluppata in modo da consentire facilmente la revisione e l’intervento umano. Il 42% dei dipendenti ritiene che la propria azienda non abbia una chiara comprensione di quali sistemi dovrebbero essere completamente automatizzati. E, ancora, 3 dipendenti su 4 affermano che la propria organizzazione non collabora alla regolamentazione dell’Ai e 4 dipendenti su 5 affermano che la loro azienda non ha ancora condiviso le linee guida sull’uso responsabile dell’IA. “Non si può negare che l’intelligenza artificiale offra immense opportunità per la trasformazione aziendale – ha affermato Jim Stratton, Chief Technology Officer di Workday -. Tuttavia, la nostra ricerca mostra che leader e dipendenti mancano di fiducia e di comprensione delle intenzioni delle loro organizzazioni riguardo all’implementazione dell’intelligenza artificiale sul posto di lavoro. Per contribuire a colmare questo divario di fiducia, le organizzazioni devono adottare un approccio globale alla responsabilità e alla governance dell’IA, con un occhio al sostegno delle politiche per aiutare a trovare il giusto equilibrio tra innovazione e fiducia”. Quando si parla di intelligenza artificiale la preoccupazione cresce e la mancanza di fiducia è l’elemento principale sul quale si basa la paura. Se il 62% dei leader accoglie con favore l’adozione dell’Ai nella propria organizzazione e la stessa percentuale di leader è fiduciosa che la propria organizzazione garantirà che l’AI venga implementata in modo responsabile e affidabile, a livello dei dipendenti, tale cifra scende rispettivamente al 52% e al 55%. “Gli standard etici nell’uso dell’intelligenza artificiale e del machine learning sono vitali per il successo a lungo termine. Man mano che introduciamo sempre più tecnologie di intelligenza artificiale, ci concentriamo sulla creazione di fiducia con clienti e dipendenti – ha affermato Dan Cohen, chief information officer e direttore delle operazioni presso The Amenity Collective -. Il nostro obiettivo è creare una cultura, al centro del nostro marchio, che adotti l’intelligenza artificiale e consenta a ogni persona nella nostra azienda di utilizzarla per fare la cosa giusta per i nostri clienti. Mi congratulo con l'impegno di Workday nel comprendere e affrontare il sentimento di leader e dipendenti in modo da poter lavorare per colmare il divario di fiducia nell'intelligenza artificiale”. —sostenibilitawebinfo@adnkronos.com (Web Info)
Articoli correlati
Ue, fino al 19 maggio a Forlì lo European Youth Event
(Adnkronos) – Oggi alle 17.30, migliaia di giovani italiani ed europei si daranno appuntamento in Piazza Saffi a Forlì per dare ufficialmente avvio ad Eye Forlì, l’European Youth Event che arriva in Italia per la […]
Salvatore Luongo nuovo comandante generale dei Carabinieri
(Adnkronos) – Il generale Salvatore Luongo è il nuovo comandante generale dei carabinieri. La nomina è arrivata nel corso del Cdm di oggi. Luongo, già vicecomandante generale dell'Arma, prenderà il posto di Teo Luzi. Nato […]
Boom delle fonti rinnovabili
(Adnkronos) – Il settore delle energie rinnovabili sta vivendo un notevole boom, aprendo la strada per un progresso significativo verso gli obiettivi climatici globali. Questa accelerazione offre concrete prospettive per raggiungere l'ambizioso obiettivo di triplicare […]
Commenta per primo