Non è possibile scalare l’AI senza creare un impianto di fiducia nei propri dati, e ciò è reso possibile soltanto dalla costruzione di una cultura specifica.

L’intelligenza artificiale può anche essere al centro dell’attenzione, ma dietro ogni implementazione di successo c’è qualcosa di meno affascinante e molto più importante: una solida cultura dei dati. Per le aziende che cercano di sbloccare il valore della GenAI, non è sufficiente disporre di dati o persino di un modello. Ciò che conta è come le informazioni vengono create, gestite, condivise e considerate affidabili.
Qui, quattro leader esperti condividono la loro esperienza nel rendere i dati aziendali pronti per l’AI e ognuno di loro tratta questi ultimi come una risorsa strategica.
Mentre le loro organizzazioni differiscono ampiamente per missione e dimensioni, le loro lezioni convergono su cinque azioni chiave che i Chief Information Officer possono intraprendere per costruire una cultura dei dati forte e capace.
Non trattare i dati come un sottoprodotto
Il primo cambiamento culturale che le organizzazioni devono compiere è considerare i dati non come un residuo delle operation, ma come un prodotto a sé stante, progettato tenendo conto dello scopo, dell’usabilità e della gestione. Trattarli come un prodotto significa ragionare come si farebbe per la loro gestione: definire la proprietà, standardizzare i formati, garantire il controllo delle versioni e anticipare i casi d’uso a valle in tutta l’azienda.
Mike Kreider, CIO di DHL Supply Chain North America, afferma che la sua organizzazione ha istituzionalizzato questa mentalità. “Un data product è un set standardizzato proveniente da uno o più sistemi, formattato per un facile riutilizzo”, afferma. Quelli relativi alle spedizioni, per esempio, supportano le operazioni, la logistica e lo sviluppo del business. Alimentano anche strumenti di intelligenza artificiale come il proposal generator di DHL. “Se data product non esiste o non è pulito, lo strumento non funzionerà”, aggiunge.
Kreider sottolinea che considerare il dato un prodotto non è solo un compito tecnico, ma riguarda anche l’allineamento aziendale e richiede anche l’identificazione di un proprietario identificato e un ciclo di vita, che include le modalità di aggiornamento e ritiro. “Non vogliamo prodotti dati orfani di cui nessuno si sente responsabile”, dice. Questo senso di appartenenza è ciò che garantisce che il prodotto rimanga attuale e affidabile per le applicazioni di AI.
Anche IBM sviluppa la predisposizione all’AI intorno ai data product. Dinesh Nirmal, SVP di IBM Software, sottolinea la necessità del self-service. “Se i team non riescono a trovare facilmente e ad avere fiducia nel set di dati giusto, non possono innovare rapidamente”, osserva, aggiungendo che i prodotti di dati catalogati e governati di IBM mettono a disposizione degli ingegneri specializzati nell’intelligenza artificiale di tutta l’azienda set di dati affidabili, consentendo loro di concentrarsi sulla creazione di soluzioni invece che sulla ricerca di input.
Rendere l’osservabilità e la tracciabilità fondamentali per la fiducia
Una cultura dei dati matura richiede non solo dati di alta qualità, ma anche una visibilità completa sulle loro origini, sulle loro trasformazioni e sui loro utilizzi. L’osservabilità e la tracciabilità sono la spina dorsale della fiducia, e forniscono il contesto per spiegare o correggere i risultati e una traccia di audit per la conformità.
Dun & Bradstreet monitora oltre 85 miliardi di punti di osservabilità della qualità dei dati con gli strumenti sviluppati internamente, DataShield e DataWatch. Il primo applica gli standard al momento dell’inserimento, mentre il secondo monitora tutti i dati nel tempo, consentendo ai team regionali di identificare i problemi, implementare piani di miglioramento e valutare l’efficacia delle correzioni. Inoltre, garantisce il mantenimento e il miglioramento continuo della qualità.
Un altro strumento sviluppato internamente, ChatDQ, consente al personale di interrogare i metadati in linguaggio naturale, con ogni risposta che cita la sua fonte. “Se non posso tracciarlo, non posso fidarmi”, tiene a precisare Andy Crisp, vice president senior della strategia dati globale dell’azienda, il quale sottolinea che la tracciabilità è ciò che mantiene competitiva l’organizzazione. Con oltre 600 milioni di record aziendali provenienti da più di 30.000 fonti, “è l’unico modo per garantire che, quando un cliente chiede informazioni, possiamo sostenerlo”, commenta.
Questo approccio è rafforzato da un ciclo di feedback chiuso. I proprietari dei dati regionali trasmettono i risultati dell’osservabilità ai team locali per promuovere miglioramenti, mentre un gruppo di analisi dei clienti raccoglie le reazioni per confermare che i cambiamenti di qualità siano significativi.
Allo stesso modo, DHL Supply Chain integra l’osservabilità in ogni progetto di AI di prima generazione. “Tracciamo la provenienza dei dati, come sono cambiati e chi li ha modificati”, afferma Kreider. I dashboard mostrano non solo i punteggi di qualità dei dati, ma anche le tendenze nel tempo, trasformando la qualità in qualcosa di misurabile e motivazionale.
Integrare la governance nelle fondamenta
La governance dei dati è una questione di conformità, ma è anche un valore culturale che segnala disciplina, lungimiranza e impegno a fare le cose nel modo giusto. In un contesto di intelligenza artificiale, significa stabilire politiche di accesso, conservazione, classificazione e qualità che vengono applicate in modo coerente e automatico.
Magan Naidoo, CDO del Programma alimentare mondiale delle Nazioni Unite (WFP), ha reso la governance una questione di livello dirigenziale. “La nostra strategia sui dati e quella sull’AI sono state approvate dal direttore esecutivo e questo allineamento ai vertici ha cambiato tutto”, racconta.
Questo sostegno dall’alto ha dato al WFP l’autorità di bilanciare l’autonomia regionale con gli standard globali, un passo essenziale per coordinare le operazioni in più di 80 Paesi. Naidoo osserva che molti uffici credevano di soddisfare già standard elevati, ma l’introduzione di esperti esterni per confrontare le pratiche con le norme globali ha contribuito a rivelare lacune critiche e ha creato l’urgenza di un cambiamento.
Il manager sottolinea, inoltre, che, in contesti umanitari, i direttori nazionali lavorano sotto un’enorme pressione operativa e spesso hanno mandati brevi, il che rende più difficile dare priorità alle iniziative a lungo termine. Inquadrando la governance come una roadmap condivisa a livello organizzativo, il WFP è stato in grado di allineare le esigenze delle missioni a breve termine con lo sforzo sostenuto richiesto dalla trasformazione dei dati. Tutto questo, combinato con una comunicazione coerente e con il coinvolgimento della leadership, ha contribuito a spostare la percezione dalla “governance come burocrazia” alla “governance come fattore abilitante”.
In IBM, questa gestione viene resa operativa attraverso le piattaforme di metadati e le politiche di conservazione dell’azienda. “Non è possibile aggiungere la conformità a posteriori”, dichiara Nirmal. “Se i dati non sono governati dall’acquisizione all’accesso e alla cancellazione, non sono pronti per l’AI”. Automatizzando le regole di classificazione e conservazione, IBM garantisce che la conformità sia parte integrante delle operazioni quotidiane, non un ripensamento.
Rendere l’alfabetizzazione dei dati un compito di tutti
In una cultura dei dati altamente funzionale, tutti, indipendentemente dal ruolo, hanno una conoscenza di base dei concetti relativi ai dati, delle aspettative di qualità e del pensiero analitico. L’alfabetizzazione dei dati democratizza le conoscenze e consente alle persone di utilizzare l’intelligenza artificiale in modo responsabile.
Al WFP, Naidoo ha promosso un programma obbligatorio di alfabetizzazione dei dati, personalizzato in sei lingue e integrato nel processo di inserimento dei nuovi assunti. Grazie al forte sostegno delle risorse umane e del direttore esecutivo, i tassi di completamento hanno raggiunto quasi il 100% e i webinar di follow-up e le sessioni di coinvolgimento hanno costantemente ottenuto punteggi netti di promotori superiori ai benchmark del settore. I programmi facoltativi di alfabetizzazione all’AI, che utilizzano contenuti di alta qualità ad accesso libero, hanno eguagliato l’adesione ai corsi obbligatori, segno che la curiosità e il coinvolgimento sono elevati.
Naidoo sottolinea che l’alfabetizzazione dei dati non riguarda solo le competenze tecniche, ma anche la creazione di un linguaggio comune in un’organizzazione globale e multilingue. Per raggiungere questo obiettivo, il WFP ha progettato contenuti che riflettono la realtà operativa dei suoi uffici nazionali, incorporando esempi tratti dalle operazioni sul campo, dalla logistica e dalla gestione dei beneficiari. I webinar presentano spesso casi di studio in cui il personale applica le nuove competenze a sfide umanitarie reali, rafforzando l’impatto diretto delle buone pratiche in materia di dati. “Quando le persone vedono che una migliore qualità dei dati significa consegne di cibo più rapide o un targeting più accurato degli aiuti, diventano sostenitori della causa”, precisa Naidoo.
In Dun & Bradstreet, Crisp sottolinea che le pipeline da sole sono inutili se le persone non sono in grado di interpretare i risultati. “Si possono costruire le migliori pipeline di dati al mondo, ma se il personale non capisce come utilizzarle, è un lavoro inutile”, afferma. Il suo metro di misura della maturità è la capacità del personale di elencare senza esitazione tutte e otto le dimensioni della qualità dei dati.
Integrare dati strutturati e non strutturati come pratica standard
L’intelligenza artificiale non può fornire il massimo valore se non viene alimentata con un quadro completo dei dati strutturati provenienti dai sistemi di registrazione, combinati con dati non strutturati come documenti, e-mail e immagini. Una cultura dei dati matura sviluppa pipeline e strumenti che unificano questi due mondi e garantiscono la governance e le prestazioni in entrambi.
IBM stima che il 90% dei nuovi dati aziendali non è strutturato. “Per rispondere correttamente a una domanda sulla fatturazione sono necessari una cronologia dei pagamenti strutturata ed e-mail non strutturate”, ritiene Nirmal. Il suo team utilizza SQL-RAG per unire fonti strutturate e non strutturate, aumentando l’accuratezza del servizio clienti fino al 98%.
Questo approccio che combina le tradizionali query sui database SQL con RAG per fornire ai modelli di AI un contesto più ricco e accurato. Utilizza SQL per estrarre dati strutturati rilevanti dai database relazionali, recuperando, al contempo, informazioni non strutturate da altre fonti. La combinazione risultante ha la precisione dei record strutturati e le sfumature dei contenuti non strutturati, portando a risultati più completi e affidabili.
Dun & Bradstreet offre un’altra prospettiva sull’integrazione di dati strutturati e non strutturati. Crisp osserva che le informazioni sui clienti spesso derivano dalla combinazione di dati firmografici con feedback non strutturati dei clienti, come ticket di assistenza o commenti dei sondaggi. Applicando il riconoscimento automatico delle entità e collegando queste informazioni non strutturate ai record strutturati nel proprio database globale, D&B è in grado di individuare problemi di qualità, rivelare tendenze emergenti e reimmettere i miglioramenti nei propri prodotti di dati. Questo non solo migliora l’accuratezza dell’AI, ma garantisce anche che i dati riflettano le esperienze reali dei clienti.
Allo stesso modo, DHL Supply Chain integra dati logistici strutturati con informazioni non strutturate provenienti da immagini delle spedizioni, note degli autisti e letture dei sensori. Kreider spiega che la correlazione di questi diversi input consente previsioni operative e rilevamento dei rischi più precisi, aiutando l’azienda a prevenire ritardi e ottimizzare i percorsi. Questa visione unificata trasforma set di dati isolati in un ecosistema informativo ricco e pronto per l’AI.
Mentre i modelli si evolvono e le tecnologie cambiano, una cosa rimane costante: la cultura dei dati definisce il successo. Un modello può essere riqualificato. Un’architettura può essere ricostruita. Ma senza la giusta mentalità, gli sforzi dell’intelligenza artificiale si bloccano o si ritorcono contro. “I modelli vanno e vengono, ma la vostra strategia sui dati deve durare”, conclude Nirmal. “E quella strategia non inizia in un laboratorio o in un dashboard, ma nella cultura”.