Interconnessi: la fine della concorrenza così come la conosciamo
Lo scorso 11 Gennaio il Senior Director della Market Intelligence Lead di Qlik® Dan Sommer ha tenuto un interessante Webinar incentrato su quelli che saranno i 10 Trend principali dell’approccio ai Dati ed alla Business Intelligence per il 2022.
I concetti emersi da questo excursus, che incoronano Qlik® come lo strumento definitivo per restare al passo con il mutevole mondo dei Dati, meritano davvero un serio approfondimento.
Nelle nuove dinamiche di mercato, nessuna azienda raggiunge il successo da sola
La forza sta nella condivisione delle risorse per promuovere l’innovazione e la resilienza.
Pandemia, cambiamenti climatici, disuguaglianza economica: i più grandi problemi della società odierna sono sistemici.
E dal momento che le cause e gli effetti sono così interconnessi a livello globale, anche le soluzioni devono essere collettive.
L’accumulo di informazioni e risorse può solo ostacolare l’innovazione, rallentare le soluzioni ed erodere la fiducia.
Anche le nostre sfide commerciali sono sistemiche.
L’impatto delle forze esterne è molto maggiore rispetto al passato e la supply chain è stata drasticamente interrotta.
I colossi digitali come Google e Amazon hanno creato reti di raccolta dati su vasta scala che utilizzano per mantenere la propria posizione dominante, sostituendo interi mercati con poche potenti supply chain trasversali a diversi settori.
Allo stesso tempo, dal basso stanno emergendo start-up digitali che, però, faticano a raggiungere grandi dimensioni.
Per rimanere competitivi, è sempre più necessario migliorare l’integrazione con gli stakeholder.
Per questo motivo assistiamo a un aumento del Corporate Venture Capital (CVC): le aziende affermate investono in start-up proprie, attingendo al proprio flusso di innovazione e garantendo loro le risorse necessarie.
In questo scenario, la trasformazione digitale non è sufficiente: è necessaria un’innovazione digitale, in cui i dati sono il prodotto o il servizio.
Di conseguenza, il passaggio al digitale dello scorso anno ha aperto molte possibilità.
Il software è interessante, dati e analytics lo sono ancora di più.
Tuttavia, mentre il software è infinitamente scalabile, il talento è una risorsa limitata.
Un recente sondaggio IDC ha rivelato che in Europa, Medio Oriente e Africa “la ricerca di personale qualificato e di talento” rappresenta l’ostacolo maggiore al raggiungimento degli obiettivi aziendali.
Ciò significa che non ci si può più permettere il lusso di innovare solo all’interno della propria organizzazione.
È necessario fare innovazione anche al suo esterno, in collaborazione con i partner e l’ecosistema.
Per assumere una posizione di leadership, bisogna diventare interconnessi
Costruire una catena del valore collaborativa in grado di resistere alle interruzioni.
Nel panorama aziendale odierno, i confini di lunga data sono sempre più sfumati.
Un concorrente può diventare un partner, un partner può diventare un cliente e un cliente può diventare un concorrente.
La soluzione non è l’isolamento, ma una nuova forma di vantaggio competitivo: relazioni generative con risultati vantaggiosi per tutti.
Il vantaggio si sposta verso i dati che diventano prodotto e servizio, e il successo si raggiunge insieme.
L’unica possibilità è diventare più “interconnessi”, creando un ecosistema affidabile basato su regole chiare.
Questo permette di generare dati comuni, insight e innovazione che non sarebbero possibili in modo indipendente.
Insieme ai tuoi collaboratori, puoi creare una catena del valore forte e resiliente e assumere una posizione di leadership.
Questo approccio offre dei vantaggi anche contro i colossi sul mercato.
La buona notizia è che diventare interconnessi è molto più facile che in passato.
L’economia delle API ha cambiato tutto e ha reso molto meno rilevante la decisione se creare o acquistare.
Ora che è facile far dialogare tra loro tutte le componenti, il tuo compito è assemblare, orchestrare e interconnettere dati, intelligence, processi e persone.
La fiducia e l’agilità sono i requisiti, i dati e gli insight generati reciprocamente sono la valuta, i risultati positivi sono la ricompensa.
Lo abbiamo visto accadere sulla scena mondiale con lo sviluppo dei vaccini COVID, quando le aziende farmaceutiche hanno collaborato con le istituzioni accademiche per accelerare lo sviluppo.
Lo abbiamo visto quando i singoli investitori si sono uniti per rovesciare i fondi speculativi che stavano affondando GameStop.
E lo vediamo nelle community di intelligence open source, in cui accademici, attivisti, giornalisti e data scientist collaborano per il bene comune.
Questo approccio è il catalizzatore dell’innovazione digitale accelerata che ti permetterà di avanzare in un mondo interconnesso.
Interconnessi: 10 trend dei dati che cambiano la concorrenza così come la conosciamo
1. Compare il Mining collaborativo
La pandemia ha reso partnership e BI inseparabili.
Il massiccio passaggio al lavoro da casa ha reso essenziale integrare rapidamente la BI in flussi di lavoro e app di produttività quali Teams, Slack e Zoom.
E una volta eliminati i limiti dello spazio fisico, si sono aperte nuove opportunità per incrementare la collaborazione con gli stakeholder esterni.
Tuttavia, la collaborazione al termine della catena, successiva agli insight, è solo un tassello del puzzle.
La collaborazione deve iniziare prima, man mano che i dati derivati vengono generati e durante l’esplorazione, la discussione e la creazione di
insight immediatamente utilizzabili.
Nulla elimina i silos come la collaborazione.
Con la diffusione della collaborazione nel workflow delle analytics, migliorerà anche la nostra capacità di esaminarne i meccanismi, cercando di migliorare il modo in cui arriviamo a dati, reti e processi.
In altre parole, così come abbiamo imparato a estrarre dati e processi, assisteremo all’avvento del “mining collaborativo”.
Questo ci permetterà di tenere traccia delle decisioni, garantendo la verificabilità e aumentando la fiducia tra più stakeholder.
E potremo dire addio alla cancellazione della lavagna quando tutti lasciano la sala conferenze.
INFORMAZIONI INTERESSANTI: Quasi 4 CEO su 5 ritengono che la collaborazione da remoto continuerà anche dopo la pandemia di COVID-19.
PREVISIONE DEGLI ANALISTI: Entro il 2023 il 30% delle organizzazioni sfrutterà l’intelligenza collettiva delle proprie community di analytics, superando la concorrenza che si affida esclusivamente alle analytics centralizzate o al self-service. (Fonte: Gartner)
2. La dashboard non è più funzionale. Lunga vita alla dashboard.
Di questi tempi si sente molto parlare della fine della dashboard.
Dopotutto, visualizzare dati e KPI è qualcosa che possono fare tutti.
È vero che monitorare una serie di visualizzazioni statiche non fa la differenza nel mercato odierno, ma c’è una grande differenza tra il semplice monitoraggio dei KPI e l’analisi investigativa approfondita supportata da un’applicazione interattiva e avanzata di analytics aumentate.
Fare scoperte che indicano la direzione è più importante che mai.
Ma come si sta evolvendo la dashboard?
I KPI stanno passando da indicatori di ritardo a passaggi principali, con l’analisi di fattori chiave.
Stanno diventando altamente contestualizzati e collaborativi.
La contestualizzazione deriva dalla capacità di creare avvisi sofisticati per ottenere insight immediati quando i dati cambiano.
E proviene dall’AI, che aiuta ad associare i dati al contesto e a stabilire dove focalizzare l’attenzione in un dato momento.
Dal punto di vista collaborativo, la dashboard si sta evolvendo in un hub analitico che cataloga gli insight e i dati distribuiti, un luogo in cui computer, processi e intelligenza collaborativa possono coesistere.
Questo consentirà l’interconnessione tra i produttori e i consumatori di informazioni e permetterà di coinvolgere stakeholder esterni a tempo debito.
INFORMAZIONI INTERESSANTI: Secondo IDC, solo il 33% dei dirigenti è disposto a mettere in discussione le metriche
e i KPI utilizzati nella propria organizzazione.
PREVISIONE DEGLI ANALISTI: Entro il 2025 la capacità di consumerizzazione avanzata porterà per la prima volta l’adozione di funzionalità di analytics e Business Intelligence oltre il 50%, influenzando più processi e decisioni aziendali.
3. Il Data Lineage offre Explainable BI
Per anni, i consumatori di analytics hanno faticato a spiegare i dati alla base di metriche, KPI e calcoli.
Il problema è stato esacerbato dal fatto che i dati sono diventati più distribuiti e frammentati, non solo all’interno dell’organizzazione ma anche al suo esterno.
Non è ancora successo e non accadrà mai, ma proviamo a immaginare cosa accadrebbe se i dati fossero tutti insieme in un’unica posizione.
Non avremmo comunque una singola versione della verità, perché i dati cambiano in un nanosecondo e perché ci sono continuamente nuove variabili di cui tenere conto.
Oggi con l’avvento di architetture di dati più distribuite (vedi il Trend 10), uno dei fattori fondamentali è l’osservabilità dei dati attraverso l’Augmented Data Management, con la governance, l’analisi di impatto e la provenienza dei dati.
In un mondo interconnesso con più versioni della verità, la provenienza sarà fondamentale per la triangolazione dei dati e per garantire affidabilità e “spiegazioni”.
Aiuterà anche a interconnettere le analytics tra più sorgenti dati e piattaforme hyperscale.
Quando gli utenti hanno visibilità sulla provenienza dei dati e sul relativo ciclo di vita, dall’interno del workflow delle analytics, possono utilizzare con sicurezza e fiducia gli insight forniti dai dati.
INFORMAZIONI INTERESSANTI: In un sondaggio condotto da BARC su 2259 professionisti della BI, i problemi di Business Intelligence vengono per la maggior parte ascritti alla cattiva qualità dei dati. La qualità dei dati e dei master data è stata valutata (ancora una volta) come il trend più importante.
PREVISIONE DEGLI ANALISTI: Entro il 2023 le organizzazioni che disporranno di processi condivisi di ontologia, semantica, governance e gestione per consentire la condivisione dei dati tra le imprese supereranno la concorrenza.
4. La velocità degli insight infiamma i costi
La modernizzazione e l’ampia diffusione di Data Warehouse e Data Lake nel cloud ha portato alla possibilità di interrogare direttamente grandi quantità di dati in tempo reale, aggiungendo un altro straordinario strumento di esplorazione.
Tuttavia, l’uso di questa tecnica può comportare un aumento fuori controllo dei costi di cloud computing.
Inoltre, possono risentirne anche le performance.
Anziché utilizzare esclusivamente le query in tempo reale, è preferibile adottare un approccio alla gestione dei dati e alle analytics basato sui requisiti di frequenza e latenza.
Una mappa termica delle query tipiche potrebbe mostrare che le tue domande sono perlopiù esplorative e, pertanto, senza la necessità di aggiornamenti in tempo reale possono essere eseguite in memoria.
D’altro canto, le query più coordinate potrebbero richiedere l’elaborazione a livello di sorgente dati.
Dal punto di vista della data integration, dovresti essere in grado di scegliere tra l’unione e l’aggiornamento continuo dei dati, con costi di elaborazione più elevati, e una visualizzazione aggregata che comporta costi inferiori.
Per quanto riguarda le analytics, dovresti poter scegliere tra query in tempo reale, con costi di elaborazione più elevati, ed esplorazione in memoria, che può essere più veloce e più economica.
Un approccio realmente data-driven comporta un aumento sia della velocità che del costo degli insight.
Dovrai pertanto comprendere come eseguire le query giuste nella posizione giusta.
INFORMAZIONI INTERESSANTI: nel 2020 e nel 2021 l’adozione di data warehouse e data lake nel cloud è aumentata
in modo significativo.
PREVISIONE DEGLI ANALISTI: Entro il 2023 il 50% dei clienti dei servizi cloud pubblici registrerà costi crescenti e vedrà fallire progetti a causa di una cattiva gestione.
5. I Cloud distribuiti diventano la regola
Il panorama dei dati continuerà a essere confuso e ibrido per il prossimo futuro.
Secondo 451 Research, la maggior parte delle organizzazioni non cerca più un’unica soluzione onnicomprensiva per le proprie esigenze IT, ma piuttosto una struttura IT che soddisfi i requisiti di costi, performance e governance di carichi di lavoro diversi.
I carichi di lavoro specializzati esistono per un motivo: l’elaborazione può essere più veloce sull’edge.
La conformità è critica. E la sicurezza è più importante che mai.
La nuova normativa cinese in materia di privacy dei dati sarà tra le più severe al mondo.
In Europa, l’imponente progetto GAIA-X sta sviluppando le basi per un’infrastruttura open data federata, con l’obiettivo di connettere infrastrutture
centralizzate e decentralizzate in un sistema omogeneo e di facile utilizzo.
I cloud distribuiti e ibridi avranno sempre più bisogno di:
- hardware installabile a livello locale
- discrepanze risolvibili nella catena del valore del cloud con gestibilità e interfacce utente armonizzate
- possibilità di implementare più hyperscaler cloud, riducendo la dipendenza dallo stack del fornitore.
Un’infrastruttura cloud distribuita rafforza la tua capacità di eseguire accesso e condivisione di dati interconnessi in modo sicuro e attendibile.
INFORMAZIONI INTERESSANTI: secondo 451 Research, il 48% degli utenti di data center in coubicazione ha trasferito un carico di lavoro o un’applicazione da un fornitore di cloud pubblico hyperscale (ad esempio, Amazon Web Services, Microsoft Azure, Google Cloud Platform) a un’altra sede negli ultimi 12 mesi.
PREVISIONE DEGLI ANALISTI: Entro il 2025 il 50% delle grandi imprese abiliterà modelli di business trasformativi utilizzando servizi
di “cloud distribuito” in un luogo a propria scelta.
6. Gli insight integrati diventano persuasivi
Per creare un approccio outside-in collaborativo all’innovazione, è necessario rendere disponibili le analytics ai partner, ai clienti e all’ecosistema più ampio.
E tutti dovrebbero trarne vantaggio, incluso il cliente del tuo cliente.
Quando la catena del valore è interconnessa con più fornitori e utenti, dati e analytics dovrebbero riflettere questo aspetto.
In primo luogo, devono essere forniti a ogni anello della catena.
In secondo luogo, le Embedded Analytics devono essere ripensate come insight integrati.
Integrare le analytics significa spesso inserire una dashboard in un workflow o un’applicazione non analitica.
Questo è certamente utile, ma sfiora appena le reali possibilità.
È possibile e necessario integrare avvisi in micro-insight che possono o meno portare a una decisione.
Gli insight dovrebbero essere ovunque, attorno a ogni utente e processo aziendale, proprio come il vapore.
Se i micro-insight contestualizzati sono più pervasivi, la fiducia nel sistema aumenterà.
INFORMAZIONI INTERESSANTI: un nuovo sondaggio di Gartner rivela che la metà dei tecnici aziendali ora produce funzionalità tecnologiche per utenti al di fuori del proprio reparto.
PREVISIONE DEGLI ANALISTI: Entro il 2022 più della metà del personale aziendale avrà accesso immediato ad analytics cross-funzione integrate nelle attività e nei processi, contribuendo a migliorare l’efficienza e l’efficacia del processo decisionale operativo.
7. L’automazione delle applicazioni stimola l’azione
L’economia delle API apre nuove possibilità per le aziende, i partner, i clienti e persino i concorrenti di partecipare a iniziative congiunte in uno scenario concorrenziale.
Rende meno rilevante la decisione di acquisto o creazione, offrendo invece l’opportunità di assemblare e orchestrare.
L’automazione delle applicazioni è un’area emergente che rimuove la necessità di codificare tali integrazioni, rendendo l’opportunità molto più accessibile a una più ampia varietà di partecipanti.
Le applicazioni di un ecosistema non dovrebbero solo dialogare tra loro per avvisare e informare gli utenti con insight in tempo reale, ma dovrebbe anche essere possibile configurare azioni attivate direttamente da obiettivi basati sui dati nel workflow, con o senza il coinvolgimento umano.
In questo modo potresti cogliere al volo ogni opportunità di business.
La facilità di automazione delle applicazioni crea un ciclo di feedback con altri trend.
Ad esempio, ora è più facile aggiungere l’intelligenza artificiale low-code e l’apprendimento automatico (ML) per aumentare le pipeline di data analytics.
INFORMAZIONI INTERESSANTI: il numero medio di applicazioni SaaS utilizzate dalle organizzazioni è salito a 110 nel 2021, con un aumento del 38% rispetto all’anno precedente.
PREVISIONE DEGLI ANALISTI: Entro il 2023 il 60% delle organizzazioni coniugherà componenti di tre o più soluzioni di analytics, per creare applicazioni orientate alle decisioni e complete di analytics che collegano gli insight alle azioni.
8. La sovrapposizione di Data Science e analytics aumenta le competenze di chiunque
Le analytics dovrebbero raggiungere gruppi più ampi.
In un mondo in cui i dati sono ampiamente disponibili e i business user possono creare le proprie applicazioni, l’alfabetizzazione dei dati continua a rimanere fondamentale.
Le intuitive tecnologie odierne, aumentate dall’AI e dagli ambienti lowcode, consentono a tutti di progredire senza necessariamente ricorrere alla programmazione.
La Data Science, d’altro canto, è stata spesso considerata accessibile a pochi.
Cosa accadrebbe se i casi di utilizzo predittivi comuni, come l’analisi dei fattori chiave, gli scenari what-if e le previsioni on-demand tramite API, diventassero più accessibili ai normali consumatori di analytics?
E se includessero spiegazioni e governance sia per i modelli che per i dati?
Paradossalmente, la data science in combinazione con le analytics permetterebbe a più persone di fare di più.
Se tutti potranno fare un passo in avanti, i team di data science andranno in direzioni diverse.
Da una parte, ciò che è stato fatto nei laboratori sarà in grado di scalare e richiederà la stessa governance e operatività di dati e analytics tradizionali.
Dall’altra, i Data Scientist più avanzati si concentreranno maggiormente sull’apprendimento automatico, che richiede sviluppo software, codifica e MLOps.
Per questo gruppo, l’interoperabilità tra piattaforme analitiche e workbench specializzati, o semplicemente Jupyter Notebook, sarà fondamentale.
INFORMAZIONI INTERESSANTI: le piattaforme di analytics e BI includono sempre più funzionalità per eseguire attività di data science e apprendimento automatico aumentate.
PREVISIONE DEGLI ANALISTI: entro il 2025 la scarsità di data scientist non ostacolerà più l’adozione della data science e dell’apprendimento automatico nelle organizzazioni.
9. La sicurezza diventa una priorità essenziale
Nel 2020, in risposta alla pandemia, abbiamo assistito a un rapido passaggio al SaaS e a varie tecnologie emergenti.
Nel 2021 i team che si occupano di sicurezza e conformità hanno dovuto portarsi al passo con questo rapido passaggio al digitale, per evitare gravi conseguenze.
In Svezia, una grande catena di supermercati ha dovuto chiudere 500 negozi per un’intera settimana a seguito di un attacco ransomware al proprio fornitore di software americano.
E quando Amazon ha violato le leggi sulla protezione dei dati, si è vista comminare una multa record di 887 milioni di dollari.
Non è un caso che la sicurezza sia appena diventata una delle principali intenzioni di investimento per i CIO nel sondaggio annuale di Gartner.
I regolamenti ora includono la gestione, la privacy e la sicurezza dei dati, oltre alla gestione delle identità e degli accessi.
Più utilizziamo analytics integrate, intraprendiamo azioni e condividiamo API e dati, più dobbiamo proteggerci dagli errori.
Ma tutto questo non implica necessariamente un rallentamento.
Si stanno affermando nuovi metodi per garantire la massima interoperabilità.
E mentre interconnetti processi e prodotti in modo sicuro con i partner in catene del valore congiunte, le protezioni da facoltative diventano necessarie, per poi trasformarsi in opportunità di business.
INFORMAZIONI INTERESSANTI: l’emergere di standard aperti come Solid offre la possibilità di archiviare i dati in modo da promuovere un’interoperabilità sicura.
PREVISIONE DEGLI ANALISTI: entro il 2025 l’80% delle organizzazioni che desiderano espandere il business digitale non riuscirà nell’intento perché non adotta un approccio moderno alla governance di dati e analytics.
10. Il Data Mesh diventa la nuova struttura per i dati distribuiti
La necessità di accedere più rapidamente ai dati in ambienti sempre più distribuiti favorisce la gestione integrata che usa metadati, semantica, spostamento dei dati in tempo reale e basato sugli eventi e orchestrazione nella pipeline.
L’inserimento di tali funzionalità in un’architettura distribuita è noto con il nome di “Data Fabric”.
Il dibattito sulla gestione dei dati distribuiti si è evoluto nel “Data Mesh”, in cui i dati decentralizzati vengono trattati come prodotto, con la proprietà nei domini.
Il tessuto connettivo di questi domini e delle risorse di dati associate è un livello di interoperabilità universale che applica la stessa sintassi e gli stessi standard dei dati.
È possibile raccogliere tutti questi elementi in un catalogo, non solo per i dati, ma anche per gli artefatti analitici.
I grandi hyperscaler cloud affermeranno di averlo, ponendosi a tutti gli effetti come un grande data lake.
In altre parole, suggeriranno di mettere tutto in un’unica piattaforma per ottenere tutti i servizi richiesti.
Ma questo restringe la scelta a un solo fornitore, mentre l’obiettivo è proprio fare spazio a dati eterogenei e decentralizzati.
La chiave sta nelle possibilità offerte da queste nuove architetture.
Avere accesso a tutti i dati richiesti e trattarli come prodotti accelera l’onboarding di clienti e fornitori, migliora la gestione dell’inventario e non solo.
Più in generale, permette di stabilire una coerenza globale in tutta l’azienda e nell’ecosistema.
La disponibilità di un’architettura per gestire la rapida proliferazione di dati, in una piattaforma di dati centralizzata, migliora l’agilità e la solidità dell’azienda e dell’ecosistema, interconnessi nella catena del valore.
INFORMAZIONI INTERESSANTI: secondo IDC, nel 2021 il 75% delle imprese utilizza nuove sorgenti dati esterne per migliorare
le proprie capacità decisionali cross-funzione in modi che offrono valore maggiore rispetto all’utilizzo dei soli dati interni.
PREVISIONE DEGLI ANALISTI: entro il 2024 le organizzazioni che utilizzano metadati attivi per completare e fornire un data fabric dinamico ridurranno i tempi di trasmissione dei dati integrati del 50% e miglioreranno la produttività dei data team del 20%.
Tutto cambia rapidamente. Acquisisci le competenze e le capacità per agire.
I mercati sono sempre più dominati da poche catene di valore di rilievo e non è più possibile affrontarli da soli.
Nuovi approcci a livello di architettura, interoperabilità, piattaforme aperte e API offrono opportunità senza precedenti di dare vita a partnership che creano catene del valore interconnesse.
I dati e gli insight generati diventeranno una valuta comune, garantendo a te e ai tuoi partner la resilienza necessaria per crescere.
Questo approccio richiede regole chiare, uno scopo comune, una visione a lungo termine e un cambiamento di mentalità.
Sei pronto a diventare interconnesso?
Con Qlik® e SELDA puoi Iniziare a Proiettare il tuo Business nel Futuro con il Potere dei Dati
La Tecnologia Qlik® è stata progettata fin dall’inizio per offrire apertura, eterogeneità, interoperabilità, integrabilità e scalabilità.
Consente a tutti i membri della tua organizzazione, e non solo, di combinare i dati provenienti da molteplici sorgenti, esplorarli liberamente in modo intuitivo e fare scoperte associative che altre soluzioni non ti consentirebbero di fare.
Con soluzioni end-to-end di data integration, analytics e automazione, un forte impulso all’alfabetizzazione dei dati dall’AI e una piattaforma aperta e indipendente, Qlik ti aiuta a raggiungere l’Active Intelligence: uno stato di intelligenza continua in cui dati sempre aggiornati attivano azioni immediate.
Scopri Tutta la Gamma dei Prodotti Qlik
SELDA e Qlik®: Un’Intesa Vincente
Insieme a Qlik®, SELDA è presente in molte realtà aziendali con prodotti e cruscotti di successo in grado di rispondere in pochi secondi alle esigenze di business.
Oltre che Partner e concessionario autorizzato di tutte le soluzioni Qlik®, SELDA è quindi un Partner di sviluppo con alle spalle oltre 10 anni di esperienza nella realizzazione di soluzioni personalizzate integrate ad ogni tipo di sorgente dati.
SELDA fornisce poi Corsi in Training On The Job personalizzati per aziende che vogliano conoscere Qlik® e approfondire conoscenze tecniche e di sviluppo delle interfacce utente e/o delle procedure di ETL per il caricamento dei dati.
Vuoi sviluppare un Progetto di BI assieme a Noi? Contattaci!