Oggi si parla frequentemente di dati di prima parte, ma quali sono precisamente? I dati di prima parte possono essere suddivisi in due categorie principali:
- Dati osservati: comprendono informazioni come l’età dei clienti, il punto vendita preferito, la data dell’ultimo acquisto, gli articoli acquistati e l’importo speso. Questi dati aggregati possono essere utilizzati per alimentare l’intelligenza artificiale, creando esperienze utente personalizzate e previsioni accurate.
- Dati modellati: questi dati derivano dai dati osservati ma vengono ottenuti con tecniche di data mining.Ad esempio, è possibile aggregare tutte le interazioni di un utente con un sito web per identificare i suoi interessi principali, prevedere il rischio di abbandono o determinare a quale cluster appartiene, se è un cliente top o loyal. Questi sono dati di prima parte modellati, poiché derivano dalla modellazione di dati osservati che diventano etichette intelligenti estremamente importanti.
I modelli utilizzati nel business per estrarre informazioni dai dati osservati si dividono in due grandi categorie: modelli di prediction e modelli di detection.
- Modelli di prediction: forniscono informazioni inedite, non esplicitamente presenti nei dati. Partendo da dati storici o dall’osservazione del comportamento di altri clienti, questi modelli predicono il comportamento futuro di uno specifico utente. Ad esempio, possono rispondere a domande sulla probabilità che l’utente X fissi o meno una call per una demo prodotto o su quanto spenderà l’utente Y nei successivi mesi. I modelli di prediction più utilizzati nel business sono quelli di classificazione (che classificano gli utenti in determinate categorie: comprerà il servizio/non comprerà il servizio) e quelli di regressione (che predicono valori futuri specifici).
- Modelli di detection: estraggono caratteristiche insite nei dati che non sarebbero individuabili a occhio nudo. Possono determinare, ad esempio, il tipo di cliente (nuovo, top, a rischio churn) o identificare l’interesse attuale di un utente. Per determinare il tipo di cliente, si utilizza la clusterizzazione, che crea gruppi di utenti simili. Tra gli algoritmi comuni per la clusterizzazione vi sono K-means, Hierarchical Clustering e DBscan. K-means è il più semplice e utilizzato.
I modelli di detection sono anche utilizzati per rilevare anomalie; ne sono un esempio l’aumento anomalo delle sessioni o un picco di traffico organico al sito web, individuati analizzando le serie storiche.
Per rispondere a domande complesse sui dati dei clienti e ottimizzare le strategie di marketing e vendita, è essenziale scegliere l’algoritmo giusto in base alla quantità, qualità e tipo di dati disponibili. L’approccio migliore può variare a seconda delle specifiche esigenze aziendali e del contesto di applicazione.
Algoritmi di Prediction e Detection per il Business
I metodi di analisi che dimostrano maggiore efficacia e impatto nel contesto aziendale sono: classificazione, regressione, clustering e una combinazione di NLP e clustering.
Classificazione
I modelli di classificazione stimano la probabilità che un individuo appartenga a una determinata classe. Sono particolarmente utili per prendere decisioni basate su dati predittivi. Ad esempio, per determinare se un utente si iscriverà a una newsletter, l’algoritmo valuta la probabilità di iscrizione basandosi su variabili come il comportamento di navigazione, il tipo di dispositivo utilizzato, il browser, la dimensione dell’azienda in cui lavora e l’ultima visita al sito. Se la probabilità è alta, l’algoritmo classifica l’utente come probabile iscritto. Inoltre, l’algoritmo identifica le variabili più influenti nel modello, fornendo informazioni essenziali per l’ottimizzazione delle strategie di marketing.
Regressione
Questa analisi consente di stimare il valore di una variabile per un individuo basandosi sui dati storici. Ad esempio, analizzando il comportamento passato di un utente e confrontandolo con utenti simili, è possibile prevedere quanti prodotti acquisterà nei prossimi sei mesi. Anche in questo caso si tratta di algoritmi di previsione.
Clustering
Il clustering è una tecnica di machine learning non supervisionato che raggruppa individui in cluster, in modo che quelli all’interno di un gruppo siano il più simili possibile tra loro e il più diversi possibile dagli altri gruppi. Questa suddivisione è utile per azioni di marketing mirate. Gli algoritmi di clustering non fanno previsioni ma evidenziano caratteristiche intrinseche negli individui, permettendo di identificare, ad esempio, clienti economici o premium in base alle loro caratteristiche, al comportamento, agli interessi e alle transazioni effettuate in passato.
NLP+Clustering
Combinando algoritmi di Natural Language Processing (NLP) e clustering, è possibile attribuire a ciascun cliente o utente uno o più interessi. Ad esempio, analizzando le pagine visitate su un sito con migliaia di pagine tematiche, si può evitare di ottenere una lista infinita di interessi raggruppando le pagine in macro categorie. In ByTek, questo processo inizia con un algoritmo NLP che analizza e comprende il contenuto delle pagine, seguito da un algoritmo di clustering che raggruppa le pagine per argomento, facilitando così l’identificazione degli interessi degli utenti per le azioni di marketing.
Implementazione degli algoritmi di prediction e detection nel business
Gli algoritmi analizzati costituiscono i pilastri fondamentali per sviluppare strategie efficaci non solo per il marketing e le vendite, ma per l’intero business. Nei paragrafi sottostanti vengono presentati esempi specifici di applicazione di tali algoritmi in contesti aziendali concreti.
Analisi dei punti di abbandono nei processi di onboarding
Utilizzando i dati di prima parte per alimentare algoritmi di scoring e churn, un istituto finanziario o assicurativo con un processo completamente digitale può identificare i punti critici nei processi di onboarding. Questa analisi consente di attivare strategie di ingaggio e recupero mirate, migliorando significativamente il tasso di conversione nei processi di acquisizione dei clienti.
Lo scoring aiuta a determinare la probabilità di conversione di un utente, mentre l’algoritmo di churn prevede se l’utente sta per abbandonare il percorso di onboarding. Questo è particolarmente utile per istituti finanziari o assicurativi che operano tramite funnel digitali di onboarding. Un utente che entra nel processo di onboarding e riceve un punteggio di propensione elevato, basato sul suo comportamento e su quello di altri utenti convertiti, è considerato un potenziale cliente di valore, con alta probabilità di attivare un conto corrente o richiedere una consulenza.
Se durante il percorso di navigazione dell’utente aumenta il churn rate, ciò indica una probabile insoddisfazione dell’utente, che potrebbe essere dovuta a difficoltà nel reperire documenti o altre problematiche. In questo scenario, gli algoritmi di intelligenza artificiale segnalano che il cliente è troppo importante per essere perso, permettendo di attivare strategie di retargeting, email marketing, personalizzazione dell’esperienza cliente, mobile marketing e altre tattiche per ridurre il churn rate e riportare l’utente nel funnel di conversione.
Alert sul rischio di abbandono clienti
Un altro caso studio significativo riguarda l’implementazione di un algoritmo per il churn, focalizzato su clienti già acquisiti, da parte di un brand operante nel settore retail, con una presenza sia fisica che digitale.
Attraverso l’uso di tecnologie di intelligenza artificiale, l’azienda analizza e interpreta i dati comportamentali degli acquirenti, categorizzandoli in cluster specifici. Questo approccio permette di sviluppare ed eseguire strategie di fidelizzazione mirate, personalizzate in base al profilo e alle esigenze di ciascun cluster, con l’obiettivo di prevenire e contrastare efficacemente il fenomeno del churn.
Per la catena retail, è essenziale mantenere i Top Client, ossia quelli che effettuano acquisti frequenti, sono fedeli da molti anni e non hanno mai interrotto le visite ai negozi fisici e digitali. Nel caso in cui un cliente di questo tipo smetta di frequentare i punti vendita per un periodo prolungato, il churn rate aumenta e l’azienda riceve una notifica di anomalia. In questa fase, il brand può intervenire inviando email personalizzate e attivando azioni di direct sales. La capacità di eseguire queste operazioni su larga scala per migliaia di clienti rende l’investimento in intelligenza artificiale altamente scalabile e conveniente.
Prompt Engineering con i First Party Data
Nel mondo della Generative AI, i modelli calcolano statisticamente la probabilità che una parola sia affine a quella precedente. Un’agenzia di marketing che mira a massimizzare l’efficacia della Generative AI deve creare esperienze utente che riflettano fedelmente i valori, gli obiettivi e il pubblico del brand cliente. Questo approccio strategico permette di sviluppare soluzioni innovative e personalizzate, assicurando che ogni campagna sia perfettamente allineata con l’identità del marchio e risuoni autenticamente con la sua base clienti, sfruttando al meglio le potenzialità offerte dalla tecnologia.
Per raggiungere questo obiettivo, è essenziale elaborare prompt che integrino i valori dell’azienda cliente, i valori degli utenti target, i loro interessi, il cluster a cui è destinato il messaggio/immagine, il tone of voice dell’azienda oppure quello del target. Questo processo consente di creare contenuti in grado di coinvolgere efficacemente il destinatario, poiché saranno perfettamente in linea con le loro aspettative e valori.
In questo modo, si sfrutta realmente la Generative AI, istruendola con informazioni ricavate da modelli che hanno estratto il massimo dai dati di prima parte disponibili, come i cluster di riferimento, il tono di voce, i valori e gli interessi.
Personalizzazione Omnichannel
In ambito FMCG (Fast-Moving Consumer Goods), un’azienda leader del settore si propone di creare contenuti altamente personalizzati per ogni canale di comunicazione in cui investe. Questa strategia assicura che il messaggio promozionale sia ottimizzato per raggiungere e coinvolgere efficacemente il pubblico target, migliorando l’efficacia della comunicazione e massimizzando il ritorno sull’investimento su ciascuna piattaforma utilizzata.
L’obiettivo principale è l’implementazione di una personalizzazione omnicanale efficace, resa possibile attraverso l’utilizzo dei dati di prima parte e dell’intelligenza artificiale generativa. Ad esempio, analizzando le performance storiche dei canali, se YouTube dimostra di essere performante con video brevi per il brand, queste informazioni vengono utilizzate per creare prompt video specifici. Allo stesso modo, se su Facebook risultano più efficaci i post con immagini, si integrano nel prompt informazioni sul formato e dati generati dall’AI, come i top customer e i loro interessi tematici e di prodotto. Questo processo permette la produzione di contenuti su misura per il target, il brand e il canale scelto, garantendo il massimo impatto delle campagne.
In assenza di dati di prima parte o di modelli efficaci, l’uso dell’AI generativa rischia di produrre contenuti generici con scarse performance e poca aderenza alle esigenze del business.
Inoltre, è fondamentale scegliere soluzioni software e piattaforme connesse all’ecosistema esterno, come piattaforme ADV, CRM e siti web aziendali. Senza queste connessioni, si rischia di ottenere modelli efficaci che rimangono confinati nelle dashboard, offrendo analisi interessanti ma non realmente azionabili.
Bytek Prediction Platform mira a risolvere questo problema combinando dati di prima parte centralizzati e integrati con algoritmi proprietari di prediction e detection. Le informazioni ottenute vengono trasformate in attributi intelligenti azionabili su diverse piattaforme di marketing grazie a moduli di connessione, garantendo così la massima efficacia delle campagne.
