Applicazioni di Machine Learning e AI per Strategie Aziendali - Portfolio di Antonio De Bellis

debellisan 62 views 51 slides Jan 29, 2025
Slide 1
Slide 1 of 51
Slide 1
1
Slide 2
2
Slide 3
3
Slide 4
4
Slide 5
5
Slide 6
6
Slide 7
7
Slide 8
8
Slide 9
9
Slide 10
10
Slide 11
11
Slide 12
12
Slide 13
13
Slide 14
14
Slide 15
15
Slide 16
16
Slide 17
17
Slide 18
18
Slide 19
19
Slide 20
20
Slide 21
21
Slide 22
22
Slide 23
23
Slide 24
24
Slide 25
25
Slide 26
26
Slide 27
27
Slide 28
28
Slide 29
29
Slide 30
30
Slide 31
31
Slide 32
32
Slide 33
33
Slide 34
34
Slide 35
35
Slide 36
36
Slide 37
37
Slide 38
38
Slide 39
39
Slide 40
40
Slide 41
41
Slide 42
42
Slide 43
43
Slide 44
44
Slide 45
45
Slide 46
46
Slide 47
47
Slide 48
48
Slide 49
49
Slide 50
50
Slide 51
51

About This Presentation

Questo portfolio presenta una raccolta di progetti e articoli che illustrano il valore dell'AI e del Machine Learning in vari contesti aziendali.

Tra le analisi disponibili, ci sono quelle sulle strategie di segmentazione e ottimizzazione delle vendite basate sui dati, come nell’approfondime...


Slide Content

PORTFOLIO MACHINE LEARNING
2025
ANTONIO DE BELLIS

1



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Sommario
Benvenuto ........................................................................................................................................ 3
Trasformare i dati di vendita: strategie per aumentare redditività e performance ........................... 4
1. Introduzione .......................................................................................................................................... 4
2. Analisi RFM ............................................................................................................................................ 5
3. Modalità di lavoro sui segmenti RFM e best practices .................................................................... 8
Conclusioni e Raccomandazioni ............................................................................................................ 11
Alla ricerca dell’eccellenza: tecniche di machine learning al servizio dei brand .................... 12
1. Introduzione .......................................................................................................................................... 12
1. Metodologia ........................................................................................................................................ 12
2. Clustering ............................................................................................................................................. 14
3. Il produttore ideale ............................................................................................................................. 15
4. Mappatura 3D delle aziende ............................................................................................................. 16
5. Implicazioni per i produttori .............................................................................................................. 17
Conclusioni ............................................................................................................................................... 17
Il Machine Learning applicato alle previsioni di vendita .......................................................... 18
1. Introduzione ........................................................................................................................................ 18
2. Tecniche di Machine Learning avanzate: le reti neurali LSTM ...................................................... 19
3. Preparazione dei dati e training del Modello LSTM ....................................................................... 20
4. Inserimento nel Modello LSTM della componente stagionale ..................................................... 22
5. Uso del Modello LSTM per prevedere le vendite future ................................................................ 23
Conclusioni e Raccomandazioni ............................................................................................................ 24
Advanced Fraud Prevention: il sottile confine tra Anomalia e Opportunità........................... 25
1. Introduzione ........................................................................................................................................ 25
2. Tecniche avanzate di analisi: PCA e Isolation Forest ...................................................................... 26
3. Applicazione dell'approccio integrato ad un caso concreto ......................................................... 27
4. Approfondimento sui valori anomali................................................................................................ 28
Conclusioni: verso un sistema di rilevamento frodi proattivo e strategico ..................................... 30
La validità della regola 80-20 per i retailer online ..................................................................... 32
1. Introduzione ........................................................................................................................................ 32
2. File di lavoro ........................................................................................................................................ 33
3. Analisi ABC delle vendite ................................................................................................................... 34
4. Approfondimenti e considerazioni ................................................................................................... 36

2



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Conclusioni e Raccomandazioni ............................................................................................................ 37
La battaglia delle bollicine: chi vince tra Prosecco Brut vs Extra Dry?..................................... 39
1. Introduzione ........................................................................................................................................ 39
2. Campione e metodologia .................................................................................................................. 40
3. Le parole più usate nel recensire le due tipologie di Prosecco .................................................... 41
4. Chi vince la battaglia delle preferenze tra Brut ed Extra Dry ........................................................ 43
5. L'analisi delle recensioni ..................................................................................................................... 44
6. Le caratteristiche del prosecco ideale .............................................................................................. 45
7. La distanza dei marchi dal profilo ideale ......................................................................................... 47
8. Il posizionamento dei marchi rispetto alla concorrenza ................................................................ 49
Conclusioni e applicazioni ...................................................................................................................... 50

3



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Benvenuto

L'Intelligenza Artificiale e il Machine Learning stanno ridefinendo il modo in cui le aziende
affrontano le sfide del mercato, trasformando i dati in insight strategici e ottimizzando
processi complessi. Con una solida esperienza in marketing, vendite e innovazione
aziendale, mi sono specializzato in queste tecnologie per aiutare le imprese a prendere
decisioni guidate dai dati e ad ottenere un vantaggio competitivo.
Attualmente sto frequentando una specializzazione in Intelligenza Artificiale presso
Stanford University (da maggio 2024 ad oggi), approfondendo tematiche avanzate come
algoritmi di apprendimento supervisionato e non supervisionato, reti neurali, anomaly
detection e riduzione della dimensionalità. Oltre alla teoria, sto applicando queste
conoscenze a scenari concreti, sviluppando modelli in Python per analizzare dati reali e
ottimizzare strategie aziendali.
Questo portfolio presenta una raccolta di progetti e articoli che illustrano il valore dell'AI e
del Machine Learning in vari contesti aziendali. Tra le analisi disponibili, ci sono quelle sulle
strategie di segmentazione e ottimizzazione delle vendite basate sui dati, come
nell’approfondimento sulla regola 80-20, o modelli predittivi avanzati, tra cui
un'applicazione delle reti neurali alla previsione delle vendite, oltre a tecniche di anomaly
detection finalizzate alla prevenzione delle frodi.
Per chi desidera comprendere come il Machine Learning possa supportare le strategie
aziendali e generare vantaggi concreti, il portfolio offre esempi pratici e approcci innovativi
basati sui dati.
Per approfondire consulta il mio profilo LinkedIn linkedin.com/in/antoniodebellis/

#0047D6

4



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Trasformare i dati di vendita: strategie
per aumentare redditività e performance

Abstract: I dati di vendita, se analizzati correttamente, offrono opportunità straordinarie per
migliorare redditività e prestazioni aziendali. La raccolta e centralizzazione dei dati consente una
visione completa delle operazioni, mentre l’uso di strumenti analitici avanzati permette di
identificare trend e anomalie. Segmentando il mercato, le aziende possono personalizzare le
strategie di vendita, migliorare l’efficacia delle campagne e implementare modelli predittivi per
pianificare con maggiore precisione. Infine, l’ottimizzazione dei processi di vendita aumenta la
produttività e riduce le inefficienze. Adottare un approccio basato sui dati garantisce decisioni più
informate, maggiore personalizzazione e un vantaggio competitivo durevole, anche se richiede
investimenti in formazione, sistemi integrati e una cultura aziendale orientata ai dati.

1. Introduzione
Nel panorama competitivo odierno, trasformare i dati di vendita in strategie efficaci è
fondamentale per ogni azienda che ambisca ad aumentare i profitti e consolidare la propria
posizione sul mercato. La segmentazione accurata dei clienti non è più solo un'opzione,
ma una necessità per personalizzare l'esperienza del cliente, migliorare la fidelizzazione e
massimizzare le vendite.
L'evoluzione delle tecniche di analisi dei dati ha reso la segmentazione un processo
dinamico e sofisticato, ben oltre la semplice categorizzazione. Metodi avanzati, come
l'analisi RFM (Recency, Frequency, Monetary), permettono di comprendere in
profondità il valore di ogni cliente e il suo stato nel ciclo di vita aziendale, offrendo una
visione in tempo reale del comportamento d'acquisto e delle opportunità di crescita.
Grazie a queste analisi, le aziende possono trasformare i dati in azioni strategiche, creando
campagne di marketing mirate e tempestive che colpiscano al momento giusto con
l'offerta ideale. L'obiettivo è duplice: consolidare la fedeltà dei clienti più affezionati e
stimolare il potenziale di crescita di quelli promettenti, recuperando al contempo i clienti
in fase di allontanamento.
Questo approccio data-driven permette di passare dall'accumulo passivo di informazioni
all'azione strategica, trasformando ogni interazione con il cliente in un'opportunità
concreta di crescita e profitto.

5



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
2. Analisi RFM
Per mettere in pratica questi concetti, utilizzeremo i dati di un retailer online con sede nel
Regno Unito, specializzato nella vendita di articoli da regalo per ogni occasione. Il dataset
raccoglie le transazioni relative a 25.901 fatture emesse in un anno, comprendendo 3.940
referenze uniche acquistate da 4.372 clienti.
L'analisi RFM si basa sui dati di vendita giornalieri a cui applicare criteri specifici per
classificare i clienti in base ai loro comportamenti di acquisto. Il processo di
segmentazione parte da un'accurata analisi del database delle transazioni. E' un
aspetto imprescindibile per ottenere segmenti di clienti rilevanti a cui applicare azioni
mirate che generino risultati concreti, perchè le soglie e i parametri non sono universali,
variano significativamente in base al mercato, al settore e al comportamento dei clienti.
Le best practices a riguardo suggeriscono di:
• usare tecniche statistiche avanzate per determinare le soglie, evitando divisioni
arbitrarie;
• considerare il ciclo di vita del prodotto e la stagionalità;
• integrare dati comportamentali, oltre alle pure transazioni, come interazioni online
o con il servizio clienti;
• aggiornare regolarmente i modelli per adattarsi ai cambiamenti del mercato;
• testare diverse configurazioni di segmentazione per ottimizzare i risultati.
Nel nostro caso, il criterio ottimale individuato si basa sulle seguenti soglie:
Recency (R): suddivisa in 4 gruppi a seconda di quanto di recente il cliente ha acquistato
< 60 giorni --> Cliente molto attivo
61 - 90 giorni --> Cliente attivo
91 - 270 giorni --> Cliente "a rischio"
270 giorni --> Cliente dormiente
Frequency (F): numero di acquisti effettuati
> 10 acquisti --> Cliente molto attivo
6 - 9 acquisti --> Cliente attivo
3 - 5 acquisti --> Cliente moderatamente attivo

6



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
< 3 acquisti --> Cliente poco attivo
Monetary (M): spesa totale del cliente
> 2.000 euro --> Cliente ad alto valore
1.000 - 1.999 euro --> Cliente di valore medio
500 - 999 euro --> Cliente di valore moderato
< 500 euro --> Cliente a basso valore
L'applicazione dei criteri precedenti porta a definire 7 segmenti principali, ognuno dei quali
è descritto di seguito.


Analisi RFM

1. Promising Customers (876 clienti): rappresentano circa il 16% del totale e sono quei
clienti che hanno acquistato di recente (entro 60-90 giorni), ma con una frequenza o una
spesa moderata. Questi clienti mostrano un buon potenziale e potrebbero essere
incentivati a diventare più fedeli. È un segmento chiave da monitorare e nutrire attraverso

7



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
campagne mirate per aumentare la loro frequenza d'acquisto e farli progredire verso
segmenti di maggior valore, come i clienti fedeli.
2. New Customers (872 clienti): hanno effettuato un solo acquisto di recente (entro 60
giorni) e rappresentano circa il 16% del totale. Si tratta di un segmento fondamentale per
la crescita a lungo termine dell'azienda e la sfida principale consiste nel trasformare questi
acquirenti occasionali in clienti fedeli attraverso azioni che li guidino verso acquisti ripetuti.
3. Loyal Customers (753 clienti): sono circa il 14% del totale. Questi sono clienti che
acquistano frequentemente e hanno speso importi significativi. Il loro contributo è prezioso
per l'azienda, poiché rappresentano una fonte stabile di entrate. A livello numerico, il
rapporto tra New e Loyal (circa 1.16:1) è leggermente alto, idealmente dovrebbe essere più
bilanciato o favorire i clienti fedeli, suggerendo la necessità di migliorare le strategie di
fidelizzazione.
4. High-Value Customers: sono quelli che hanno speso di più e acquistato con una
frequenza molto elevata rispetto agli altri segmenti. Il valore è molto basso, (0.16% del
totale), significativamente inferiore ai benchmark tipici che spesso si aggirano intorno a 1-
5% per molti settori. E' un gruppo piccolo ma estremamente prezioso per l'azienda su cui
mantenere un'attenzione speciale per far sì che continuino a restare clienti fedeli e ad alto
valore.
5. At Risk Customers (212 clienti): sono clienti che hanno una buona storia di acquisti e
una spesa significativa in passato, ma non hanno più acquistato negli ultimi 90-270 giorni.
Rappresentano il 4% del totale, percentuale in linea con benchmark ottimali che
suggeriscono di mantenere questo segmento sotto il 5%. Per non correre il rischio di farli
diventare "dormienti" è fondamentale intervenire con strategie di riattivazione per riportarli
a fare acquisti.
6. Dormant Customers (386 clienti): rappresentano circa il 7% del totale e sono clienti che
non hanno acquistato da oltre 270 giorni. Si tratta di un gruppo a rischio di abbandono
definitivo che può essere recuperato attraverso strategie appropriate di re-engagement.
7. Altri Clienti (1229 clienti): non rientrano in nessuno degli altri segmenti, hanno speso
poco, acquistato raramente e non di recente. Questo gruppo rappresenta circa il 22% della
base clienti totale e rientra nel range del 20-40% che è considerato accettabile come
gruppo residuale delle analisi RFM. E' un gruppo che va esaminato con analisi approfondite
per comprendere le ragioni di non acquisto e sviluppare strategie dedicate.

8



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
3. Modalità di lavoro sui segmenti RFM e best practices
Ogni segmento di clienti, dagli acquirenti di alto valore a quelli dormienti, richiede un
approccio personalizzato per massimizzare coinvolgimento, fidelizzazione e valore nel
tempo. Analizzeremo di seguito le pratiche messe in pista dalle aziende che eccellono nel
leggere i dati e creare interazioni su misura che soddisfano le esigenze specifiche di ciascun
gruppo. Dall'impiego intelligente del marketing automation all'implementazione di
programmi di loyalty innovativi, queste best practices forniscono linee guida validate per
tradurre l'analisi RFM in azioni concrete e risultati misurabili.
I Promising Customers, caratterizzati da acquisti recenti ma con frequenza o spesa
moderata, rappresentano un'opportunità di crescita significativa che può essere colta
implementando le seguenti strategie:
1. Programmi di fidelizzazione: offrire punti o premi per incentivare acquisti ripetuti,
includendo bonus a tempo limitato per stimolare azioni rapide.
2. Creazione di urgenza: utilizzare offerte "valide solo oggi" o promozioni flash per
generare immediatezza nell'acquisto.
3. Upselling e Cross-Selling: proporre prodotti complementari o di fascia superiore
basati sugli acquisti precedenti.
4. Content Marketing: fornire valore aggiunto attraverso tutorial, contenuti educativi e
consigli pratici legati ai prodotti acquistati, coinvolgendo i clienti nel lungo periodo.
5. Email Marketing personalizzato: inviare offerte mirate post-acquisto e promozioni
su prodotti correlati.
6. Retargeting e Remarketing: ricordare al cliente prodotti visualizzati, o abbandonati
nel carrello, attraverso annunci mirati.
7. Personalizzazione del sito web: ad un livello di sofisticazione superiore troviamo la
creazione di un sito dinamico che personalizzi l'esperienza del cliente mostrando
prodotti e contenuti rilevanti in base alla sua cronologia di navigazione e agli
acquisti precedenti (Amazon eccelle in questa strategia di adattamento dinamico
dell'esperienza di navigazione).
I New Customers, pur condividendo molte strategie con i Promising Customers,
richiedono un approccio specifico per la loro prima esperienza con il brand dell'azienda
e/o il suo canale di vendita. Oltre alle tattiche menzionate per i Promising Customers, per i
nuovi acquirenti si possono implementare:
1. Programmi di Benvenuto: creare un "Welcome Kit" o una serie di email di
onboarding che illustrino caratteristiche, valore aggiunto e vantaggi dell'azienda,
guidando il cliente attraverso la prima esperienza d'acquisto. È fondamentale
indicare i benefici futuri, anticipando i vantaggi di una relazione continuativa, che
può includere l'accesso a promozioni esclusive e programmi fedeltà. Parte di questo
pacchetto può essere la comunicazione di storia, valori, missione aziendale per

9



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
stabilire una connessione emotiva fin dall'inizio e aumentare quella fiducia in grado
di sviluppare una relazione a lungo termine.
2. Invito alla creazione di account e iscrizione newsletter: lo si può fare con sconti
esclusivi, omaggi o accesso anticipato a nuovi prodotti. E' un passo fondamentale
che permette all'azienda di personalizzare l'esperienza e inviare comunicazioni
mirate. La newsletter diventa un canale di comunicazione continuo, mantenendo il
cliente coinvolto con aggiornamenti e promozioni.
3. Raccolta di Feedback: è un processo cruciale, idealmente effettuato in due fasi,
subito dopo l'acquisto (chiedendo opinioni sulla navigazione e il checkout per
identificare e risolvere eventuali criticità in tempo reale) e dopo la consegna del
primo ordine (verificando la soddisfazione del cliente per prevenire insoddisfazioni
e recensioni negative).
I Loyal Customers rappresentano il segmento più prezioso e meritano strategie dedicate
che vadano oltre quelle utilizzate per New e Promising Customers. In aggiunta alle tattiche
precedentemente menzionate, per i clienti fedeli si possono implementare:
1. Programmi di Fedeltà Esclusivi: offrire vantaggi unici come accesso anticipato a
nuovi prodotti, sconti esclusivi e inviti a eventi speciali o Esperienze VIP. Un esempio
è il programma "Beauty Insider" di Sephora dove i membri guadagnano punti ad
ogni acquisto, che possono essere riscattati per premi o campioni. L'azienda, inoltre,
organizza eventi con moltiplicatori di punti, permettendo ai membri di guadagnare
punti extra su acquisti selezionati. Il programma non si limita a premi e sconti e
promuove una comunità attiva dove i clienti possono interagire tra loro attraverso
forum dedicati, condividere consigli e ispirazioni, creando un senso di appartenenza
che va oltre la semplice transazione commerciale.
2. Programmi di Referral Avanzati: incentivare il passaparola con premi per chi
introduce e presenta nuovi clienti fedeli. Il programma di referral di Dia & Co,
marchio di moda specializzato in abbigliamento oversize, ha ottenuto un notevole
successo, raggiungendo in breve termine 40mila nuovi clienti con 22 conversioni al
giorno, grazie all'uso di un buono spesa e alla condivisione dell'esperienza
finalizzata alla creazione di una comunità inclusiva e accogliente per le donne di
tutte le taglie.
3. Co-Creazione e Coinvolgimento Attivo: invitare i clienti fedeli a contribuire allo
sviluppo di nuovi prodotti o servizi. Un esempio magistrale di questa strategia è la
piattaforma LEGO Ideas, dove i fan di LEGO possono proporre idee per nuovi set
di costruzioni. I clienti non solo inviano i loro progetti, ma possono anche votare le
idee degli altri utenti. Quando un progetto raggiunge un certo numero di voti,
l'azienda prende in considerazione l'idea per la produzione. Alcuni set di successo,
come il "LEGO Saturn V" (kit composto da 1969 pezzi, numero corrispondente
all'anno del primo piede sulla luna) o il "LEGO Central Perk" (ispirato alla serie
Friends), sono nati proprio da questa collaborazione con i fan.

10



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
4. Programmi di Brand Ambassador: riconoscere pubblicamente i clienti più fedeli,
coinvolgendoli come ambasciatori del brand. Un esempio eccellente è l'iniziativa del
brand di abbigliamento Patagonia che ha lanciato nel 2017 Action Works, una
piattaforma digitale che collega individui e organizzazioni no-profit per mobilitare
azioni concrete a favore di cause ambientali e sociali. La piattaforma permette agli
utenti di connettersi con organizzazioni locali e partecipare a progetti attraverso
volontariato, donazioni, petizioni ed eventi. Gli ambassador del marchio ricevono
supporto, risorse e formazione per amplificare l'impatto delle loro iniziative. Dal suo
lancio, ha generato 2 milioni di azioni intraprese dagli utenti con oltre 14 milioni di
dollari di valore per le organizzazioni no-profit.
Gli At Risk Customers rappresentano un segmento critico che richiede un'attenzione
particolare, posizionandosi tra i Loyal Customers e i Dormant Customers. A differenza dei
New, Promising e Loyal Customers, questo gruppo necessita di strategie più urgenti e
mirate per prevenire l'abbandono:
1. Offerte personalizzate basate sugli acquisti passati: mentre per i Loyal si punta su
premi fedeltà, per gli At Risk si creano incentivi più aggressivi ma ancora rilevanti,
come sconti su prodotti correlati ai loro acquisti precedenti.
2. Ascolto Attivo e Customer Care Proattivo: i clienti si contattano direttamente per
comprendere le ragioni del loro allontanamento, offrire assistenza personalizzata e
attuare azioni che risolvano eventuali problemi.
3. Comunicazione Multi-Canale: mentre per i New e Promising si usano canali
standard, per gli At Risk si implementa una strategia di comunicazione integrata con
un approccio ampio e coordinato attraverso email, SMS, social media e retargeting
in modo da catturare la loro attenzione dove sono più presenti e massimizzare le
possibilità di riconquistarli. La strategia di successo in alcuni casi va oltre il digitale
e prevede una comunicazione "fisica" come l'invio di lettere o cataloghi cartacei.
Blue Apron, un retailer di consegna di pasti a domicilio attivo negli Stati Uniti, invia
cartoline personalizzate con offerte speciali e sconti significativi per riportare i clienti
inattivi nel ciclo di abbonamento. Le cartoline includono codici sconto dedicati e
promozioni del tipo "Ritorna e ricevi il 50% di sconto sul tuo prossimo ordine".
I Dormant Customers rappresentano il segmento più critico della base clienti, richiedendo
strategie di riattivazione più aggressive e mirate rispetto a tutti gli altri gruppi. A differenza
dei New, Promising, Loyal e At Risk Customers, i Dormant hanno interrotto completamente
gli acquisti per un periodo significativo. Le strategie per questo gruppo devono essere
radicalmente diverse e più incisive. Questo segmento di clienti è più incline a riattivarsi
quando vede che il brand offre un'opportunità a basso rischio di rivalutare i propri prodotti.
Questo processo riduce l’attrito che gli acquirenti potrebbero aver sperimentato nel
passato e crea un'esperienza positiva che favorisce la fidelizzazione. L'esperienza positiva
derivante dalla prova gratuita e dalla facilità di reso aumenta la probabilità che i clienti
riattivati continuino a fare acquisti. Diversi gli esempi di best practices a riguardo: Dollar

11



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Shave Club, brand di prodotti da barba acquistabili via abbonamento, usa prove gratuite
e offerte di abbonamenti a prezzo simbolico per riattivare i clienti dormienti. La promozione
speciale chiamata "Provalo per $1" permette di ricevere un kit di prodotti ad un costo
simbolico, abbattendo le barriere al riacquisto e invogliando i clienti a tornare con un
impegno minimo. Restando nel settore cosmetico, Birchbox, servizio di abbonamento a
prodotti di bellezza, usa box gratuite come "Welcome Back" per i clienti che non hanno
effettuato un acquisto da mesi. Passando a beni durevole, notevole la strategia di Casper,
azienda di materassi, che usa una politica di "prova gratuita di 100 notti" per riattivare i
clienti dormienti. Questa offerta garantisce ai clienti che possono acquistare un materasso
e restituirlo entro 100 notti senza rischi se non sono soddisfatti. E' una strategia forte che
non solo rimuove la barriera di acquisto per i clienti indecisi, ma incoraggia anche i Dormant
Customers a dare una nuova chance al brand.
Conclusioni e Raccomandazioni
L'analisi RFM è uno strumento potente per segmentare i clienti e guidare strategie di
marketing mirate. La sua efficacia dipende dalla capacità di trasformare i dati in azioni
concrete e personalizzate per ciascun segmento. Ci sono tre aspetti chiave che ne
amplificano l'impatto:
1. Monitoraggio continuo: l'analisi quotidiana dei dati consente di cogliere
tempestivamente i cambiamenti nei comportamenti dei clienti, agevolando un
adattamento in tempo reale delle strategie di marketing.
2. Approccio omnicanale: l'integrazione di diversi canali di comunicazione (email,
SMS, social media e supporti fisici come cartoline, lettere, box) massimizza la
diffusione delle attività e dei vantaggi per ciascun segmento.
3. Ciclo di feedback: implementare un processo strutturato per raccogliere e integrare
il feedback dei clienti arricchisce la base dati definita dai loro comportamenti di
acquisto e permette di affinare ulteriormente la segmentazione e le strategie.
Questi elementi, combinati con l'analisi RFM, creano un ecosistema di marketing dinamico
e reattivo, capace di evolvere costantemente per soddisfare le mutevoli esigenze dei clienti
e guidare una crescita aziendale sostenibile.

12



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Alla ricerca dell’eccellenza: tecniche di
machine learning al servizio dei brand

Abstract: L'uso del machine learning rappresenta una leva strategica per migliorare le performance
aziendali. Analizzando grandi quantità di dati, gli algoritmi avanzati consentono di identificare
tendenze e modelli nascosti, ottimizzando le strategie decisionali. Tra le applicazioni principali
emergono la personalizzazione delle campagne di marketing, il miglioramento dell'esperienza
cliente e l'ottimizzazione della gestione delle risorse. L'adozione di queste tecnologie non solo
incrementa l'efficienza operativa, ma consente anche di rispondere più rapidamente alle dinamiche
di mercato. Investire in competenze tecnologiche e nell'integrazione del machine learning nei
processi aziendali è fondamentale per garantire competitività e successo a lungo termine.

1. Introduzione
L’olio extravergine d’oliva è da sempre un simbolo di eccellenza e tradizione nel panorama
agroalimentare italiano. Negli ultimi anni, tuttavia, la necessità di interpretare in modo
accurato i desideri dei consumatori e di garantire standard qualitativi sempre più elevati ha
spinto i produttori a guardare con crescente interesse alle tecnologie avanzate. Nel
mercato altamente competitivo dell’olio extravergine d’oliva italiano, comprendere a fondo
le aspettative dei clienti può fare la differenza tra il successo e la sopravvivenza a lungo
termine. Grazie alle più avanzate tecniche di machine learning, ho condotto un’analisi
approfondita di 5.109 recensioni relative a 12 tra i principali marchi del settore, e i risultati
offrono un quadro estremamente interessante delle caratteristiche che definiscono
l’eccellenza secondo i consumatori. In questo articolo, mostrerò come queste metodologie
possano essere applicate proprio al mercato dell’olio extravergine d’oliva, offrendo un
nuovo approccio per capire cosa i clienti ritengano davvero importante e come definiscano
la qualità in questo settore.
1. Metodologia
Il primo passo di questo studio è stato normalizzare l'ampio dataset di opinioni di
consumatori che hanno acquistato olio extravergine da canali diversi, sia fisici che digitali
(vendita diretta, e-commerce, vendita nei punti vendita della distribuzione) e hanno
recensito il prodotto e l'esperienza di acquisto.
I marchi considerati nell'analisi sono:
1. Carli

13



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
2. Clemente
3. Colavita
4. Congedi
5. Coricelli
6. Costa D'Oro
7. De Cecco
8. Elia
9. Farchioni
10. Galantino
11. Monini
12. Trevi
Successivamente, ho applicato modelli di Natural Language Processing (NLP) per
effettuare la Sentiment Analysis e cioè il rilevamento dell’umore all’interno di un testo,
identificando se la recensione è positiva o negativa.
I modelli usati sono stati più di uno, partendo con VADER (Valence Aware Dictionary and
sEntiment Reasoner) che utilizza un lessico predefinito per assegnare punteggi di valenza
e intensità a parole e frasi, proseguendo con RoBERTa (Robustly Optimized BERT
Approach) che è più sofisticato perchè permette di analizzare le informazioni nel loro
contesto e terminando con un approccio manuale che ha permesso di risolvere i casi dubbi
di attribuzione positiva o negativa delle recensioni più articolate.

Distribuzione dell'attribuzione delle valutazioni positive/negative nei modelli NLP usati nell'analisi

14



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
2. Clustering
Per approfondire ulteriormente l'analisi, ho utilizzato algoritmi di clustering come K-
means, DBSCAN (Density-Based Spatial Clustering of Applications with Noise),
Agglomerative Clustering (clustering gerarchico), LDA (Latent Dirichlet Allocation).
DBSCAN per le sue caratteristiche di etichettare come "rumore" i punti isolati in regioni a
bassa densità mi ha permesso di rilevare outlier ed escluderli dall'analisi.
Questo approccio ha consentito di individuare gruppi omogenei di clienti sulla base
delle esigenze e delle preferenze espresse nelle recensioni. In particolare, sono emersi
due cluster principali:
1. Il primo cluster enfatizza soprattutto la qualità del servizio, con parole chiave come
"eccellente", "consegna", "puntuale" e "veloce". Per questi clienti, l'efficienza nella
spedizione e la puntualità sono fattori chiave.
2. Il secondo cluster si concentra maggiormente sulle caratteristiche sensoriali del
prodotto, con termini come "buono", "oliva", "extra", "vergine", "sapore". In questo
caso, il focus è sulla qualità intrinseca dell'olio. Compare inoltre la parola "prezzo",
a indicare l'importanza del rapporto qualità-prezzo.

Creazione dei cluster con i metodi K-means e LDA
E' un passaggio importante perchè può aiutare le aziende a comprendere meglio bisogni
e preferenze dei clienti, e a personalizzare i propri servizi e prodotti per soddisfare ciascun
gruppo nel modo più efficace.
Mappando le aziende sui gruppi, infatti, si ricavano una serie di indicazioni su punti di forza
e miglioramento di ognuna di essa.

15



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.

Sintesi recensioni per azienda
3. Il produttore ideale
A questo punto possiamo effettuare un ulteriore passo in avanti e individuare, in base alle
recensioni, le caratteristiche del produttore ideale di olio extravergine così da calcolare
quanto siano "distanti" ognuna delle 12 aziende che appartengono al panel considerato.
Incrociando questi insight con le performance dei singoli marchi, ho tracciato quindi il
profilo del produttore ideale di olio d'oliva secondo le preferenze dei consumatori. Le
caratteristiche principali emerse sono:
1. Qualità eccellente del prodotto, con un gusto distintivo e "perfetto". L'uso di
termini come "extra vergine" e "sapore" suggerisce che i clienti apprezzano un olio
EVO in grado di offrire un'esperienza sensoriale unica e appagante. L'uso
dell'aggettivo "perfetto" suggerisce che l'olio ideale deve rappresentare l'eccellenza
assoluta in termini di sapore, senza difetti o note sgradevoli.
2. Servizio di consegna puntuale, veloce ed efficiente: in un mercato sempre più
orientato all'e-commerce e agli acquisti online, la qualità del servizio di consegna
diventa un fattore determinante nella soddisfazione dei clienti. I consumatori si
aspettano che il loro ordine venga evaso rapidamente e consegnato nei tempi

16



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
promessi, senza ritardi o disguidi. E' estremamente importante una comunicazione
chiara e trasparente con il cliente che deve essere informato sullo stato del suo
ordine, sulla data prevista di arrivo e su eventuali problemi o imprevisti. Un servizio
clienti reattivo e disponibile può fare la differenza in caso di difficoltà, contribuendo
a mantenere alta la soddisfazione anche di fronte a inconvenienti.
3. Percezione di un buon rapporto qualità-prezzo: il prezzo è sempre un fattore
importante nelle decisioni di acquisto dei consumatori. Tuttavia, ciò che conta
davvero è il valore percepito del prodotto in relazione al suo costo. I clienti sono
disposti a pagare un prezzo più alto per un olio d'oliva di qualità superiore, ma si
aspettano che questo premium price sia giustificato da caratteristiche
organolettiche eccellenti e da un servizio impeccabile.
4. Affidabilità e longevità del marchio: i consumatori tendono a premiare le aziende
con una lunga tradizione alle spalle, che hanno saputo mantenere nel tempo uno
standard qualitativo elevato e costante. L'esperienza pluriennale di un produttore è
vista come una garanzia di affidabilità e competenza. La longevità di un brand è
associata a valori come la tradizione, l'autenticità e il legame con il territorio. I
consumatori apprezzano le aziende che hanno saputo preservare metodi di
lavorazione artigianali, tramandati di generazione in generazione.
4. Mappatura 3D delle aziende
Per visualizzare in modo intuitivo il posizionamento delle 12 aziende rispetto al profilo del
produttore ideale, ho effettuato una mappatura tridimensionale delle loro caratteristiche.
Questa rappresentazione grafica permette di cogliere più facilmente le distanze tra le
performance di ciascun marchio e l'eccellenza definita dalle preferenze dei consumatori.
Ogni azienda è collocata in uno spazio 3D in base a quanto le parole chiave usate nelle
recensioni dei suoi prodotti corrispondono a quelle associate al produttore ideale. Più un
marchio è vicino a quest'ultimo, più la sua offerta è allineata con i desideri e le aspettative
dei clienti.
La mappa, insieme a tutte le informazioni che costruiscono il posizionamento, offre uno
strumento potente per identificare i punti di forza e le aree di miglioramento di ogni
azienda. Consente inoltre di individuare le opportunità di differenziazione rispetto ai
concorrenti.
I produttori possono così orientare in modo più mirato i propri investimenti e le proprie
strategie, focalizzandosi sulle leve che hanno il maggiore impatto sulla soddisfazione dei
consumatori. Un approccio data-driven che permette di ottimizzare l'allocazione delle
risorse e massimizzare i risultati.

17



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
5. Implicazioni per i produttori
I risultati di questa analisi offrono indicazioni preziose per i marchi di olio EVO che vogliono
migliorare il proprio posizionamento e la propria competitività. Le azioni raccomandate
includono:
1. Mantenere e migliorare costantemente la qualità del prodotto e del servizio.
2. Utilizzare le recensioni positive come testimonianze per rafforzare la reputazione del
brand.
3. Ottimizzare la comunicazione con i clienti, garantendo risposte rapide ed efficaci.
4. Lavorare per ridurre i tempi di consegna e minimizzare i ritardi.
5. Identificare e risolvere le cause profonde dei problemi segnalati dai clienti
insoddisfatti.
Conclusioni
L'applicazione delle tecniche di machine learning all'analisi delle recensioni dei
consumatori apre scenari estremamente promettenti per i produttori di olio d'oliva. La
possibilità di individuare con precisione i driver di soddisfazione e le aree di miglioramento
rappresenta un vantaggio competitivo fondamentale in un mercato così dinamico e
affollato.
I marchi che sapranno sfruttare al meglio questi insight, allineando la propria offerta alle
aspettative dei clienti, saranno quelli destinati a emergere e a consolidare la propria
posizione.

18



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Il Machine Learning applicato alle
previsioni di vendita

Abstract: L'implementazione del Machine Learning nelle previsioni di vendita consente alle aziende
di anticipare le tendenze del mercato e ottimizzare le strategie commerciali. Utilizzando algoritmi
avanzati, come le reti neurali ricorrenti LSTM, è possibile analizzare serie temporali di dati di vendita
per identificare pattern nascosti e prevedere le future performance. Questo approccio permette
una gestione più efficiente delle scorte, una pianificazione accurata della produzione e una
personalizzazione delle offerte per i clienti. L'adozione del Machine Learning nelle previsioni di
vendita richiede investimenti in competenze tecniche e infrastrutture adeguate, ma i benefici in
termini di precisione decisionale e vantaggio competitivo rendono questa integrazione una scelta
strategica per le aziende orientate al futuro.

1. Introduzione
Negli ultimi anni la previsione delle vendite ha assunto un ruolo fondamentale nella
strategia aziendale, trasformandosi da un esercizio di stima a struttura portante del
processo decisionale. Questa evoluzione è particolarmente evidente nel settore dell'e-
commerce, dove la dinamicità del mercato e la vasta mole di dati disponibili hanno reso le
previsioni accurate non solo desiderabili, ma essenziali per il successo competitivo.
Gli impatti sono di diverso tipo:
1. Gestione dell'Inventario: previsioni precise permettono di ottimizzare il volume
delle scorte, riducendo i costi di magazzino e minimizzando il rischio di rottura di
stock o di eccedenze di merce.
2. Strategie di Marketing: anticipare i trend di vendita consente di allineare le
campagne marketing con i periodi di maggiore domanda, massimizzando il ritorno
sugli investimenti pubblicitari.
3. Logistica e Supply Chain: la previsione accurata facilita la pianificazione della
logistica, ottimizzando le rotte di consegna e migliorando l'efficienza della catena di
approvvigionamento.
4. Pianificazione Finanziaria: proiezioni di vendita affidabili sono fondamentali per
budget accurati, gestione del flusso di cassa e pianificazione degli investimenti.
5. Esperienza del Cliente: anticipare la domanda aiuta a mantenere alti livelli di
servizio, migliorando la soddisfazione e la fidelizzazione dei clienti.

19



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
2. Tecniche di Machine Learning avanzate: le reti neurali
LSTM
La crescente complessità dei mercati e la disponibilità di big data hanno spinto l'evoluzione
delle tecniche di previsione verso modelli sempre più sofisticati. Si è passati da metodi
statistici classici come ARIMA (Auto Regressive Integrated Moving Average, che combina
la regressione con la media mobile) a tecniche di machine learning avanzate.
Nel vasto panorama delle tecniche di machine learning, le reti neurali LSTM (Long Short-
Term Memory) sono particolarmente efficaci nell'elaborare dati sequenziali. La loro
caratteristica principale è la capacità di "ricordare" informazioni importanti per lunghi
periodi, superando un limite delle reti neurali ricorrenti tradizionali: la difficoltà nel
collegare informazioni distanti nel tempo.
La struttura delle reti LSTM si basa su due elementi fondamentali: le celle di memoria e i
gate. Le celle di memoria sono unità specializzate che fungono da "contenitori", capaci di
mantenere le informazioni rilevanti per lunghi periodi di elaborazione. I gate, invece, sono
meccanismi di controllo che regolano il flusso di queste informazioni e sono di tre tipi: il
gate di input decide quali nuove informazioni aggiungere, il gate di dimenticanza determina
quali rimuovere, mentre il gate di output controlla quali informazioni utilizzare per produrre
il risultato.
Per implementare questa architettura in modo efficace, il modello LSTM organizza gli
elementi in strati sovrapposti di unità di elaborazione. Tra gli strati sono inseriti speciali
interruttori chiamati Dropout, che svolgono un ruolo cruciale nel processo di
apprendimento. Durante l'addestramento, questi interruttori disattivano
temporaneamente, e in modo casuale, alcune unità di elaborazione, similmente a uno
studente che nasconde alcune pagine del libro per verificare la reale comprensione del
concetto, invece della sua memorizzazione. Questo meccanismo è fondamentale per
prevenire l'overfitting, cioè quella situazione in cui il modello diventa troppo "specializzato"
sui dati di addestramento, perdendo la capacità di gestire situazioni nuove, proprio come
lo studente che, avendo memorizzato perfettamente le risposte di un vecchio esame, va in
crisi quando le domande vengono formulate diversamente.
Al termine di questa elaborazione stratificata, un ultimo livello raccoglie e sintetizza tutti i
risultati intermedi in un unico valore di previsione. Questa complessa architettura rende le
LSTM particolarmente efficaci nell'analisi di serie temporali complesse, come le previsioni
finanziarie o l'analisi del comportamento dei consumatori, dove riescono a cogliere schemi
sofisticati nei dati, anche quando questi si sviluppano su lunghi periodi di tempo.

20



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
3. Preparazione dei dati e training del Modello LSTM
Effettueremo delle previsioni applicando il modello LSTM ad un dataset che comprende un
anno di attività di un rivenditore online britannico specializzato in articoli da regalo per
ogni occasione. I dati raccolti mostrano un quadro dettagliato delle vendite giornaliere
dell'azienda, documentando le transazioni di 4.372 clienti che hanno generato 25.901
fatture nell'arco di dodici mesi. Il catalogo dell'azienda è composto da 3.940 prodotti unici,
offrendo così una vasta gamma di opzioni regalo per soddisfare le diverse esigenze della
clientela del mercato domestico e di quello estero.

Fatturato annuale Retailer UK
Prima di applicare l'algoritmo delle reti neurali alla serie storica è necessario normalizzare
le vendite giornaliere, cioè trasformarle in valori compresi tra 0 e 1. In tal modo il valore più
basso diventerà zero, quello più alto diventerà 1 e tutti gli altri valori verranno riparametrati
in proporzione tra 0 e 1. Questa tecnica crea uniformità nella scala dei dati, evitando che
una variabile con un range più ampio domini altre variabili, e smussa la presenza di valori
estremamente grandi e piccoli, rendendo più stabile e veloce il training del modello di rete
neurale che sarà impiegato.
Il passo successivo è quello di dividere i dati in sequenze temporali, la cui ampiezza può
variare in base alle specifiche esigenze di analisi. Ad esempio, utilizzando una finestra
temporale mobile di 60 giorni, il modello analizza e prevede l'andamento delle vendite
osservando due mesi di dati alla volta. Questa durata può essere modificata: periodi più
brevi potrebbero essere più adatti per cogliere tendenze a breve termine, mentre finestre
temporali più ampie potrebbero catturare meglio gli andamenti di lungo periodo. La scelta
dell'intervallo ottimale dipenderà dalle caratteristiche specifiche del business e dalla natura
delle tendenze che si intendono identificare.

21



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Considerando la finestra di 60 giorni, il sistema osserva i dati di due mesi consecutivi per
fare una previsione sul giorno immediatamente successivo. Questo processo si ripete
giorno dopo giorno, creando una serie di finestre sovrapposte che scorrono
progressivamente nel tempo. In un anno di vendite, il modello inizia utilizzando i primi 60
giorni per prevedere il sessantunesimo, poi si sposta di un giorno e usa i giorni dal secondo
al sessantunesimo per prevedere il sessantaduesimo, continuando così fino alla fine del
dataset. Questo metodo permette di cogliere schemi temporali ricorrenti, come trend
stagionali o altri modelli ciclici nelle vendite.
Preparati i dati, si inizia ad allenare il modello utilizzando l'80% dei dati come set di training
e lasciando il 20% per la validazione e il test del modello. Dopo numerosi cicli di
addestramento, il modello genera previsioni sulle vendite giornaliere che vengono
confrontate con i dati reali per valutarne l'accuratezza.
La scelta di utilizzare una finestra temporale di 60 giorni rappresenta un punto di partenza
nell'analisi, non uno standard fisso. Per ottimizzare le prestazioni del modello, è infatti
possibile sperimentare finestre temporali di diverse dimensioni, come ad esempio 30 giorni
o periodi più estesi, fino ad individuare quella che offre le previsioni più accurate sui dati
storici.
Per valutare oggettivamente quale dimensione della finestra temporale sia più efficace, si
utilizzano due indicatori di errore fondamentali: il Root Mean Squared Error (RMSE) e il Mean
Absolute Error (MAE). Il primo misura l'errore quadratico medio delle previsioni ed è
particolarmente sensibile agli scostamenti più ampi dai valori reali, fornendo così
un'indicazione in situazioni dove gli errori di grande entità nelle previsioni sono
particolarmente critici da identificare.
Il MAE, invece, calcola semplicemente la media delle differenze assolute tra valori previsti
e valori reali, offrendo una misura più intuitiva dell'errore medio di previsione. In entrambi
i casi, valori più bassi di questi indicatori segnalano una maggiore precisione del modello.
Confrontando questi indicatori per diverse dimensioni della finestra temporale, è possibile
identificare quella che minimizza gli errori di previsione e quindi meglio si adatta alle
specificità dei dati analizzati.
Nel nostro caso, il valore della finestra temporale che si è rivelato ottimale è di 38 giorni.

22



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.

Uso del Modello LSTM per prevedere i dati storici
4. Inserimento nel Modello LSTM della componente
stagionale
E' molto frequente che le vendite siano soggette a variabili cicliche: periodi di alta
domanda, come le festività natalizie, o promozioni stagionali, possono causare picchi nei
volumi di vendita, mentre i mesi più tranquilli possono vedere una riduzione nelle
transazioni. Identificare questi modelli ricorrenti permette alle aziende di prevedere meglio
cosa aspettarsi nel futuro e di adattare le loro operazioni di conseguenza.
Per questo motivo, dopo aver addestrato il modello, si passa al calcolo della stagionalità
così da migliorare ulteriormente le previsioni. La stagionalità viene calcolata sia su base
giornaliera che mensile, esaminando la media delle vendite per ciascun giorno della
settimana e per ciascun mese. Per rendere comparabili questi valori, vengono poi
normalizzati rispetto alle medie totali giornaliere e mensili, ottenendo così dei coefficienti
di aggiustamento relativi che possono essere applicati alle previsioni.
Una funzione apposita si occupa di adattare le previsioni alla stagionalità. Questa funzione
riceve in ingresso le previsioni, le date corrispondenti e i coefficienti di stagionalità
giornaliera e mensile. Per ciascuna previsione, la funzione individua il giorno della
settimana e il mese di riferimento della data corrispondente, calcola un coefficiente di
aggiustamento moltiplicando il valore della stagionalità giornaliera per quello della
stagionalità mensile, e infine applica questo coefficiente alla previsione specifica. Il risultato
è una serie di previsioni aggiustate per tenere conto delle fluttuazioni stagionali relative.

23



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.

Uso del Modello LSTM per prevedere i dati storici con aggiustamento stagionale
5. Uso del Modello LSTM per prevedere le vendite
future
Dopo l’addestramento, possiamo fare previsioni future di un anno intero, sfruttando
l’ultima sequenza storica come punto di partenza. Il processo di previsione si basa su un
meccanismo iterativo: a partire dalla sequenza di dati più recente, si genera una nuova
previsione per il giorno successivo. Questa previsione viene immediatamente incorporata
nella sequenza, eliminando il primo valore e inserendo la nuova previsione in ultima
posizione. Si ottiene così una “sequenza mobile” che scorre nel tempo, con cui il modello
genera nuove previsioni giorno per giorno fino a coprire l’intero orizzonte di un anno. È
come se la rete neurale stesse costruendo un ponte tra il presente e il futuro, mattone dopo
mattone, utilizzando ogni nuova previsione come base per quella successiva.
Una volta ottenute le previsioni per i 365 giorni futuri, viene applicato l'aggiustamento
stagionale che incorpora sia i valori giornalieri che quelli mensili precedentemente
identificati e permette di catturare le variazioni cicliche caratteristiche del business, come i
picchi di vendita durante determinati giorni della settimana o mesi dell'anno. Le previsioni
finali risultano così più realistiche e allineate con gli andamenti storici osservati, offrendo
una base solida per la pianificazione aziendale a lungo termine della produzione e della
logistica.

24



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.

Uso del Modello LSTM per prevedere i dati in un orizzonte temporale di 365 giorni
Conclusioni e Raccomandazioni
L'implementazione di un sistema di previsione basato su reti neurali LSTM rappresenta un
significativo passo avanti nella gestione strategica aziendale. Grazie alla capacità delle
LSTM di catturare e analizzare schemi e cicli temporali nei dati, è possibile ottenere
previsioni più accurate rispetto ai modelli tradizionali, migliorando la gestione
dell’inventario, la pianificazione delle promozioni e, elemento non trascurabile, la
soddisfazione dei clienti.
È importante sottolineare, tuttavia, che le previsioni generate da questo approccio, per
quanto sofisticate e ben calibrate, devono essere utilizzate come strumento di supporto
decisionale più che come fonte di verità assoluta. Le proiezioni a lungo termine sono infatti
soggette a incertezze e possono essere influenzate da eventi imprevisti o cambiamenti
strutturali nel mercato.
Per massimizzare i benefici del modello, è fondamentale seguire tre linee guida principali.
Innanzitutto, investire nella qualità e nella pulizia dei dati storici, da cui dipende
direttamente la precisione delle previsioni. In secondo luogo, implementare un sistema di
monitoraggio continuo delle performance, aggiornando regolarmente i parametri con i
nuovi dati acquisiti. Infine, integrare le previsioni con l'expertise del settore e la conoscenza
del mercato, creando un processo decisionale ibrido che unisca intelligenza artificiale e
intuizione umana. In conclusione, mentre le reti LSTM rappresentano uno strumento
potente per la previsione delle vendite, il loro successo dipende dalla capacità
dell'organizzazione di integrarle in un ecosistema più ampio di analisi dei dati e processo
decisionale, dove tecnologia e competenza umana collaborano per ottenere i migliori
risultati possibili.

25



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Advanced Fraud Prevention: il sottile
confine tra Anomalia e Opportunità

Abstract: L'adozione di tecniche avanzate di prevenzione delle frodi è essenziale per le aziende che
gestiscono grandi volumi di dati transazionali. L'utilizzo di algoritmi di Machine Learning, come PCA
e Isolation Forest, consente di identificare anomalie che potrebbero indicare attività fraudolente.
Questi strumenti analizzano variabili complesse per distinguere tra comportamenti legittimi e
potenziali minacce, riducendo i falsi positivi e migliorando l'efficacia dei sistemi di sicurezza.
Implementare tali metodologie richiede investimenti in competenze specializzate e infrastrutture
tecnologiche, ma i benefici in termini di protezione delle risorse aziendali e mantenimento della
fiducia dei clienti rendono questa strategia fondamentale per operare in un ambiente digitale
sicuro.

1. Introduzione
Il punto di partenza per un efficace sistema di rilevamento delle frodi è la comprensione
approfondita del comportamento dei clienti. Nel settore retail, ogni transazione, per quanto piccola,
contribuisce a creare un profilo unico del cliente. Questi profili sono costruiti attraverso una serie di
variabili che includono:
• il momento dell'acquisto: gli orari preferiti per effettuare gli acquisti possono indicare
abitudini specifiche, come ad esempio transazioni frequenti durante il fine settimana o in
orari notturni, se pensiamo agli ordini effettuati online;
• l'importo speso: l'ammontare tipico degli acquisti può variare a seconda del cliente. Alcuni
potrebbero spendere cifre basse ma effettuare acquisti frequenti, mentre altri potrebbero
preferire pochi acquisti di valore elevato;
• la frequenza delle transazioni: la frequenza con cui un cliente effettua acquisti può aiutare
a identificare modelli di comportamento normali e a rilevare attività insolite, come un
improvviso aumento di transazioni in un breve periodo di tempo;
• la quantità e il tipo di prodotti acquistati: le preferenze di prodotto, la diversità degli
articoli acquistati e la loro quantità possono fornire indizi su comportamenti di acquisto
abituali. Cambiamenti improvvisi nelle preferenze di prodotto o acquisti di grandi quantità
di un articolo inusuale possono segnalare attività sospette.
Questi elementi, se analizzati in modo isolato, rappresentano semplici informazioni ma la loro
combinazione permette di individuare modelli di comportamento complessi. È attraverso l'analisi
di questi modelli che diventa possibile distinguere le normali attività di acquisto dalle potenziali
transazioni fraudolente.
Nel contesto di un'azienda con un alto volume di transazioni giornaliere, tipico delle aziende che
vendono tramite e-commerce, la difficoltà maggiore è distinguere i comportamenti legittimi da
quelli fraudolenti. Le frodi non seguono schemi predefiniti e possono cambiare rapidamente,

26



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
rendendo inefficaci i tradizionali metodi basati su regole statiche. Una regola, ad esempio, che
segnala automaticamente una transazione superiore ad una certa soglia potrebbe generare troppi
falsi positivi, evidenziando il comportamento di clienti onesti che effettuano acquisti di valore
elevato durante i periodi promozionali.
2. Tecniche avanzate di analisi: PCA e Isolation Forest
La vera innovazione nel campo del rilevamento delle frodi oggi non si basa più esclusivamente su
sistemi statici e regole predefinite, come controllare se un acquisto supera una certa soglia di spesa
o se avviene in un orario insolito. Questi approcci tradizionali, pur essendo stati utili in passato,
sono limitati perché non riescono a tenere il passo con la crescente complessità e l'evoluzione dei
metodi di frode. I truffatori, infatti, diventano sempre più furbi, trovando nuovi modi per eludere i
controlli standard.
Di fronte a questa sfida, l'uso di tecniche avanzate di machine learning rappresenta un salto
evolutivo, perché consente di creare modelli che si adattano e apprendono dai dati. Questi modelli
non si limitano a seguire regole statiche, ma analizzano costantemente i flussi informativi per
identificare pattern nascosti, correlazioni non ovvie e cambiamenti nel comportamento dei clienti.
Questo approccio è molto più efficace perché permette di individuare anomalie anche quando queste
non seguono schemi noti o prevedibili.
Uno dei problemi principali nell'analisi delle transazioni per il rilevamento delle frodi è la grande
quantità di variabili da considerare. Ogni transazione può essere descritta da decine o centinaia di
caratteristiche: dal metodo di pagamento utilizzato, al tipo di prodotto acquistato, fino alla
geolocalizzazione del cliente. Questo crea un dataset ad alta dimensionalità, che può essere difficile
da analizzare e in cui il rumore (cioè i dati irrilevanti o ridondanti) può nascondere i pattern
significativi.
Per affrontare questo problema, entra in gioco la riduzione della dimensionalità, una tecnica che
permette di semplificare i dati mantenendo solo le informazioni più importanti. Uno degli strumenti
più utilizzati in questo contesto è la Principal Component Analysis (PCA), che sintetizza il dataset
in poche componenti principali, capaci di spiegare la maggior parte della variabilità presente nei
dati. Ridurre la dimensionalità significa eliminare il "superfluo", rendendo più facile individuare
comportamenti anomali senza perdere informazioni cruciali.
Dopo aver semplificato i dati tramite tecniche di riduzione della dimensionalità, è possibile applicare
algoritmi di anomaly detection per identificare transazioni sospette. Gli algoritmi di anomaly
detection sono progettati per individuare deviazioni dai comportamenti normali, cioè quelle
transazioni che, per caratteristiche o pattern, differiscono significativamente dalla massa.
Tra i metodi di anomaly detection, uno dei più efficaci è l'Isolation Forest. Questo algoritmo si
distingue perché non cerca di costruire un modello del comportamento normale, ma si focalizza
direttamente sull'isolamento delle anomalie. L'idea alla base di Isolation Forest è che le anomalie,
essendo rare e diverse, sono più facili da isolare rispetto ai dati normali. L'algoritmo crea numerosi
alberi di decisione e misura quante suddivisioni sono necessarie per isolare un punto: meno
suddivisioni significano maggiore probabilità che quel punto sia un'anomalia.
Nella distribuzione di dati normali, infatti, la maggior parte dei punti segue uno schema prevedibile,
formando una concentrazione densa di valori simili tra loro. Al contrario, le anomalie sono elementi

27



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
rari che si discostano in modo significativo da questo pattern principale, posizionandosi lontano dal
"cuore" della distribuzione. Questa caratteristica rende le anomalie più facilmente isolabili,
richiedendo meno suddivisioni per separarle dal resto dei dati.
Per comprendere meglio questo concetto, consideriamo la distribuzione delle altezze umane: in una
popolazione tipica, la maggior parte delle persone ha un'altezza che si aggira intorno alla media,
indicativamente tra 160 e 180 cm. Se in questo campione incontrassimo un giocatore di
pallacanestro professionista alto 2 metri, la sua altezza rappresenterebbe chiaramente un'anomalia
statistica, facilmente distinguibile dal resto del gruppo con una sola suddivisione dei dati.
Al contrario, i punti che rientrano nella normalità, essendo molto vicini tra loro, necessitano di più
suddivisioni per essere isolati. Sempre nell'esempio delle altezze, distinguere una persona alta 172
cm da una alta 176 cm richiederà molte più suddivisioni, poiché questi valori si trovano all'interno
della massa densa di dati normali e sono circondati da molti altri punti con valori simili.
3. Applicazione dell'approccio integrato ad un caso
concreto
Usiamo un dataset costituito da un listato vendite di un retailer online di articoli da regalo. L'azienda
ha generato in un anno un fatturato di circa 10 milioni di euro dalla vendita di oltre 5 milioni di
pezzi, servendo sia clienti privati che commerciali.

Elaborazione con PCA e Isolation Forest
La visualizzazione utilizza le prime due componenti principali (PCA1 e PCA2) per rappresentare in
2D i modelli multidimensionali dei comportamenti d'acquisto. I punti sono colorati in base alla
classificazione dell'algoritmo:

28



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
• Punti Rossi (1): rappresentano i clienti identificati come anomali
• Punti Blu (0): rappresentano i clienti con comportamenti d'acquisto nella norma
La distribuzione dei punti è già di per sè esplicativa:
1. la maggior parte dei clienti (punti blu) forma un cluster denso nell'area intorno all'origine,
indicando comportamenti d'acquisto simili e prevedibili;
2. si notano chiaramente dei clienti anomali (punti rossi) che si distanziano significativamente
dal cluster principale. In particolare: due punti molto isolati sulla destra del grafico (alti
valori di PCA1), alcuni punti nella parte superiore (alti valori di PCA2), un gruppo disperso
di anomalie con valori moderati su entrambe le componenti.
Questa visualizzazione conferma che il retailer ha una base clienti prevalentemente omogenea, con
un numero limitato ma significativo di clienti che mostrano modello di acquisto distintivi,
probabilmente riconducibili a diversi segmenti di mercato (es. privati vs grossisti).
4. Approfondimento sui valori anomali
Il passo successivo è approfondire la conoscenza dei clienti che hanno generato un alert con il loro
comportamento d'acquisto.
Si tratta di 44 clienti su un totale di 4.338, circa l'1% ma che comunque hanno generato più del 7%
di transazioni significativamente differenti dalla media dei clienti.

Statistiche di confronto tra clienti Normali e Anomali

29



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Una rappresentazione grafica può aiutarci a visualizzare meglio il complesso dei comportamenti
d'acquisto dei 44 clienti anomali attraverso diversi elementi visivi complementari.
Se poniamo la dimensione variabile delle bolle proporzionale al numero di referenze acquistate,
identifichiamo immediatamente i clienti che diversificano maggiormente i loro acquisti. La
gradazione di colore, basata sul valore totale delle transazioni, evidenzia i clienti con maggiore
capacità di spesa, mentre il posizionamento tridimensionale dei punti rivela la relazione tra numero
di pezzi acquistati, varietà di prodotti e valore complessivo.

Rappresentazione 44 clienti anomali su 3 variabili
Questa visualizzazione multifattoriale ci consente di individuare rapidamente diverse tipologie di
clienti anomali: quelli che acquistano molte referenze diverse in quantità limitate (possibili
rivenditori specializzati), quelli che concentrano gli acquisti su poche referenze ma in grandi volumi
(probabili grossisti) e quelli che generano alto valore indipendentemente dal mix di prodotti
(potenziali clienti premium).
L'ultimo passaggio di questa analisi richiede un approfondimento dettagliato dei singoli clienti
identificati come anomali, integrando i dati quantitativi con la conoscenza qualitativa del mercato.

30



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.

Statistiche transazioni clienti Anomali
Quest'analisi dettagliata dovrebbe esaminare:
• la storia commerciale di ciascun cliente, analizzando l'evoluzione temporale dei suoi
acquisti, la stagionalità, la frequenza degli ordini e la progressione del valore delle
transazioni. Questo permette di comprendere se le anomalie rilevate sono episodiche o
rappresentano un pattern consolidato;
• il mix di prodotti acquistati, valutando non solo il numero di referenze ma anche le categorie
merceologiche, il posizionamento di prezzo e le possibili complementarietà tra i prodotti.
Questa visione può rivelare strategie d'acquisto specifiche e, in caso appaia evidente non
si tratti di frode, opportunità di cross-selling;
• le caratteristiche operative del cliente, come la sua natura (privato, rivenditore, grossista), la
localizzazione geografica, il settore di attività e il potenziale mercato di riferimento. Questi
elementi forniscono il contesto necessario per interpretare correttamente i comportamenti
d'acquisto anomali.
Conclusioni: verso un sistema di rilevamento frodi
proattivo e strategico
Il futuro del rilevamento delle frodi si sta orientando verso un approccio proattivo che integra
tecnologie avanzate di Machine Learning e Intelligenza Artificiale. La combinazione di tecniche
come la Principal Component Analysis (PCA) e l'Isolation Forest, unite a sistemi di monitoraggio
in tempo reale, sta rivoluzionando il settore.
Come dimostrano casi concreti quali PayPal e Stripe Radar, questi sistemi sono in grado di
analizzare milioni di transazioni quotidianamente, identificando comportamenti sospetti attraverso
l'auto-apprendimento continuo. L'integrazione con servizi cloud avanzati, come Amazon Fraud
Detector, permette inoltre di personalizzare i modelli di rilevamento per specifiche esigenze
aziendali, garantendo una maggiore precisione nella prevenzione di frodi complesse.
La visualizzazione dei dati attraverso mappe bidimensionali e l'utilizzo di tecniche di clustering
rendono questi sistemi non solo più efficaci ma anche più interpretabili, consentendo una risposta
rapida e mirata alle potenziali minacce fraudolente.

31



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Questa analisi dettagliata dei valori anomali, inoltre, può rivelarsi preziosa anche in ambito
commerciale: l'identificazione di modelli comportamentali inusuali ma legittimi può infatti
suggerire nuove tendenze di consumo o bisogni emergenti dei clienti. In questo modo, ciò che
inizialmente viene analizzato come potenziale anomalia può trasformarsi in un'opportunità di
business, permettendo al marketing di sviluppare strategie commerciali mirate e innovative basate
su comportamenti d'acquisto non convenzionali ma in crescita.

32



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
La validità della regola 80-20 per i retailer
online

Abstract: La regola 80-20, nota anche come Principio di Pareto, suggerisce che l'80% dei risultati
deriva dal 20% delle cause. Nel contesto del retail online, questo principio implica che una porzione
significativa delle vendite proviene da una minoranza di clienti o prodotti. Analizzando i dati di
vendita, i retailer possono identificare i clienti più redditizi e i prodotti più performanti, consentendo
una focalizzazione strategica su questi segmenti. Questo approccio permette di ottimizzare le
strategie di marketing, personalizzare le offerte e allocare le risorse in modo più efficiente. Tuttavia,
è importante riconoscere che la regola 80-20 non è universale e può variare in base al settore, al
mercato e al comportamento dei consumatori. Pertanto, è essenziale per i retailer online condurre
analisi approfondite dei propri dati per determinare la distribuzione effettiva delle vendite e
adattare le strategie di conseguenza. L'applicazione consapevole del Principio di Pareto può portare
a una maggiore redditività e a decisioni aziendali più informate.

1. Introduzione
La regola dell'80-20, nota anche come Principio di Pareto, è un concetto fondamentale
nell'economia e nel management che suggerisce come l'80% degli effetti sia generato dal
20% delle cause. Applicato al settore delle vendite, questo principio implica che una piccola
porzione dei prodotti o dei clienti sia responsabile della maggior parte del fatturato di
un'azienda. Questa teoria ha guidato strategie di business per decenni, orientando
l'attenzione verso l'ottimizzazione delle risorse e la focalizzazione sui prodotti più redditizi.
Con l'esplosione dell'e-commerce e la possibilità di offrire una vasta gamma di referenze
online, le dinamiche di mercato sono però cambiate radicalmente. La digitalizzazione ha
permesso di abbattere le barriere fisiche e logistiche, dando spazio a una varietà di prodotti
senza precedenti. Questo scenario solleva una domanda: la regola dell'80-20 è ancora
valida nell'era delle vendite online di migliaia di referenze?
Attraverso l'utilizzo degli strumenti avanzati di analisi dei dati disponibili oggi, condurremo
un approfondimento sul principio di Pareto applicato a un retailer internazionale attivo in
diversi paesi. L'obiettivo sarà trarre conclusioni utili per comprendere e navigare le
complessità del mercato internazionale.

33



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
2. File di lavoro
Useremo i dati di vendita di un retailer online con sede nel Regno Unito che contiene tutte
le transazioni avvenute tra il 1° dicembre 2010 e il 9 dicembre 2011. L'azienda vende al
dettaglio oggetti da regalo per tutte le occasioni e i clienti possono essere privati, negozi
o grossisti.
Il database caricato contiene i seguenti campi:
1. N_Fattura: il numero di fattura per l'ordine.
2. Codice_Prodotto: il codice identificativo del prodotto.
3. Descrizione: la descrizione del prodotto venduto.
4. Quantità: la quantità di prodotto acquistata per ogni riga d'ordine.
5. DataFattura: la data e l'ora in cui la fattura è stata emessa.
6. PrezzoUnitario: il prezzo unitario del prodotto.
7. Importo: il totale della transazione (calcolato moltiplicando la quantità per il prezzo
unitario).
8. CodCliente: un identificatore univoco per il cliente.
9. Paese: il paese di provenienza dell'acquirente.
L'azienda nel periodo considerato ha realizzato un fatturato di quasi 10 milioni di euro,
vendendo più di 5 milioni di pezzi.
L'analisi del grafico mensile delle vendite rivela una marcata stagionalità, con un picco
significativo che si manifesta all'avvicinarsi del periodo natalizio. Questo andamento è
perfettamente comprensibile considerando la natura dell'assortimento aziendale,
focalizzato su oggetti da regalo.

Fatturato e numero di pezzi venduti per mese

34



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Il numero di pezzi venduti (linea blu) segue un andamento molto simile al fatturato totale
(linea verde), suggerendo che non ci sono grandi variazioni nel prezzo medio unitario
durante l'anno.
Procedendo con l'analisi del database, notiamo che nel corso dell'anno sono state vendute
3.940 referenze uniche e serviti 4.372 clienti. Sono state emesse 25.901 fatture con una
media di circa 6 fatture per cliente. Il totale delle righe d'ordine è di 541.909 con una media
di 21 righe per fattura. Si tratta di un'intensa attività commerciale, con un'ampia gamma di
prodotti e un significativo volume di transazioni per cliente.
3. Analisi ABC delle vendite
Il processo di analisi è relativamente semplice, si parte dal calcolo del fatturato annuale per
ciascuno dei 3.940 prodotti in catalogo. Successivamente, questi vengono ordinati in modo
decrescente in base al loro fatturato. Infine, si determina il fatturato cumulativo, che
rappresenta la somma progressiva delle vendite, partendo dal prodotto con il fatturato più
alto fino a quello più basso. Si individuano così 3 classi:
• Classe A: in questa categoria si includono i prodotti che rappresentano
generalmente l’80% del fatturato totale, anche se possono essere solo il 10-20%
del numero totale di prodotti. Sono i prodotti ad alta rotazione e di maggiore
impatto.
• Classe B: prodotti che generano il 15% del fatturato, ma rappresentano una
percentuale leggermente più grande del numero totale di prodotti (30-40%). Sono
prodotti a rotazione media.
• Classe C: referenze che contribuiscono solo al 5% del fatturato, ma che potrebbero
rappresentare oltre il 50% del numero totale dei prodotti. Questi sono i prodotti a
bassa rotazione o meno rilevanti.
Dall'analisi del database emerge un quadro sintetizzato dal grafico seguente:

35



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.

Analisi ABC su Numero Prodotti e Fatturato annuo
Il 21.6% dei prodotti sono classificati come Classe A, il 25.0% Classe B e il restante 53.4%
sono nella Classe C.
La regola dell'80-20 è confermata: il 21.6% dei prodotti di Classe A genera l'80% del
fatturato evidenziando quanto questi siano cruciali. Anche se i prodotti di Classe C
rappresentano oltre il 53% del numero totale delle referenze in assortimento, generano
solo il 5% del fatturato, rendendo evidente che sono meno importanti per il contributo
economico.
Considerando il trend mensile delle Classi ABC emerge ancora più evidente che il business
è trainato dal gruppo ristretto dei prodotti di Classe A in tutti i momenti dell'anno.

36



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.

Trend mensile delle Classi ABC
4. Approfondimenti e considerazioni
L'analisi dei dati rivela che la Classe C, composta da 2.071 articoli (53.4% dell'assortimento),
genera solo il 5% del fatturato totale, con una stagionalità quasi inesistente. Questa
distribuzione suggerisce un'opportunità di razionalizzazione dell'assortimento,
focalizzandosi sui prodotti più performanti.
I prodotti della Classe C potrebbero includere articoli a basso volume di vendita, prodotti
stagionali fuori mercato, o item con margini ridotti. Potrebbero anche essere prodotti
obsoleti o con domanda troppo specifica. L'identificazione di questi articoli è cruciale per
ottimizzare l'efficienza e ridurre i costi di magazzino.
Tuttavia, la cautela è fondamentale. Alcuni "slow movers" potrebbero essere vitali per
nicchie specifiche o mercati geografici particolari. Prodotti con valore simbolico,
culturalmente rilevanti o esclusivi per certe aree possono contribuire significativamente alla
fidelizzazione e all'immagine del brand, nonostante i volumi ridotti.
In effetti, se effettuiamo l'analisi ABC per i 3 principali paesi di sbocco, notiamo alcuni
aspetti interessanti che già dal grafico di seguito appaiono a colpo d'occhio.

37



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.

Analisi ABC su Numero Prodotti e Fatturato annuo Globale e su 3 Core Country
Nel Regno Unito, che rappresenta il mercato domestico principale, i risultati rispettano la
regola dell'80-20, con l'80% del fatturato generato dal 20% dei prodotti di Classe A. E' un
segnale di un assortimento ben equilibrato e coerente, dove una minoranza di prodotti
performanti traina la maggior parte delle vendite. È evidente che in questo mercato
l’azienda ha già ottimizzato la propria offerta, concentrandosi sui prodotti più redditizi.
In Francia la situazione è ben diversa: qui il 50% dei prodotti venduti genera l'80% del
fatturato. Ridurre l'assortimento potrebbe essere rischioso, poiché i prodotti che appaiono
come meno performanti in termini di vendite complessive potrebbero essere essenziali per
attrarre specifiche nicchie di clienti o per mantenere la varietà che i consumatori francesi si
aspettano.
Situazione intermedia, rispetto ai due paesi precedenti, per la Germania dove il 30% dei
prodotti genera l'80% del fatturato. Sebbene ci siano prodotti ben definiti che dominano
le vendite, esiste un gruppo significativo di articoli meno performanti che contribuisce al
raggiungimento di questo obiettivo. Razionalizzare l'assortimento potrebbe essere
un'opzione, ma è importante valutare con attenzione quali prodotti rimuovere.
Conclusioni e Raccomandazioni
L'analisi condotta conferma la validità generale del principio di Pareto nel contesto delle
vendite online, ma evidenzia anche importanti sfumature e variazioni in sottoinsiemi
specifici come possono essere i diversi territori in cui l'azienda vende. Mentre il mercato
principale (Regno Unito) aderisce strettamente alla regola 80-20, altri mercati come Francia
e Germania mostrano distribuzioni significativamente diverse, sottolineando l'importanza
di un approccio differenziato per paese.

38



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Le strategie operative che ritengo utile evidenziare sono:
• Ottimizzazione dell'assortimento con approccio globale + locale, che bilanci
efficienza e diversità. Significa concentrare le risorse principali sui prodotti di Classe
A, che guidano la maggior parte del fatturato a livello globale, pur mantenendo una
selezione curata di prodotti di Classe B e C, scelti strategicamente per soddisfare
nicchie di mercato specifiche e preferenze locali. Idealmente, ci dovrebbe essere un
processo continuo di valutazione del portafoglio prodotti in uscita ma anche in
entrata, che bilanci la razionalizzazione con l'innovazione, mantenendo un equilibrio
tra l'eliminazione di prodotti non performanti e l'introduzione di novità promettenti
basato sui insights delle nicchie di mercato identificate. Solo in questo modo si
garantisce un assortimento sempre fresco e rilevante.
• Identificazione proattiva di nicchie di mercato trasversali: sviluppare cioè un
programma di approfondimento per identificare nicchie basate su bisogni specifici,
più che sulle classiche caratteristiche sociodemografiche e geografiche. Si può fare
utilizzando tecniche di analisi dei dati avanzate (come il clustering comportamentale
e l'analisi delle associazioni) per individuare modelli di acquisto non
immediatamente visibili, come anche implementando sistemi di elaborazione dei
feedback dei clienti e monitoraggio dei social media per captare tendenze
emergenti e bisogni insoddisfatti (nel capitolo seguente è riportato un esempio nel
mondo del vino).
In conclusione, l'era dell'e-commerce ha reso più complessa, ma non meno rilevante,
l'applicazione del principio di Pareto. La chiave del successo risiede nella capacità di
bilanciare l'efficienza globale con la flessibilità locale, sfruttando i dati per ottimizzare
continuamente l'assortimento, prestando particolare attenzione all’identificazione delle
nicchie di mercato e delle loro esigenze.

39



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
La battaglia delle bollicine: chi vince tra
Prosecco Brut vs Extra Dry?

Abstract: Il confronto tra Prosecco Brut ed Extra Dry rivela differenze significative che influenzano
le preferenze dei consumatori. La distinzione principale risiede nel contenuto di zucchero: il Brut
contiene fino a 12 grammi di zucchero per litro, risultando più secco, mentre l'Extra Dry presenta
un contenuto zuccherino compreso tra 12 e 17 grammi per litro, offrendo un gusto leggermente
più dolce. Queste variazioni influenzano il profilo aromatico e il sapore, con il Brut che tende ad
avere note più asciutte e minerali, e l'Extra Dry che offre sentori più fruttati e morbidi. Le preferenze
dei consumatori possono variare in base a fattori come l'abbinamento gastronomico, l'occasione
di consumo e le inclinazioni personali verso sapori più secchi o più dolci. Comprendere queste
differenze è fondamentale per i produttori e i rivenditori, al fine di soddisfare le aspettative del
mercato e guidare le strategie di marketing e distribuzione.

1. Introduzione
Nel contesto del mercato del Prosecco, così come in altri settori caratterizzati da un'offerta
frammentata, la chiave del successo risiede nella profonda comprensione delle preferenze
dei consumatori. Questa conoscenza, tuttavia, non è sufficiente se non accompagnata da
azioni concrete da parte delle aziende, che possono spaziare dal miglioramento del
prodotto all'affinamento delle strategie di comunicazione. In molti casi, il prodotto è già
allineato alle esigenze del mercato, ma necessita di una comunicazione più efficace dei suoi
punti di forza o di una maggiore enfasi su caratteristiche apparentemente marginali ma
cruciali per i clienti.
L'evoluzione tecnologica degli ultimi anni ha rivoluzionato gli strumenti di analisi,
portandoli a livelli di sofisticazione un tempo impensabili. Durante i miei studi di statistica
era difficile immaginare l'attuale potenza di calcolo, la disponibilità di dati sulle preferenze
attraverso social media e forum e l'uso di algoritmi di intelligenza artificiale sempre più
avanzati.
Ciò che un tempo sembrava irraggiungibile, come rendere misurabili, confrontabili e
clusterizzabili le valutazioni qualitative, è oggi non solo possibile, ma anche alla portata
delle aziende più innovative. Da qui nasce l'idea di sviluppare un processo di analisi che,
partendo da una base dati ampia e diversificata, utilizzi avanzate tecniche di Machine
Learning per comprendere le aspettative dei clienti.

40



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Nel dinamico mercato del Prosecco, l'applicazione di questi strumenti può rappresentare
la differenza tra il successo e l'anonimato, permettendo alle aziende di navigare con
maggiore sicurezza in un panorama competitivo sempre più complesso e sfidante.
2. Campione e metodologia
Il presente studio si basa su un totale di 10.620 recensioni relative a 10 prestigiosi marchi
di Prosecco – 5 Brut e 5 Extra Dry – rappresentativi della fascia medio-alta del mercato.
Questo ampio patrimonio informativo raccoglie le opinioni degli acquirenti di ciascun
brand, spaziando dalle descrizioni dettagliate degli esperti a quelle più semplici dei neofiti,
oltre a includere valutazioni sintetiche con un voto su una scala da 1 a 5.
L’obiettivo dello studio è individuare i fattori che determinano l’eccellenza di questi vini,
così come percepiti dai consumatori. Attraverso un’analisi quantitativa mirata, ci
proponiamo di:
• Stabilire le preferenze dei consumatori tra Brut ed Extra Dry e confrontare i vari
brand sulla base delle percezioni dei consumatori.
• Tracciare il profilo "ideale" del Prosecco per le categorie Brut ed Extra Dry.
• Valutare la distanza di ogni marchio da questo profilo ideale, fornendo una
mappa competitiva del posizionamento di mercato.
• Identificare punti di forza e aree di miglioramento per ciascun brand, offrendo
spunti per l'innovazione e il perfezionamento del prodotto.
Le referenze considerate sono le seguenti:
1. Adami Garbèl Prosecco Brut
2. Astoria Corderie Valdobbiadene Prosecco Superiore Extra Dry
3. Bisol Crede Valdobbiadene Prosecco Superiore Brut
4. Bortolomiol Bandarossa Valdobbiadene Prosecco Superiore Extra Dry
5. Bottega Prosecco Il Vino Dei Poeti Brut
6. Col Vetoraz Valdobbiadine Superiore Brut
7. Foss Marai Strada di Guia 109 Extra Dry
8. Mionetto Prestige Collection Prosecco Treviso Extra Dry
9. Ruggeri Giall'Oro Valdobbiadene Prosecco Superiore Extra Dry
10. Santa Margherita Super 52 Brut

41



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.

Sintesi dei marchi e numerosità del campione

3. Le parole più usate nel recensire le due tipologie di
Prosecco
Analizzando i termini più frequentemente usati dagli acquirenti di Brut o Extra Dry nel
giudicare il loro Prosecco, si notano molte similarità ma anche importanti differenze.
1. Frequenza e posizionamento di "buono": per entrambi i tipi, "buono" è il
descrittore più frequente. Tuttavia, la frequenza per l'Extra Dry è notevolmente più
alta, suggerendo una percezione generalmente più positiva.
2. Differenze nei descrittori di gusto: il termine "secco" è al secondo posto nella
graduatoria Brut, enfatizzando la sua caratteristica principale. Anche in Extra Dry
"secco" è al secondo posto, ma con frequenza minore rispetto al Brut, inoltre nella
top 10 compare il descrittore "dolce", riflettendo il profilo leggermente più morbido
dell'Extra Dry.
3. Impronta fruttata: in Brut "mela" è al terzo posto, seguita da "pera" e "agrumato".
In Extra Dry "mela" è presente ma più in basso nella classifica mentre "pera" e
"agrumato" non compaiono nella top 10.
4. Descrittori di qualità: in Extra Dry "eccellente" è al terzo posto con alta frequenza,
seguito da "ottimo" in decima posizione. In Brut "eccellente" è presente ma più in
basso e con minor frequenza, mentre "ottimo" non appare nella top 10.

42



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.

Top 10 descrittori Prosecco Brut

Top 10 descrittori Prosecco Extra Dry per numero di citazioni

43



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
4. Chi vince la battaglia delle preferenze tra Brut ed
Extra Dry
Queste differenze nei descrittori riflettono le caratteristiche più citate dai clienti dei due stili
di Prosecco e ci permettono già di svelare la tipologia vincente:
• Il Brut si distingue per la sua secchezza più pronunciata, con un profilo aromatico
che enfatizza note di mela, pera e agrumi. La presenza di note erbacee suggerisce
una complessità aromatica potenzialmente più apprezzata da consumatori esperti
o che preferiscono vini più secchi e complessi.
• L'Extra Dry, pur mantenendo una certa secchezza, offre un profilo più morbido e
accessibile. La maggiore frequenza di termini come "buono", "eccellente" e la
presenza di "dolce" indicano un apprezzamento più ampio, probabilmente dovuto
al suo equilibrio tra freschezza e una leggera dolcezza residua.
La conferma sulla preferenza del tipo di Prosecco la riceviamo dal test T di Student
applicato alle valutazioni medie del Prosecco Extra Dry (voto 3.83) e del Brut (voto 3.78).
Questo test considera la variabilità all'interno di ciascun gruppo e la dimensione del
campione, permettendo di determinare se la differenza osservata è statisticamente
significativa.
Il risultato positivo del test T rivela una differenza statisticamente significativa tra le
valutazioni medie dell'Extra Dry e del Brut. Tale evidenza suggerisce che l'Extra Dry gode di
un apprezzamento più marcato tra i suoi consumatori rispetto a quanto il Brut sia
apprezzato dal proprio gruppo di riferimento. In altre parole, l'Extra Dry sembra suscitare
un gradimento relativamente più elevato nella sua base di consumatori rispetto a quanto
faccia il Brut con la propria.

Confronto su 10.620 valutazioni

44



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
5. L'analisi delle recensioni
Per un'analisi più approfondita delle recensioni, il punto di partenza è l'applicazione di
tecniche di Natural Language Processing (NLP). Questi modelli avanzati consentono di
eseguire una Sentiment Analysis, un processo che permette di decifrare il tono emotivo
del testo. Attraverso questa analisi, è possibile determinare se una recensione esprime
un'opinione positiva o negativa, identificando al contempo i termini chiave che
contribuiscono a caratterizzarla in un senso o nell'altro. Questo approccio fornisce una
visione più articolata e approfondita delle opinioni dei consumatori, rivelando sfumature e
dettagli che sfuggirebbero a una semplice valutazione numerica.
I modelli utilizzati sono stati VADER (Valence Aware Dictionary and sEntiment Reasoner),
che si basa su un lessico predefinito per assegnare punteggi di valenza e intensità a parole
e frasi, e RoBERTa (Robustly Optimized BERT Approach), un modello più avanzato, capace
di analizzare le informazioni nel loro contesto e di catturare sottili sfumature linguistiche.
Nei casi più complessi, in particolare nelle recensioni più articolate, abbiamo eseguito una
revisione manuale per garantire la massima accuratezza.
Nel grafico successivo è mostrata una matrice di scatter plots che illustra le relazioni tra le
variabili derivanti dall'analisi del sentiment, secondo i due modelli NLP, e i voti (su una scala
da 1 a 5) assegnati dai consumatori ai vini. I colori nel grafico rappresentano i voti, con un
gradiente che va dal viola (voto più basso) al giallo (voto più alto).

Sulla diagonale principale della matrice di dispersione sono riportati i grafici delle
distribuzioni marginali di ciascuna variabile, offrendo ulteriori dettagli sulle dinamiche tra
sentiment e voti.

45



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Osservazioni principali:
1. Distribuzione del sentiment negativo: le variabili negative di VADER e RoBERTa
mostrano una concentrazione verso lo zero, segnalando una scarsità di recensioni
fortemente negative. Questo significa che, in generale, tutte le etichette in analisi
sono fondamentalmente ben apprezzate dai rispettivi clienti.
2. Distribuzione del sentiment positivo: VADER evidenzia una distribuzione con più
dispersione dei sentiment positivi, mentre RoBERTa tende a concentrarsi sui valori
più elevati, suggerendo che quest'ultimo modello è più efficace nel cogliere le
sfumature positive nelle descrizioni dei vini.
6. Le caratteristiche del prosecco ideale
Per identificare le caratteristiche del prosecco ideale, è necessario condurre analisi più
approfondite sulle numerose recensioni presenti nel database.
Tra le varie metodologie sperimentate, quella più promettente e affidabile consiste
nell'individuare parole chiave o frasi ricorrenti che descrivono attributi specifici del
Prosecco (come sapore, note fruttate, effervescenza,...). Si calcola quindi la correlazione tra
questi elementi, i voti assegnati dai clienti e i punteggi di sentiment positivo (useremo i
valori di RoBERTa che si è dimostrato il modello più efficace nel cogliere le declinazioni del
linguaggio).
Questo approccio si rivela particolarmente efficace poiché integra dati quantitativi
(voti, sentiment) e qualitativi (recensioni), offrendo una panoramica completa delle
caratteristiche più apprezzate.
I grafici seguenti mostrano a colpo d'occhio le ricorrenze di 1, 2, 3, ... parole consecutive
presenti nella stessa recensione e danno un'idea della complessità del dataset descrittivo
da correlare con sentiment e voti.

46



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.

Word Cloud - Prosecco Brut


Word Cloud - Prosecco Extra Dry
Ottenute le correlazioni, tramite un'Analisi delle Componenti Principali (PCA - Principal
Component Analysis) si riducono i valori di correlazione a una singola dimensione
mantenendo la varianza massima dei dati, così da avere una grandezza sintetica che
riassume l'intera struttura delle correlazioni che facilita l'interepretazione.

47



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Le caratteristiche ideali del Brut, basate sui valori PCA più alti, sono:
1. Secco (PCA: 0.1782518762077845)
2. Giallo paglierino (PCA: 0.0521475037526813)
3. Agrumi (PCA: 0.047736807824326606)
4. Bollicine fini (PCA: 0.04061616457936683)
5. Fiori bianchi (PCA: 0.038224261842838225)
6. Fruttato (PCA: 0.037864003345371176)
Le caratteristiche ideali dell'Extra Dry, basate sui valori PCA più alti, sono:
1. Secco (PCA: 0.16859144360338188)
2. Fruttato (PCA: 0.0715336229215026)
3. Giallo paglierino (PCA: 0.0459294027747434)
4. Agrumi (PCA: 0.04715179134176027)
5. Bollicine fini (PCA: 0.049585978206575204)
6. Fiori bianchi (PCA: 0.041020016125604394)
Secco è il parametro che definisce entrambi i tipi di Prosecco con un valore per il Brut
superiore all'Extra Dry. L'Extra Dry ha un carattere fruttato più prominente rispetto al Brut.
Le note di agrumi e fiori bianchi sono importanti per entrambi, contribuendo alla loro
complessità aromatica.
7. La distanza dei marchi dal profilo ideale
Dopo aver determinato il profilo ideale del Prosecco Brut e di quello Extra Dry, il passo
successivo consiste nell'identificazione dei profili specifici dei singoli brand.
Questo processo si basa su un'analisi delle caratteristiche espresse dalle parole chiave
associate a ciascun brand, valutando la loro correlazione con gli stessi due parametri usati
precedentemente: il sentiment, rappresentato dal punteggio RoBERTa, che indica la
percezione emotiva e qualitativa del prodotto, e il voto numerico, che fornisce una
valutazione quantitativa diretta del prodotto.
Anche queste correlazioni vengono sintetizzate attraverso l'Analisi delle Componenti
Principali (PCA) che permette di ridurre la dimensionalità dei dati, conservando la maggior
parte dell'informazione originale.

48



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.

Analisi delle Componenti Principali (PCA) per i 5 brand di Prosecco Brut
In questo contesto, la PCA combina efficacemente le informazioni derivate dal sentiment e
dal voto in un unico valore, offrendo una rappresentazione più concisa e significativa di
ciascuna caratteristica del prodotto.
Questo approccio metodologico consente quindi di:
1. Identificare le caratteristiche più rilevanti e distintive di ciascun brand.
2. Confrontare i profili dei brand con il profilo ideale precedentemente stabilito.
3. Evidenziare i punti di forza e le eventuali aree di miglioramento di ciascun brand.
4. Posizionare i vari brand all'interno del mercato del Prosecco, sia Brut che Extra Dry.
Esempio di interpretazione per il brand Bbrut_2
Frutti: ha una buona presenza di note fruttate, specialmente di mela e pera. Tuttavia,
potrebbe essere necessario un aumento dell'intensità di queste note, insieme a una maggiore
presenza di agrumi, per avvicinarsi al profilo ideale. Colore: il colore è molto vicino a quello
del profilo ideale. Bollicine: risultano abbastanza fini, ma non raggiungono ancora il livello
ottimale di finezza e persistenza. Acidità: è ben presente ma potrebbe essere ulteriormente
accentuata per avvicinarsi all'ideale...
In questo modo, si ottiene una visione completa e sfaccettata di come ogni brand si colloca
rispetto alle aspettative del mercato e alle caratteristiche ideali del Prosecco, fornendo

49



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
informazioni preziose per strategie di marketing, sviluppo del prodotto e posizionamento
sul mercato.
8. Il posizionamento dei marchi rispetto alla
concorrenza
Per analizzare il posizionamento dei diversi brand di Prosecco nel mercato, adottiamo un
metodo basato sull'esame delle parole chiave nelle recensioni. Confrontiamo la frequenza
di termini specifici (come 'mela verde', 'agrumi' o 'bollicine fini') nelle descrizioni di ciascun
brand con il profilo ideale precedentemente definito. Calcolando le differenze tra i valori
del brand e quelli dell'ideale per ogni caratteristica, valutiamo quanto ogni aspetto si
avvicini o si allontani dal modello di riferimento.
Concettualmente, possiamo immaginare uno spazio multidimensionale dove ogni parola
chiave rappresenta una direzione. In questo spazio, posizioniamo i brand usando le
differenze calcolate come coordinate. Per semplificare questa rappresentazione complessa,
applichiamo una formula matematica (come la distanza euclidea) per sintetizzare in un
unico valore numerico quanto ciascun brand si discosta dall'ideale nel suo complesso.
Questo approccio ci permette di valutare ogni brand non solo rispetto al Prosecco ideale,
ma anche in relazione ai concorrenti. Il risultato è una mappa concettuale che offre una
visione immediata e intuitiva del panorama competitivo, facilitando la comprensione delle
dinamiche di mercato e del posizionamento relativo di ciascun brand.

Distanza dei brand dal Prosecco ideale

50



Portfolio Machine Learning - Copyright © 2025 Antonio De Bellis. Tutti i diritti riservati.
Conclusioni e applicazioni
L'analisi avanzata dei dati nel mercato del Prosecco offre opportunità rilevanti per strategie
di marketing mirate ad ottenere un vantaggio competitivo significativo.
Mentre le applicazioni più evidenti riguardano il posizionamento di mercato e la strategia
di comunicazione, esistono utilizzi meno scontati, ma potenzialmente di grande impatto,
che ritengo utile segnalare:
• Sviluppo del prodotto: in sede di produzione, è possibile affinare ulteriormente le
caratteristiche distintive del proprio brand per allineare il prodotto alle aspettative
dei consumatori, mantenendone l'identità;
• Educazione del consumatore: creare materiali informativi che spieghino il prodotto
usando il lessico dei consumatori che lo hanno apprezzato;
• Packaging ed etichettatura: incorporare termini chiave emersi dall'analisi nelle
descrizioni sulle etichette o nel materiale promozionale per migliorare la
comunicazione diretta con il consumatore;
• Formazione del personale di vendita: addestrare il personale sulle specifiche
caratteristiche apprezzate per migliorare le raccomandazioni ai clienti;
• Presentazione durante fiere ed eventi: creare esperienze di degustazione mirate
(come l'uso dei colori nelle aree di degustazione o la scelta delle piante e degli
elementi di arredo, ad esempio) che enfatizzino gli attributi più apprezzati.
Un ultimo aspetto che mi preme sottolineare è che "vicini all'ideale" non significa
necessariamente essere "migliori" in assoluto, ma piuttosto corrispondere meglio alle
aspettative generali dei consumatori per quella particolare categoria di Prosecco.
Se opportunamente comunicati, tuttavia, la diversità e i caratteri distintivi dei singoli brand
possono essere punti di forza significativi anche quando si discostano dall'ideale statistico,
perchè potrebbero essere fortemente apprezzati da un segmento specifico di
consumatori.