Dans notre précédent article, nous avons découvert ce qu’est le clustering et en quoi il peut être utile pour mieux segmenter ses données, notamment en marketing.

Dans cette seconde partie, nous détaillons la mise en œuvre d’une approche de clustering : choix des algorithmes, étapes clés du processus et applications à la segmentation client.

Rappel : qu’est-ce que le clustering ?

Le clustering est une méthode d’apprentissage non supervisé qui regroupe des objets similaires dans des groupes appelés clusters. En marketing, cela permet de mieux comprendre vos clients, d’adapter les campagnes, et de personnaliser l’expérience.

Par exemple, segmenter les abonnés à une newsletter selon leur niveau d’engagement (clics, ouvertures, conversions) permet d’adresser un message différencié pour chaque groupe.

Types de clustering

Nous présentons ici trois types de clustering très utilisés dans le domaine du marketing. Pour chaque type vous retrouverez une présentation technique et une partie pragmatique sur des exemples d’application.

Clustering partitionnel

Le clustering partitionnel consiste à répartir un ensemble de données en $k$ clusters distincts , en fonction de leur similarité. Chaque observation est affectée à un seul cluster, en cherchant à minimiser une mesure de distance, par exemple, la distance euclidienne, qui mesure la proximité entre deux points.

L’algorithme le plus connu dans cette catégorie est K-Means [1].

Limites : Cette approche est particulièrement adaptée lorsque les clusters ont une forme sphérique et des tailles comparables. Toutefois, elle n’est pas très performante en présence de données contenant du bruit, ou non linéairement séparables

Cas d’usage :

  • Obtenir une première vue d’ensemble des utilisateurs et une lecture macro de leur niveau d’engagement. Par exemple, segmenter les visiteurs d’un site en fonction de leur comportement en ligne (fréquence de visite, durée des sessions, interactions avec les publicités), permettrait d’identifier une différence d’intention : informationnelle ou transactionnelle.
  • Identifier les visiteurs occasionnels (ceux qui viennent une fois, explorent peu et ne convertissent pas) et les clients fidèles (ceux qui reviennent souvent et réalisent des achats).

Exemples d’algorithmes: K-Means [1] , K-Medoids [2], CLARANS [3]

Clustering partitionnel. À gauche : partition en deux clusters ; à droite : partition en trois clusters.

Clustering hiérarchique

Le clustering hiérarchique construit une hiérarchie de clusters sous forme d’un arbre, appelé dendrogramme. Contrairement au clustering partitionnel, il ne nécessite pas de spécifier à l’avance le nombre de clusters.

Limites : Cette méthode peut explorer la structure des données à plusieurs niveaux, mais elle peut devenir coûteuse en temps de calcul sur de grands ensembles de données.

Cas d’usage :

  • Analyser les parcours clients : les groupes peuvent révéler des segments selon le canal d’acquisition (email, réseaux sociaux, SEO). Par exemple, ceux qui viennent du SEO naviguent plus longtemps sur le site, ce qui peut indiquer une recherche d’information, tandis que ceux issus des emails visitent surtout les pages produits et quittent le site rapidement, ce qui traduit une intention d’achat plus directe.
  • Repérer les comportements similaires des clients et créer des sous-segments selon leur proximité comportementale. Par exemple des visiteurs provenant des réseaux sociaux peuvent, après plusieurs visites, adopter des comportements similaires à ceux issus du SEO. Le clustering hiérarchique peut mettre en évidence cette proximité comportementals, ce qui permet de leur adresser un contenu plus adapté à leur phase d’exploration, même s’ils proviennent initialement d’un canal d’acquisition promotionnel.

Exemples d’algorithmes : BIRCH [4], DIANA [5].

Dendrogramme illustrant un clustering hiérarchique. Les points (étiquetés de A à Z) sont regroupés selon leur similarité.

Clustering par densité

Le clustering par densité regroupe les points de données en fonction des zones de forte densité, séparées par des zones de faible densité. Les points isolés, situés dans des zones de faible densité, sont considérés comme du bruit. Cette approche ne nécessite pas de spécifier le nombre de clusters à l’avance.

L’algorithme le plus connu dans cette catégorie est DBSCAN.

Limites : Cette méthode est bien adaptée aux données bruitées ou non linéairement séparables. En revanche, le choix des paramètres peut être sensible.

Cas d’usage :

  • Détecter automatiquement des groupes de comportements atypiques sur un site web (comme des visites inhabituelles, ou des bots).
  • Identifier des micro-communautés d’utilisateurs ayant des trajectoires similaires, même s’ils sont minoritaires.

Exemples d’algorithmes : DBSCAN [6], HDBSCAN [7], OPTICS [8].

 

Clustering basé sur la densité. Les points sont regroupés selon leur densité locale. Les points isolés en faible densité sont considérés comme du bruit (non classés).

Pipeline de clustering: méthode d’implémentation

Après avoir défini les principaux types d’algorithmes de clustering, voyons maintenant comment les mettre en œuvre dans un projet.

Un pipeline de clustering s’apparente à un enchaînement structuré d’étapes interdépendantes, qui transforme des données brutes en clusters exploitables.

Voici un processus pas-à-pas pour mettre en place du clustering dans une stratégie marketing :

  1. Prétraitement des données: Il s’agit de nettoyer vos données CRM ou web : 
    • Supprimer les doublons, corriger les valeurs manquantes.
    • Encoder les catégories (par ex. « source d’acquisition » en variables numériques).
  2. Mise à l’échelle des variables: Il s’agit de mettre toutes les variables sur une échelle comparable, évitant qu’une variable domine les autres dans le calcul. Par exemple, si l’une de vos variables est mesurée en secondes (temps passé sur le site, allant de 300 à 600 secondes) et une autre en nombre de clics (allant de 1 à 10), l’algorithme de clustering pourrait accorder plus d’importance à la première parce que ses valeurs sont exprimées dans une échelle plus grande (centaines contre dizaines). En normalisant ces données, vous ramenez toutes les variables à une même échelle (entre 0 et 1), ce qui permet à l’algorithme d’évaluer chaque variable de manière équitable et de produire des clusters plus fiables.
  3. Choix de l’algorithme: Le choix de l’algorithme de clustering dépend de la nature de vos données marketing et de vos objectifs d’analyse. Par exemple : 
    • K-Means est idéal si vous cherchez à segmenter vos clients en groupes distincts, par exemple selon leur fréquence d’achat ou leur panier moyen. Il fonctionne bien lorsque les groupes sont compacts et séparés.
    • DBSCAN est mieux adapté si vos données contiennent du bruit, par exemple pour identifier des clients avec des parcours d’achat inhabituels ou des comportements atypiques.
    • Le clustering hiérarchique permet une analyse plus exploratoire. Il est utile si vous voulez visualiser différents niveaux de segmentation. Il produit une sorte d’arbre qui vous aide à décider à quel niveau couper pour définir vos segments. Par exemple, il peut révéler qu’un groupe de clients réguliers se divise ensuite en gros acheteurs et petits acheteurs, selon leur panier moyen.
  4. Validation des résultats: Une fois les clusters obtenus, il est essentiel d’évaluer leur cohérence à l’aide d’indicateurs comme le score de silhouette, qui indique à quel point chaque client est bien associé à son segment par rapport aux autres. Par exemple, si vos segments marketing sont mal définis (clients trop proches entre segments), ce score sera faible. En analysant ces résultats, vous pouvez ajuster certains paramètres (fine-tuning), comme le nombre de clusters $k$, pour affiner la segmentation et mieux refléter les comportements réels de vos clients.
  5. Interprétation des clusters: On analyse les caractéristiques propres à chaque groupe pour comprendre leur signification: Qui sont les individus dans les clusters ? Que font-ils ? Quelles actions marketing peut-on déclencher pour chacun ?

Mise en production : Enfin, lorsque le modèle est jugé satisfaisant, il peut être intégré dans un environnement opérationnel pour, automatiser la segmentation (CRM, automation). Cette étape fera l’objet d’une discussion plus détaillée dans notre prochain article.

Étapes du processus de clustering.

Ce qu’il faut retenir

  • Il existe plusieurs types d’algorithmes de clustering, chacun adapté à des cas d’usage différents.
  • Un pipeline de clustering bien structuré, de la préparation des données jusqu’à la mise en production, permet d’assurer des résultats exploitables.
  • L’interprétation métier des clusters permet de traduire les résultats en actions concrètes (ciblage différencié, recommandations personnalisées, priorisation commerciale, etc.).

Vous avez besoin d’un moteur de segmentation ? Contactez-nous pour découvrir une solution adaptée à vos données et à vos objectifs métier.

Article rédigé par Ibtihal El Mimouni – Data Scientist chez Smartprofile en cours de thèse CIFRE sur les enjeux de l’IA pour un marketing plus responsable

References

  • [1] MacQueen, J. (1967). “Some methods for classification and analysis of multivariate observations”. In Proceedings of the Fifth Berkeley Symposium on Mathematical Statistics and Probability, Volume 1: Statistics (Vol. 5, pp. 281-298). University of California press.
  • [2] Rdusseeun, L. K. P. J., & Kaufman, P. (1987). “Clustering by means of medoids”. In Proceedings of the statistical data analysis based on the L1 norm conference, neuchatel, switzerland (Vol. 31, p. 28).
  • [3] Ng, R. T., & Han, J. (2002). “CLARANS: A method for clustering objects for spatial data mining”. IEEE transactions on knowledge and data engineering, 14(5), 1003-1016.
  • [4] Zhang, T., Ramakrishnan, R., & Livny, M. (1996). “BIRCH: an efficient data clustering method for very large databases”. ACM sigmod record, 25(2), 103-114.
  • [5] Kaufman, L., & Rousseeuw, P. J. (2009). ”Finding groups in data: an introduction to cluster analysis”. John Wiley & Sons.
  • [6] Ester, M., Kriegel, H. P., Sander, J., & Xu, X. (1996). “A density-based algorithm for discovering clusters in large spatial databases with noise”. In KDD (Vol. 96, No. 34, pp. 226-231).
  • [7] Ankerst, M., Breunig, M. M., Kriegel, H. P., & Sander, J. (1999). OPTICS: “Ordering points to identify the clustering structure”. ACM Sigmod record, 28(2), 49-60
  • [8] Campello, R. J., Moulavi, D., & Sander, J. (2013). “Density-based clustering based on hierarchical density estimates”. In Pacific-Asia conference on knowledge discovery and data mining (pp. 160-172). Berlin, Heidelberg: Springer Berlin Heidelberg.

Process the potential of your data
et prenez les bonnes décisions pour passer à l’action.

Vous aimerez également