Archive de (Janvier 2016)

Quand le prédictif s’invite dans les stratégies marketing 2/2

Comme nous vous l’évoquions le mois dernier, Il existe trois paramètres importants à prendre en compte avant de se lancer dans l’aventure du marketing prédictif :
  • La matière première : les data
  • La problématique : la variable ou le phénomène à expliquer
  • L’exploitation du modèle créé

Mais qu’en est-il de cette phase de modélisation à proprement parler ? Alors que le mois dernier nous vous expliquions la partie fonctionnelle du marketing prédictif, nous vous proposons ici de vous expliquer la manière dont nous travaillons sur les méthodes de scoring et de modélisation. Cette méthodologie d’analyse éprouvée repose sur 6 étapes clés :
1. La compréhension des données disponibles : Au travers d’un diagnostic analytique, nous définissons les variables utiles à l’analyse. Il s’agit de répondre aux questions suivantes : est-ce que toutes vos données sont exploitables ? Certaines ne présentent-elles pas des biais ? Sont-elles suffisamment renseignées ? Quelles sources de données sont disponibles ? Nous allons jusqu’à définir une stratégie de data collect.

2. La construction de la variable cible : la première question est bien de savoir ce que l’on cherche à faire d’un point de vue CRM (lutter contre l’attrition, améliorer les ciblages,…). Au travers d’une phase d’analyse exploratoire des données et d’interviews avec le métier, nous construisons les règles de gestion permettant de définir cette variable. Notre premier objectif est d’impliquer notre interlocuteur dans la compréhension globale de la démarche analytique.

3. La construction des agrégats utiles : cette phase est majeure, elle est la plus longue dans la construction du modèle. Elle représente 60 à 70% du temps de réalisation. En lien avec la variable cible, il est nécessaire de transformer certaines données, d’en combiner d’autres. Bref trouver les agrégats les plus pertinents issus de vos données brutes pour expliquer la variable cible. Des analyses croisées entre données brutes et variable cible nous permettent de trouver les agrégats à construire.

4. La réalisation d’un échantillonnage pertinent : en modélisation statistique, il ne faut pas réaliser votre modèle sur toute la population. Deux explications à cela : des millions de lignes de données à analyser qui peuvent prendre beaucoup de temps sans améliorer les modèles et la nécessité d’avoir une population test pour valider les modèles. Plusieurs méthodologies d’échantillonnage existent, il faut être vigilant lors de la construction de l’échantillon de travail à ce que cet échantillon soit représentatif statistiquement de votre population globale.

5. La modélisation ou la réponse à la problématique : la modélisation repose sur 2 grands éléments, le choix du type de modèle à appliquer et la réalisation du modèle (le calcul des coefficients) à proprement parler. Aujourd’hui les outils de Machine Learning ont grandement contribué à avancer dans cette problématique car ils trouvent à notre place le modèle le plus performant. Attention toutefois à s’assurer de la pertinence du modèle tant à court terme qu’à moyen terme.

6. La mesure des résultats et la validation du modèle : une première étape de validation de cette pertinence va reposer dans la mesure des résultats obtenus au travers de la confrontation des résultats entre la population d’apprentissage et la population test, en particulier par l’utilisation des matrices de classement. Ceci va nous permettre d’éprouver la qualité du modèle et donc d’en valider la pertinence.
C’est par la maitrise de ces 6 étapes que l’on réussit à mettre en œuvre des modèles pertinents et robustes.

L’objectif final est bien de vous accompagner dans l’exploitation du modèle au travers d’un plan d’actions opérationnel. La mesure des résultats confirmera la création de valeur.

Prêts pour l’aventure prédictive ?