(15) résultats pour votre recherche

Comment donner un coup de boost à votre Segmentation transactionnelle pour améliorer les performances ?

Dans la catégorie des segmentations basées sur des méthodes descriptives, la segmentation de type RFM est l’un des outils les plus utilisés pour segmenter les bases de données Clients.
Cette analyse a amplement prouvé sa validité, sa robustesse et sa facilité de mise en place du fait du peu de données nécessaires. Elle répond parfaitement à la création d’une valeur client et donc de l’identification des 20/80. Ce premier step peut être suffisant dans de nombreux cas, néanmoins, elle ne prend pas en compte un élément important de la relation client, à savoir le cycle de vie de celui-ci.

En effet, ce type de segmentation est figé et est basé sur un historique. A l’instant T nous connaissons la valeur client passé et nous déduisons un comportement proche dans le futur qui oriente notre plan de ciblages. Pourtant les cycles de vie clients nous indiquent, par exemple, que certains clients à potentiel à l’instant T du fait de leur consommation, de leur profil, de leur comportement sur la période précédente seront churners dans un futur proche.
Nous devons donc répondre à la question suivante : « Suis-je en début de cycle / début de projet, suis-je au milieu, ou suis-je à la fin du cycle ? » Ce critère temporel nous permet d’apporter une personnalisation complémentaire dans le ton et le discours du message que je souhaite faire parvenir à mon client.

La solution que Know Your People vous propose, est de modéliser le cycle de consommation en créant un algorithme prédictif basé sur des données comportementales.

Pour exploiter le fruit de ce travail dans vos plans d’animation, nous vous proposons :
  • soit d’utiliser cet algorithme prédictif seul afin d’identifier les potentiels.
  • soit de mixer la segmentation descriptive (RFM) et le score prédictif de potentiel des différents segments. (notre recommandation)

L’idée d’utiliser la force couplée de l’algorithme RFM et de celui du scoring permet de déterminer la valeur du segment à l’instant T et probabiliser son potentiel futur ! La prise en compte du cycle de consommation nous permet d’augmenter les taux de conversion de près de 5%.

Ci-dessous, un visuel du croisement des 2 analyses :



Par regroupement, on obtient ainsi 9 segments pour lesquels on observe un niveau d’engagement croissant : Inactifs profonds, Inactifs réactivables, Nouveaux sans potentiel, Nouveaux à potentiel, Clients en risque, Medium, Bronze, Silver, Gold.
L’identification du niveau d’activité en fonction de la valeur actuelle nous permettra d’adapter plus finement l’offre à la cible.

Plus d’hésitation, venez challenger votre segmentation actuelle avec cette nouvelle approche KYP ! Essayer c’est l’adopter !
Comment les marketeurs peuvent-ils utiliser la Data Science pour mesurer la rentabilité de leur plan d'animation ?

Parmi les sujets sur lesquels nous sommes souvent sollicités par nos clients, la question de la mesure du ROI du plan d’animation occupe une place particulière.



En effet, lorsque l’on doit justifier de nouveaux investissements, tant humains que techniques, afin de développer l’animation clients, la question qui revient sans cesse est de savoir ce que rapporte le plan d’animation. A cette question, nous avons développé une réponse en 3 points essentiels qui permettent de créer les conditions nécessaires à la mesure de ce ROI.

1. Construire les bons étalons
Lorsque l’on évoque la mesure du ROI, on évoque mécaniquement la mesure de l’additionnel. Combien de chiffre d’affaires est-ce que j’arrive à générer en plus grâce à mon plan d’animation ?
Cette mesure de l’additionnel nécessite de construire des populations de référence qui serviront de base de comparaison dans les analyses. Nous préconisons d’en construire de 2 types :
  • Des populations témoins sur chaque opération : leur rôle est de mesurer l’additionnel qu’apporte chaque opération individuellement. Cela vous permettra d’identifier les opérations à pérenniser ou au contraire celles à abandonner
  • Une zone blanche figée à l’année : son rôle est de mesurer l’additionnel d’activité des clients animés versus cette population qui ne recevra aucune sollicitation. On est ici dans la mesure de l’additionnel du plan d’animation.

Ces 2 niveaux de mesure sont complémentaires. Ainsi la somme des additionnels individuels de chaque opération sera systématiquement inférieur à l’additionnel du plan d’animation (ce n’est pas parce que le client n’a pas réagi à cette opération qu’elle n’aura pas un impact sur le long terme dans les préférences d’achat de votre client), mais elle vous permettra aussi de mesurer le poids des impacts directs et indirects de l’animation sur le comportement des clients.

Malgré tout une question reste en suspens : à quelle opération dois-je affecter la performance lorsque plusieurs opérations ont lieu en même temps ?

2. Attribuer la performance à la bonne opération
Lorsque l’on met en place un plan d’animation assez dense, on peut rapidement se retrouver confronté à une problématique d’attribution de la performance à la bonne opération. En effet, doit-on considérer que c’est le premier contact qui a initié la démarche d’achat ? Ou au contraire que c’est le dernier contact qui est le déclencheur ?

En règle générale, les outils du marché ont des modèles d’attribution prédéfinis :
  • Au premier contact : la vente est attribuée au levier ayant initié l’achat
  • Au dernier contact : la vente est attribuée au levier ayant précédé l’achat
  • Équivalent : tous les leviers impliqués se voient attribuer la même pondération
  • Croissant : la pondération augmente à mesure que l’on approche de la date d’achat

Nous pensons que la réalité est plus complexe et doit tenir compte des spécificités de votre plan d’animation. En particulier, l’étude des courbes de remontée peuvent mettre en valeur des différences assez marquée sur la durée de suivi entre 2 opérations distinctes.

Un autre point à prendre en compte dans l’attribution de la performance est la notion de retour strict vs retour large. En effet, le fait d’identifier un code offre, un code produit ou un code remise spécifique à une opération va permettre d’identifier de manière plus sûre le déclencheur.

Fort de ces constats, nous avons développé notre propre algorithme d’attribution de la performance basée sur ces différents éléments.

3. Un process de mesure validé par les financiers

Nous travaillons avec les équipes financières pour valider la méthodologie et les KPIs à suivre pour valider la pérennité du process de calcul de rentabilité.

A cette fin, en plus de la mesure de l’additionnel, nous appréhendons la structure de coûts induits par le plan d’animation. On peut alors mesurer les gains marginaux (CA et marge) issus de l’investissement dans le plan d’animation.

Il n’est pas trop tard pour mettre en place ce type de démarche sur 2017, Contactez-nous !

Matthieu D.
Quand le prédictif s’invite dans les stratégies marketing 2/2

Comme nous vous l’évoquions le mois dernier, Il existe trois paramètres importants à prendre en compte avant de se lancer dans l’aventure du marketing prédictif :
  • La matière première : les data
  • La problématique : la variable ou le phénomène à expliquer
  • L’exploitation du modèle créé

Mais qu’en est-il de cette phase de modélisation à proprement parler ? Alors que le mois dernier nous vous expliquions la partie fonctionnelle du marketing prédictif, nous vous proposons ici de vous expliquer la manière dont nous travaillons sur les méthodes de scoring et de modélisation. Cette méthodologie d’analyse éprouvée repose sur 6 étapes clés :
1. La compréhension des données disponibles : Au travers d’un diagnostic analytique, nous définissons les variables utiles à l’analyse. Il s’agit de répondre aux questions suivantes : est-ce que toutes vos données sont exploitables ? Certaines ne présentent-elles pas des biais ? Sont-elles suffisamment renseignées ? Quelles sources de données sont disponibles ? Nous allons jusqu’à définir une stratégie de data collect.

2. La construction de la variable cible : la première question est bien de savoir ce que l’on cherche à faire d’un point de vue CRM (lutter contre l’attrition, améliorer les ciblages,…). Au travers d’une phase d’analyse exploratoire des données et d’interviews avec le métier, nous construisons les règles de gestion permettant de définir cette variable. Notre premier objectif est d’impliquer notre interlocuteur dans la compréhension globale de la démarche analytique.

3. La construction des agrégats utiles : cette phase est majeure, elle est la plus longue dans la construction du modèle. Elle représente 60 à 70% du temps de réalisation. En lien avec la variable cible, il est nécessaire de transformer certaines données, d’en combiner d’autres. Bref trouver les agrégats les plus pertinents issus de vos données brutes pour expliquer la variable cible. Des analyses croisées entre données brutes et variable cible nous permettent de trouver les agrégats à construire.

4. La réalisation d’un échantillonnage pertinent : en modélisation statistique, il ne faut pas réaliser votre modèle sur toute la population. Deux explications à cela : des millions de lignes de données à analyser qui peuvent prendre beaucoup de temps sans améliorer les modèles et la nécessité d’avoir une population test pour valider les modèles. Plusieurs méthodologies d’échantillonnage existent, il faut être vigilant lors de la construction de l’échantillon de travail à ce que cet échantillon soit représentatif statistiquement de votre population globale.

5. La modélisation ou la réponse à la problématique : la modélisation repose sur 2 grands éléments, le choix du type de modèle à appliquer et la réalisation du modèle (le calcul des coefficients) à proprement parler. Aujourd’hui les outils de Machine Learning ont grandement contribué à avancer dans cette problématique car ils trouvent à notre place le modèle le plus performant. Attention toutefois à s’assurer de la pertinence du modèle tant à court terme qu’à moyen terme.

6. La mesure des résultats et la validation du modèle : une première étape de validation de cette pertinence va reposer dans la mesure des résultats obtenus au travers de la confrontation des résultats entre la population d’apprentissage et la population test, en particulier par l’utilisation des matrices de classement. Ceci va nous permettre d’éprouver la qualité du modèle et donc d’en valider la pertinence.
C’est par la maitrise de ces 6 étapes que l’on réussit à mettre en œuvre des modèles pertinents et robustes.

L’objectif final est bien de vous accompagner dans l’exploitation du modèle au travers d’un plan d’actions opérationnel. La mesure des résultats confirmera la création de valeur.

Prêts pour l’aventure prédictive ?
AVIS D'EXPERTS : LE BIG DATA, PAR QUEL BOUT LE PRENDRE ?

Bon nombre d’experts se positionnent sur le sujet avec des convictions fortes et parfois opposées. Comment faire la part des choses entre ceux qui nous disent que cela va tout changer et les autres qui nous soutiennent que cela reste de l’analyse de données ? Quels sont les réels changements ? Sur quoi devons-nous être vigilants ? Comment ne pas tomber dans un projet sans fin sous le seul prétexte d’être présent sur le sujet ? Avec quelle organisation et quels profils ?

Notre vision reste le pragmatisme et l’itération du projet !

Tout d’abord, essayons d’en donner une définition : « Le principe des Big Data est de faire converger des données diverses et variées et de les exploiter à des fins de connaissance, de performance et d’usages. »

A chacun son niveau de maturité dans l’exploitation de la data et sur l’apport d’une telle démarche dans la stratégie de l’entreprise. Nous partageons l’avis de certains experts qui vont parler de SmartData. Car même si nous croyons à la puissance de la data dans sa plus pure exploitation, il existe encore un écart entre la réalité des projets mis en œuvre et les contraintes opérationnelles imposées aux équipes (budget, quickwins et ROI). Nous ne pouvons malheureusement pas tous allouer un budget R&D conséquent pour faire face à cette nouvel ère digitale ultra ciblée et connectée.

Mais, la question est bien de savoir comment nous continuons à avancer sur le sujet afin de ne pas être en retard dans les rendez-vous futurs que nous aurons avec les consommateurs.

L’offre KYP sur le sujet du Big Data est de vous faire gravir la montagne par étape et avec ambition. Grâce à notre passé ROiste, nous mesurerons l’apport de chacune de ces étapes au sein de votre marque/enseigne.

Pour cela, nous restons attentifs aux indicateurs des « V » du Big Data, car cela peut avoir un réel impact dans l’organisation, la réalisation et l’interprétation. Nous connaissons tous les « V » de : VOLUME, VARIETE, VELOCITE et VERACITE. A partir du moment où nous détectons l’activation d’un de ces « V », nous faisons appel à des experts internes et externes pour mesurer les enjeux du projet et mener à bien l’étape sur laquelle nous nous engageons.
N’oublions pas le « V », de VALIDITE qui à notre sens répond à la significativité et la robustesse des algorithmes (ce qui reste un éléments fondamental de la data intelligence). Et pour terminer le « V » de VALEUR, car après tout, c’est bien cette question qui est le nerf de la guerre (Valeur sur le business & Valeur sur l’intelligence créée).

Ce qui est certain, c’est que nous devons tous avancer dans cette course de la DATA INTELLIGENCE et qu’il faut commencer par un point de départ. Celui-ci est-il évident pour vous ? Nous serions ravis de pouvoir échanger avec vous sur le sujet.
BESOIN D'UN ENRICHISSEMENT DE VOTRE BASE DE DONNÉES CLIENTS ?

Souvent nos clients s'interrogent sur la qualité et la pertinence des données socio-démographiques collectées sur leurs clients. Et bien souvent leur constat est que leur base de données n'est pas assez riche en données socio-démographiques et comportementales.



Quand Open Data et expertise analytique répondent à cette problématique
Face à cette interrogation nous avons développé KYP-GÉOTYPO. Basée sur des données issues de l'Open Data (INSEE, DGFIP,...), elle permet une décomposition unique du territoire français en 23 segments homogènes regroupés en 6 familles.Elle offre ainsi une lecture fine des quartiers français selon 5 dimensions : démographie, logement, niveau de vie, équipements et services, économie et commerces.

Une mise en oeuvre simplifiée
Afin d'enrichir votre base de données, nous n'avons besoin que du pavé adresse de vos clients. Après traitement, nous serons en capacité de connaitre leur IRIS (les IRIS sont des gros quartiers, leur population se situe en général entre 1 800 et 5 000 habitants, ils sont homogènes quant au type d'habitat et leurs limites s'appuient sur les grandes coupures du tissu urbain, ainsi ils doivent respecter des critères géographiques et démographiques et avoir des contours identifiables sans ambiguïté et stables dans le temps). Et de là nous pourrons identifier pour chaque client le segment KYP-GÉOTYPO associé.

Pour un gain de valeur et de performance
Ces dernières semaines, une mutuelle nous a fait confiance pour caractériser sa cible en vue d'établir un plan média plus qualifié et donc plus performant : l'objectif in fine étant d'augmenter son taux de conversion (jusqu'à 10 points d'augmentation).
Si vous aussi vous souhaitez mieux appréhender le profil de vos clients, n'hésitez pas à nous contacter !