(12) résultats pour votre recherche

Nous revenons de nouveau sur un sujet essentiel qu’est la mesure de la performance d’un plan d’animation. Ce sujet qui pourrait être banal, vue les outils existants du marché, et aussi une certaine disponibilité des données, n’est en fait pas toujours traité ou encore approximatif. Si bon nombre des sociétés utilisent et maitrisent plutôt un outil de gestion des campagnes marketing, encore bcp d’entre elles mesurent la performance à la campagne et non de manière globale, et potentiellement encore à l’individu.

Pourquoi une telle situation ? La première raison est clairement le manque de temps. La seconde pourrait être aussi une question de compétence où les utilisateurs des solutions analysent leurs campagnes via les reportings par défaut. Pour terminer, il existe certains outils qui promettent une analyse du ROI, mais plutôt en mode boîte noire où l’utilisateur ne sait pas par défaut ce qui a créé cette valeur et se voit retoqué en comité de direction.

Nous l’avons toujours dit, nous croyons à la performance et la rentabilité des plans d’animation marketing. Néanmoins, il est évident que de nos jours, nous ne pouvons plus envoyer n’importe quel contenu à n’importe quelle cible, n’importe quand. Il faut donc passer d’un plan de masse à un plan différencié et surtout de mettre en place une mécanique de mesure qui permettra de valider la création de valeur. Nous ne pouvons plus nous fier uniquement à un taux d’ouverture, de clics et de conversion, en y imputant un chiffre d’affaires global à la campagne.

Notre vision est comme habitude itérative. Vous ne pouvez pas connaître le ROI de votre plan d’animation avec précision sans avoir réaliser un certain nombre d’analyses préalables basiques en suivant une méthodologie séquencée.
Selon notre expérience, voici les principales étapes à suivre :
1. identifier toutes les opérations sur la période sélectionnée (commencer par un mois et aller jusqu’à l’année).
2. valider que vous avez toutes les données nécessaires à l’analyse (les volumes, l’échantillon témoin, les achats relatifs, la notion de retours strictes ou retours larges…).
3. thématiser vos opérations en fonction des contenus afin de mieux comprendre celles qui créent de la valeur.
4. créer des règles de réattribution du CA si plusieurs opérations se chevauchent en prenant en compte le contexte de la période (étape peut-être la plus délicate).
5. Réaliser le reporting de pilotage par opération et au global en validant que la somme des CA des opérations est bien égale au total de CA.
6. interpréter les résultats en fonction des thématiques, des opérations et de la valeur créée.

A noter que ce travail permettra aussi de mesurer une valeur de CA généré à l’individu. Nous allons même jusqu’à mesurer une valeur financière qui tient compte aussi des coûts liés aux opérations. Cela entraîne des valeurs positives, mais aussi négatives. Ce travail permet de démontrer qu’il n’est plus nécessaire d’envoyer des messages à toute la base et donc de passer à des offres différenciées en tenant compte de la capacité des individus à recevoir le bon nombre de communications sur le bon contenu.

Pour terminer sur ce sujet, nous constatons qu’avec un certain nombre de nouveaux KPI’s, adaptés à la marque ou à l’enseigne (identification de nouveaux axes d’analyse), nous pouvons aller à un niveau d’explication et d’interprétation complémentaire. Cela demande dans la méthode la prise en compte de données complémentaire (internes ou externes).

En résumé, attention aux modèles tout fait qui ne vous correspondent pas. Privilégiez une méthodologie analytique avec des axes d’analyses discriminants qui vous permettront de mieux comprendre, mieux analyser et mieux interpréter ce qui génèrent de la valeur* dans vos plans d’animation.

Nous serions ravis d’échanger avec vous sur ce sujet de vous montrer des use cases.
Le développement de l’Intelligence Artificielle ouvre de nouvelles perspectives aux acteurs du marketing. Et ceux-ci ne s’y trompent pas car près de 70% des marques envisagent d’utiliser l’IA pour personnaliser les offres et l’expérience clients. Toutefois la question se pose légitimement de savoir jusqu’où nous devons faire confiance aux modèles pour prendre des décisions à notre place. Nous allons essayer de vous donner quelques clés sur le sujet.

Apprentissage supervisé et non supervisé

Un premier point important à prendre en compte lorsque l’on traite de sujets d’Intelligence Artificielle est de savoir si le modèle que l’on va mettre en place va reposer sur un apprentissage supervisé ou non. En effet, le « mythe de l’IA », comme on pourrait l’appeler, repose sur le principe que la machine va analyser de manière totalement autonome les données qu’on lui met à disposition pour trouver des solutions à un problème que potentiellement on ne lui aurait pas poser ! De manière plus pragmatique, les modèles d’apprentissage non supervisé permettent essentiellement aujourd’hui de définir des groupes d’individus homogènes ayant des caractéristiques communes. Ce système va alors souvent permettre de créer des systèmes de recommandation pertinents (Netflix fait ça très bien par exemple pour vous recommander les films et séries les plus susceptibles de vous intéresser en se basant sur les films et séries vus par des individus qui vous ressemblent).
Dans la majorité des cas, ce sont donc plutôt les modèles supervisés qui vont être utilisés. Dans ce cadre, un Data Scientist va devoir guider la machine. En particulier, il va devoir définir les résultats attendus sur un volume important de données d’apprentissage afin que l’algorithme apprenne et puisse reproduire les mécaniques de décision qu’il aura apprises sur un nouveau jeu de données. Dans ce cas, l’humain joue donc un rôle important dans l’apprentissage du modèle et dans son exploitation future.

L’IA doit servir la stratégie et non pas la remplacer

En conséquence, on comprend bien que l’IA est bien souvent guidée par nos choix d’apprentissage et les données qu’on va lui mettre à disposition. On peut même aller plus loin en considérant que la stratégie marketing doit guider les actions des Data Scientists afin de concevoir les modèles les plus utiles aux experts marketing dans l’atteinte de leurs objectifs.
Plus généralement, il est même intéressant d’envisager l’apport de la Data Science (au sens large) à la stratégie marketing. En effet, bien souvent, on va pouvoir nettement augmenter la performance des dispositifs en mettant en place un process analytique pertinent reposant sur différents allers-retours entre stratégie et analyse. Aujourd’hui, la data doit accompagner la stratégie, et la stratégie doit guider la recherche de la performance. A titre d’exemple, on peut imaginer le process suivant :
1. Construction d’une segmentation adaptée
2. Identification des priorités stratégiques grâce à la matrice de passage
3. Définition des priorités opérationnelles par segment
4. Construction des modèles prédictifs adaptés à chaque cible (segment) et chaque problématique (attrition, recommandation, cross-sell…)
5. Test & Learn et mesure de la performance
6. Adaptation des modèles et des dispositifs
Bref, un équilibre fin à trouver entre les inputs de la stratégie à la Data Science et de la Data Science à la stratégie ! Et où les modèles IA supervisés ou non permettront de gagner en performance tout en ouvrant la voie à de nouveaux champs de recherche.

Ce sont des sujets qui vous intéressent ? Nous sommes là pour en parler avec vous. Notre pragmatisme et notre discours vulgarisé seront les clés de la réussite de votre prochain projet d’IA.
Chaque jour ou presque le sujet de l’avenir de notre planète est au centre des débats. En particulier, la notion d’empreinte carbone est un indicateur récurrent dans la mesure de l’impact écologique de nos activités humaines.

Lorsque vous envoyez des emails commerciaux à vos clients, les serveurs mails de votre entreprise stockent l’email avant de l’envoyer. Comme tout serveur, ils consomment de l’électricité et plus ils sont chargés, plus ils chauffent et plus ils nécessitent d’électricité pour refroidir.
On estime actuellement qu’un email simple a une empreinte carbone de 4g de CO2. Une entreprise envoyant régulièrement des newsletters à ses clients va donc vite voir son empreinte carbone augmenter. A titre d’exemple, si vous envoyez 1 million d’emails, 2 fois par semaine, l’empreinte carbone de votre animation clients sera de 416 tonnes sur une année. Soit plus de 200 allers-retours Paris-New York pour un passager !

Vous l’aurez compris, l’animation clients a donc un impact fort sur l’empreinte carbone de votre entreprise. Pour la réduire, il est donc fondamental d’optimiser ces ciblages marketing.

Comment peut-on réduire son empreinte carbone grâce à la Data Science ?
Pour ce faire, nous vous recommandons 2 outils analytiques simples :
- La segmentation clients :
Il existe de nombreux types de segmentations (segmentation transactionnelle, segmentation relationnelle, segmentation 360°…), mais toutes ont le même point commun : elles permettent de créer des groupes de clients homogènes sur lesquels nous allons pouvoir mettre en place un plan d’animation différencié.
Bien souvent, lors de la mise en place d’une segmentation, nous recommandons de faire le bilan du plan d’animation de l’année précédente pour bien comprendre les spécificités de chaque segment. En particulier, cette analyse va permettre de déterminer la pression commerciale optimale à appliquer à chaque segment.
Ce premier outil, si vous ne l’avez pas encore mis en place, va donc vous permettre en passant d’une logique d’envois de masse à une logique d’envois segmentés de baisser le nombre moyen d’emails envoyés. De la même façon, si vous avez déjà une segmentation existante, gardez en tête que celle-ci a une durée de vie et qu’elle peut être challengée ou modifiée via d’autres axes discriminants.

- Le scoring :
En termes de scoring, nous travaillons de plus en plus sur 2 niveaux de ciblage : le score de repoussoir et le score d’appétence.
Le premier, le score de repoussoir, va permettre d’isoler les clients qui ont une forte probabilité de ne pas ouvrir vos prochaines newsletters. Pourquoi les cibler, si on pressent dès aujourd’hui que l’email n’aura pas d’impact ? Ce premier type de score va donc réduire considérablement les volumétries d’envois. A ce jour, les scores de repoussoir que l’on a construit pour nos clients ont permis de réduire la volumétrie d’envois de l’ordre de 20 à 30% des volumes initiaux.
En parallèle, sur les potentiels ouvreurs, tous les messages n’ont pas le même niveau d’intérêt. Il est donc préférable, à ce niveau, de construire les scores d’appétence adéquats permettant de cibler les clients réellement intéressés par le message envoyé. Cela va vous permettre de combiner une diminution des volumes d’envois avec une hausse des performances commerciales (souvent de l’ordre de 15 à 25%). En conclusion : faire plus avec moins… d’empreinte carbone !

Bien évidemment, nous sommes conscients que ces sujets analytiques, et la Data Science en général, peuvent être perçus comme investissement important. Chez KYP, nous avons pris l’habitude de nous engager sur ces sujets d’accompagner nos clients dans la mesure du ROI et de la création de valeur.

Comme vous avez pu le lire, il peut être assez simple de réduire votre empreinte carbone tout en développant le potentiel commercial de votre base de données. Nous nous tenons à votre disposition pour tout échange sur ce sujet d’actualité et sur la mise en place d’actions analytiques concrètes ! Contribuez à réduire votre empreinte carbone tout en étant en phase avec vos valeurs et/ou celle de votre entreprise.
L’identification d’un client à une adresse est depuis de nombreuses années une clé d’unicité et de contact. Au fil des années, nous avons même cherché à aller plus loin dans l’identification d’un individu en prenant en compte les statuts de prospects et de suspects.

A chacun son combat avec son niveau de maturité, ses priorités et ses moyens !

Il est évident que les problématiques ne sont pas les mêmes entre un Retailer qui gère un programme relationnel omnicanal depuis plus de 20 ans et un annonceur qui vient de démarrer un CRM. Néanmoins, il existe à chaque niveau des actions qui vont contribuer à améliorer la connaissance client, et surtout la relation client (le pouvoir de communiquer juste avec son client : l’impact relationnel, voire émotionnel). Dans chacun des cas, il est nécessaire de créer un « Socle Analytique » qui sera la base de tout projet d’analyse, de mesure et de performance.

Le Socle Analytique comprend un ensemble d’analyses plus ou moins simples permettant de mesurer le capital client d’une BDD en focusant sur les volumétries, la qualité, la diversité, la disponibilité et la volatilité des données. Ça ne vous rappelle rien ? Ah oui, ça y est, ça ressemble aux fameux 4 « V » du Big Data ! En effet, nous sommes bien sur ces théories, mais à un niveau moindre ! Car, on peut faire beaucoup de choses sans entrer dans un projet d’envergure multi-source complexe. Connaître les basiques de sa BDD n’a jamais demandé un effort colossal auprès des Directions SI, Marketing, Etudes… Comme à notre habitude, nous préconisons de valider un premier périmètre qui est facile à maîtriser, et de l’agrandir de manière itérative. Mais au final, qu’est-ce que les basiques ? Les basiques doivent répondre à des questions simples telles que : Combien ai-je de clients en BDD ? Combien sont actifs ? Sont-ils contactables ? Quel est le poids de mes meilleurs clients ? etc. L’idée est aussi de voir comment cela évolue dans le temps.

Une fois cet exercice fait, ce constat, il est opportun de travailler ou de continuer les efforts sur la qualité de la donnée d’identification. On retrouve ainsi l’adresse postale, l’email et le téléphone (fixe et mobile). Il faut ainsi compter sur des spécialistes du marché, expert en DQM (Data Quality Management). Leur expertise permet de restructurer la donnée et ensuite d’identifier des doublons, de capter les déménagés, de trouver les nouvelles adresses… Ce travail est primordial pour maximiser l’unicité des clients dans une BDD. Ce travail permet aussi d’identifier la notion de foyer. Nous n’arriverons pas à un résultat 100% fiable (cela se mesure grâce au taux de matching), mais toute action créera de la valeur. A noter tout même que ce travail de DQM, quand il n’existe pas à l’origine, peut-être réalisé avant le socle analytique. Le but est d’avoir une information sur sa BDD le plus fiable possible.

Mais au final, quel est l’intérêt d’avoir la notion de foyer ? Et bien tout d’abord, c’est le fait d’avoir le choix de parler un individu ou à un ensemble d’individus, de créer de la cohérence dans les messages (éviter d’envoyer 2 fois le même mail, et qui plus est avec une offre différente), et de personnaliser l’offre pour une ou plusieurs personnes, donc au final, de mieux identifier les besoins du foyer. N’est-ce pas là l’objectif principal de toute enseigne ou marque ? Nous disons oui ! Car par la meilleure compréhension de habitudes de consommation mais aussi grâce à la meilleure compréhension de l’habitat, de l’environnement dans lequel vivent les individus, on arrivera à améliorer la relation clients/marque. Cela génère une multitude d’actions prescriptrices plutôt que réactives grâce à l’analytique ou si on utilise un mot plus précis, la Data Science. Bien évidemment, en rappel, tout cela doit-être fait avec le consentement des clients, sans intrusion, et dans le respect de la vie privée. Ce qui complexifie parfois le plan d’animation, car il doit s’adapter à la multiplication des groupes / sous-groupes avec des contenus différents. Pour finir, comme le ROI reste notre fer de lance, il est fondamental de préparer avec attention vos cibles et votre mécanique de mesure afin de pouvoir démontrer la performance, et donc par conséquent la création de valeur.

Quoiqu’il arrive, l’enjeu des enseignes pour toujours mieux communiquer, en qualité avec ces clients tourne autour de 3 briques : l’Identification, la Qualification et la Personnalisation.
L'étude de marché pour booster votre ROI
Découvrez les ingrédients de l'étude de marché selon Know Your People : Collaboration, Statistiques et Customer Voice

Dans un monde où le digital a pris une place de plus en plus grande, où les clients, sujets à de plus en plus de sollicitations deviennent de plus en plus volatiles, nombreux sont les acteurs qui souhaitent reposer les bases de leur activité au travers d’une étude de marché. Aujourd’hui, cet outil, qui était souvent destiné aux nouveaux projets, voit son utilisation évoluer au gré des incertitudes planant sur un marché.
Alors comment mettre en place une étude de marché efficace ?



Les questions auxquelles doit répondre l’étude de marché

L’étude de marché doit vous permettre de savoir avec précision quelle est la situation sur le marché et votre positionnement vis-à-vis de la concurrence. Pour se faire, l’étude doit vous permettre de répondre aux questions suivantes :
  • Quelle est la taille actuelle du marché (en nombre d’acteurs, de clients, de ventes, de CA) ?
  • Quels sont les canaux de communication et de distributions prépondérants ?
  • Quels sont les produits vendus en priorité sur le marché ?
  • Quelles sont les perspectives de croissance du marché ?
  • Comment se situent les différents acteurs sur le marché ? Et comment se situe votre entreprise par rapport à ses concurrents ?
  • Combien existe-t-il de segments de clients sur le marché ? Quel est leur poids ? Quelles sont leurs spécificités ?
  • Quels sont les comportements d’achats des clients (fréquence, lieux, montants, types de produits…) ? Quels sont les usages que font les clients des produits achetés ?
  • Quel est le processus de décision d’achat pour le client ? Comment se renseigne-t-il sur les produits ?
  • Quel est le niveau de satisfaction du client vis-à-vis de la marque ?

Bref, un nombre important de questions qui nécessitent une démarche structurée d’analyse adaptée à vos problématiques. Chez Know Your People, nous avons mis au point une méthodologie qui repose sur 2 grands fondements :

  • Une étude au plus proche des spécificités de votre marché
  • Une démarche scientifique et statistique permettant d’identifier de manière fiable les éléments clés sur lesquels agir

Car que ce soit pour une étude de marché ou pour tout autre sujet analytique, une étude ne vaut que si elle permet de mettre en œuvre des plans d’actions efficaces permettant de booster votre ROI.
Notre démarche analytique dans le cadre des études de marché repose ainsi sur 3 étapes.

Une démarche en 3 étapes :

1. La recherche documentaire :
La recherche documentaire a pour principal intérêt de permettre d’identifier d’un point de vue macro les chiffres clés du marché. Cela va permettre de comprendre comment il a évolué, quel est son état actuel et ainsi de projeter ses évolutions potentielles.
A titre d’exemple, on va bien souvent pouvoir identifier :
  • les évolutions de ventes
  • du nombre d’acteurs sur le marché
  • les canaux de distribution
  • ...

On obtiendra donc rapidement un état des lieux précis de la situation. Néanmoins, la principale limite de cette approche est qu’elle ne prend pas en compte la voix du client. Il est donc intéressant d’y associer un questionnaire permettant d’aller plus loin dans la perception du marché par les principaux intéressés : les clients et prospects.

2. Le questionnaire clients et non-clients :
Car si on veut pouvoir réaliser un questionnaire exhaustif et pertinent, il est nécessaire d’interroger des clients du secteur concerné tout comme des prospects intéressés ou non par les produits concernés. L’intérêt de cette approche est qu’elle va permettre d’identifier les principaux freins au développement du marché et en parallèle de valider les principales forces motivantes.



Ensuite, le questionnaire va permettre de comprendre les habitudes de consommation, les usages des clients, tout comme les attentes des prospects et clients. Il va aussi permettre de positionner de manière précise les différents acteurs sur ce marché. Est-ce qu’ils sont leaders, suiveurs, en déclin ? Et finalement en dehors de leurs parts de marché respectives, comment leurs clients les perçoivent-ils ?
Ce questionnaire va aussi permettre de comprendre les nouvelles tendances de consommation et d’adapter l’offre aux différentes cibles. Sur ce dernier point, notre approche se veut collaborative et scientifique. Collaborative, car les items que nous allons tester seront validés conjointement avec vos équipes. Et scientifique, car en nous basant sur la statistique, nous allons pouvoir définir de manière précise les éléments les plus importants pour les clients.

3. Une analyse statistiques poussée :
Que ce soit pour étudier le positionnement des différents acteurs sur le marché, pour identifier les différents segments de clients et prospects ou pour comprendre quels sont les choix produits, nous mettons en œuvre une démarche statistique permettant de définir avec précision les résultats importants.



En particulier, nous accordons une grande importance à l’aspérité produits. Sur cet aspect, nous utilisons (1) les plans d’expérience et (2) l’analyse conjointe afin de définir quelles sont les caractéristiques produits qui ont le plus d’impact dans la décision d’achat. Cette analyse, croisée avec les différents segments de clients sur le marché, permet d’identifier l’offre idéale à proposer aux différents segments. Cette approche va donc vous permettre d’identifier ou de confirmer quels sont vos produits les plus adaptés aux différents segments.
La finalité de cette étude de marché va être de vous donner des éléments factuels sur lesquels définir des plans d’actions opérationnels dans différents domaines tels que l’offre, la communication et le marketing ou la commercialisation. Elle va donc vous permettre d’identifier des leviers de différenciation par rapport à vos principaux concurrents vous permettant de gagner des parts de marché tout en augmentant la satisfaction de vos clients.
Convaincus de l’intérêt de la démarche ? Contactez-nous !

(1) Plan d'expérience
Les plans d'expériences vous permettent d'analyser simultanément les effets de variables d'entrée (facteurs) sur une variable de sortie (réponse). Ces plans d'expériences consistent en une série d'essais (ou tests) au cours desquels les variables d'entrée sont intentionnellement modifiées. Des données sont collectées à chaque essai. Les plans d'expériences permettent d'identifier les conditions des procédés et les composants des produits qui influent sur la qualité, et de déterminer ainsi les paramètres de facteurs offrant des résultats optimaux.

(2) Analyse conjointe
L’analyse conjointe est une technique d’analyse marketing qui permet notamment d’expliquer les préférences des consommateurs en fonction des différentes caractéristiques ou attributs d’un produit.
Elle permet de comprendre comment les variations des caractéristiques impactent les préférences et donc le choix du consommateur.
L’analyse conjointe peut par exemple permettre d’essayer de comprendre comment les coloris, la forme et le prix d’un modèle de voiture peuvent se combiner pour influencer les préférences des consommateurs.
La Segmentation Relationnelle est-elle aussi puissante que la Segmentation Transactionnelle ?

Tout d’abord, définissons ces deux termes afin de parler de la même chose. Cela peut paraître évident, mais très souvent, nous nous rendons compte chez nos clients que bien définir le cadre et ses composants permet de gagner du temps et d’éviter les quiproquos !
La Segmentation Transactionnelle permet de créer des groupes de clients homogènes les uns par rapport aux autres sur l’axe d’analyse principal qu’est l’acte d’achat. La donnée est généralement disponible et donc cette analyse est plutôt simple à mettre en place. A cela, nous pouvons ajouter d’autres critères d’analyses, comme le type de produit ou encore le canal, permettant par croisement d’affiner les segments.
La Segmentation Relationnelle permet elle aussi de créer des groupes de clients homogènes, mais sur un ou plusieurs axes d’analyses liés aux interconnexions avec le client, que celles-ci soient provoquées ou spontanées. Cela dépend donc l’écosystème data disponible et de la connexion 360° que l’on peut capter du client. Nous pouvons ainsi étudier la réaction à un email, une connexion au site, un post, un échange sur un Chat, un contact au service Relation Client, …

Dans le 1er cas, nous estimons la Valeur Client, dans le second cas nous mesurons l’Engagement Client.



La Segmentation Transactionnelle, analyse référente pour approcher une valeur client
Depuis quelques décennies maintenant la Segmentation Transactionnelle est une analyse référente, voire obligatoire, pour approcher une valeur client. Nous trouvons ainsi un ensemble d’analyse éprouvée, telle que la PMG (Petit, Moyen, Gros), la RFM (Récence, Fréquence, Montant), la FRAT (Frequency, Recency, Amount, Type), et encore plein d’autres modèles créant des groupes homogènes avec pour variable d’entrée le Chiffre d’Affaire.

Les utilisations de cet outil analytique sont nombreuses :

  • Le pilotage de l’activité à partir de segments ordonnés. Qui sont mes 20/80 ? Qui sort et qui entre ? Et à quelle valeur ?
  • Prioriser et personnaliser les opérations marketing de son Plan d’Animation à partir des segments (Bas de fichier, Occasionnel, Haut de fichier).
  • Projeter le business généré et/ou les résultats du Plan d’Animation par segment en fonction des volumes.

La Segmentation Relationelle, nouvelle analyse liée à la disponibilité des données du Client 360°



La Segmentation Relationnelle intéresse aujourd’hui bon nombre d’annonceurs pour plusieurs raisons.
  • L’axe transactionnel est devenu « un basique » dans les opérations marketing et qu’il ne fait plus forcément la différence et ne crée plus autant d’additionnel, d’où l’intégration de ce nouvel axe. De plus, chez les annonceurs qui ont un cycle de consommation long (ex. automobile), l’utilisation de ce type de données prend tout son sens.
  • Les données de la relation client comme les données d’actions/réactions sont devenus disponibles dans les BDD Clients. Le Client 360° devient une réalité et les données associées deviennent plus facilement exploitables.
  • La 3ème raison est liée au secteur d’activité. En effet, les industriels, les institutions ou encore les sociétés de service qui n’ont pas ou peu de points de vente se sont constitués des BDD de contacts sur lesquelles ils suivent les interactions de leurs abonnés. Au fur et à mesure du temps, ils se sont constitué un historique de données permettant d’identifier les habitudes et les comportements des contacts, et ont donc créé des segments pour mieux les exploiter.

La Segmentation Relationnelle est aussi utilisée :
  • Dans le pilotage de plan relationnel (Retour client, croissance de l’intérêt vis-à-vis de la marque, Satisfaction et la Recommandation, ou encore l’augmentation de la part de voix).
  • Dans la personnalisation et la priorisation des opérations marketing grâce à du contenu adapté (lecture des Newsletter ou navigation trackée par exemple).
  • Dans la définition des temps de contact et l’amélioration de la pression commerciale.
  • Dans l’identification des « super engagés », c’est-à-dire ceux qui ouvrent tous les emails, qui se connectent très souvent, voire qui vous défendent sur des blogs et forums. Parmi ceux-ci se trouvent les Ambassadeurs de la marque.

La Segmentation Relationnelle, super outil de pilotage

Pour terminer, en termes de performance et de résultats, la Segmentation Relationnelle donne de très bons résultats. Plusieurs points pour expliquer ce fait.
  • Quand il n’existe pas de données transactionnelles, cette segmentation est un super outil de pilotage et donne les mêmes résultats de performance que la segmentation transactionnelle.



  • Quand on a la possibilité d’avoir les 2 types de segmentations, on remarque un très fort taux de commun dans les hauts segments. Et en croisant les 2 segmentations, on arrive à aller chercher quelques points complémentaires de performance grâce à une meilleure personnalisation, de +5 à 10 points par campagne.



De plus, on trouve même des individus très engagés qui ne sont pas identifiés dans la BDD Transactionnelle, ce qui augmente la communication avec son cœur de cible. On mesure ainsi la température du pouvoir relationnel, donc de l’engagement de ses propres clients.

En conclusion, cette Segmentation Relationnelle apporte une autre dimension dans la connaissance client et permet de mieux personnaliser encore et toujours la relation client.

Notre vision d’expert : Ajouter un axe relationnel au transactionnel vous permettra de donner une nouvelle impulsion à votre Plan d’animation.
Notre recommandation DATA 2018

Etes-vous prêts pour 2018 ?

Avez-vous tous les outils pour relever les objectifs de l’année 2018 ?

Avis d'expert : Samuel Stratmains, co-fondateur de Know Your People

>> Un accompagnement expert ou multi expert peut vous faire gagner du temps et vous faire franchir une marche cruciale.
Vous n’êtes pas sans savoir que la Data va encore jouer un rôle primordial dans la réussite de l’année 2018. Il faudra bien entendu avancer avec la nouvelle législation qui entrera en vigueur dès le mois de mai. Mais au-delà de l’environnement extérieur, la question est plutôt de savoir si vous êtes équipés des bons outils pour relever les défis.

Nous constatons chez nos clients et sur le marché en général, que les BDD CRM et Digitales sont matures. Il y a eu une vraie prise de conscience sur l’organisation et la gestion de la donnée depuis ces 10 dernières années. Tout le monde n’est pas encore au summum de la qualité et de l’exploitation des BDD, mais chacun à son niveau sait les chantiers à réaliser pour progresser ! Tout cela va bien évidemment dans le sens d’une meilleure relation et une expérience client réussies !

Les clés de la réussite sur le sujet de la Data résident dans la préparation des chantiers prioritaires. Il est nécessaire d’anticiper et de mesurer les besoins humains et technologiques afin d’obtenir tout ou partie des budgets associés pour atteindre l’ambition. Sans entrer dans une vision à 3 ans sur ce que sera la data dans votre entreprise, il est important d’écrire des feuilles de routes (road map) sur la gestion de la Data et sur l’exploitation de celle-ci, sans oublier l’usage que vous allez en faire ; le fameux pour quoi faire ? Notre agence experte et hybride « Technique – Analytique – Marketing » a cette capacité à vous accompagner sur l’ensemble de la chaine métier CRM & digitale. De nos jours, il faut savoir donner du sens au projet et mesurer les résultats de ce que nous entreprenons.

Nous vous proposons 3 types de road maps :

#1 La road map en Data Management
Nous pouvons vous accompagner avec un de nos partenaires* en fonction des sujets identifiés (Collecte, Architecture, Flux, Qualité, Organisation, Gestion des règles, Enrichissement, …). La finalité est de construire un rapport compréhensible par la technique et accessible du métier.

#2 La road map en Data Analyse ou Data Science
C’est notre cœur de métier. Cette road map se décompose en plusieurs projets qui pourraient être, en fonction de votre demande :
  • Expression ou construction des besoins métiers. Exploiter la Data, oui, mais pourquoi faire, pour quel usage ? Et pour atteindre quels objectifs ?

  • Diagnostic des datas existantes et identification des chantiers d’amélioration ou de traitements de la data. C’est une étape facultative si vous avez une bonne connaissance de votre capital client.

  • Diagnostic des datas existantes et identification des chantiers d’amélioration ou de traitements de la data. C’est une étape facultative si vous avez une bonne connaissance de votre capital client.

  • Identification des principaux outils analytiques à mettre à place sur les axes transactionnel, relationnel, social, communautaire, digital, produit, … Il s’agira dans cette phase de déterminer les nouveaux groupes et/ou scores stratégiques permettant de faciliter la personnalisation.

  • Accompagnement des équipes à la réalisation des projets analytiques. Nous intervenons de plusieurs manières. Soit, vous êtes autonomes sur la production à partir de la feuille de route créée. Soit, nous accompagnons les équipes opérationnelles à la réalisation des productions en maintenant un suivi régulier (point bimestriel ou mensuel à définir). Soit, nous réalisons en prestation de service les productions et nous vous livrons les résultats.

  • Intégration dans la méthodologie de la mesure des outils créés. Sont-ils efficients ? Ont-ils créé de la valeur ? A court, moyen ou long terme ? Le tout étant de construire dès le départ la mécanique de mesure permettant d’apporter de la visibilité et d’approcher un ROI.

#3 La road map orientée marketing
Il s’agira de construire un plan d’activation mesurable prenant en compte les nouveaux segments analytiques. Une nouvelle fois, nous pouvons vous accompagner avec un de nos partenaires* spécialisés en marketing client & digital et marketing stratégique afin d’intégrer ces nouveaux outils avec cohérence vis-à-vis de l’existant. Dans cette partie, il existe 2 niveaux. Un premier niveau qui consiste à réaliser un ensemble de tests & learn. Un second qui intègre ces nouveaux outils dans le plan d’animation existant, phase d’extrapolation. Dans les 2 cas, nous mettons en place une méthodologie de mesure des résultats afin de se forger des convictions et prouver la performance.

Notre accompagnement se fait sur la durée afin de vous garantir un accompagnement adéquat. Nous faisons régulièrement des points d’arrêt afin de valider que nous sommes toujours en phase avec la ou les road map. C’est un moment privilégié où nous actons les modifications de la road map. Concernant les budgets, l’engagement se fait step by step et en fonction de vos besoins. Il faudra compter en moyenne 10K€ par road map. En termes de résultats, nous avons constaté des rendements en croissance de 10% à 15% minimum.

Besoin de faire le point ?

Pour établir une simulation de vos besoins sur votre environnement, appelez-nous !

Samuel

*Pour connaitre nos partenaires, contactez-nous. Nous activons les meilleurs experts en fonction de votre problématique.
L’Acquisition On-line, oui mais…

Dans un contexte de préparation des budgets pour l’année 2017, une ligne qui reste importante et stratégique dans la feuille de route marketing, est les coûts d’acquisition. Bon nombre d’annonceurs ou de marques se posent la question du niveau de budget à imputer à ce poste (Equivalent à l’an dernier, en croissance ?) pour pouvoir atteindre les objectifs ambitieux fixés par la Direction. Dans un contexte économique tourné vers la rationalisation, il est peut-être temps d’arrêter d’acheter du volume à tout prix, mais plutôt de se concentrer sur les sources et les profils qui créent de la valeur dans le temps au sein de mon organisation.

Depuis plusieurs années maintenant, nous regardons tous, les statistiques de performance d’acquisition des leads, majoritairement, sur les KPIs de volumétrie et de conversion, et cela par source. La quête d’identification de nouvelles sources, reste un challenge permanent. Néanmoins, depuis toutes ces années d’achat, n’ai-je pas au sein de ma base de données une mine d’informations qui pourrait me permettre de mieux comprendre les tenants et aboutissants de mes recrutements et surtout de tendre à acheter des profils de qualité qui correspondent mieux à mon cœur de cible ?

Pour cela, il existe 2 chantiers analytiques à mettre en place :
  • Travailler sur les sources, les volumes, les leads, la transformation, mais aussi sur la fidélité (identification des achats à partir du 2nd achat).
  • Travailler sur un profil type à potentiel grâce au travail analytique du 1er point.

Dans ce 1er chantier, une majorité des enseignes et des marques s’arrêtent à la conversion lorsqu’il s’agit de mesurer la performance d’une source d’acquisition. Nous préconisons, dans un souci de précision et de qualité, de creuser les données transactionnelles et comportementales afin de valider que ces conversions génèrent plusieurs achats dans le futur. Ainsi, nous différencions les Acheteurs One Shot, des acheteurs de valeur. Il s’agit donc de calculer un coût d’acquisition, non pas sur une conversion, mais sur une période définie. Notre recommandation prendra en compte des notions de volumétries mais aussi de qualité dans les sources à privilégier.

Dans le 2nd chantier, nous nous appuyons sur le travail réalisé dans le 1er chantier pour définir un profil type et identifier les sources à potentiel. Acheter avec plus de critères de ciblage améliorera mathématiquement la conversion et la fidélité. Ce profil type pourra aussi servir de référentiel dans les recrutements sur d’autres canaux par identification de jumeaux (méthode look alike).

Marre des opportunistes ? Convaincu de la méthode ? Besoin d’aller vite sur le sujet ? Forte envie de rationaliser les budgets ?

Plus de doutes, contactez-nous pour échanger sur les possibles.
Comment et pourquoi exploiter les data digitales ?

Plus les mois passent et plus les experts de la relation client doivent se positionner sur l’utilisation des données digitales qu’ils collectent. Même si aujourd’hui, bon nombre d’enseignes utilisent un outil de tag management, tous n’exploitent pas ces datas dans leur environnement CRM. Se pose alors la question du matching des datas digitales avec l’environnement data existant…

Know Your People peut vous accompagner à engager un projet de réconciliation et d’exploitation des datas Digitales dans votre environnement analytique. Notre méthode est simple : nous sommes chef d’orchestre sur l’ensemble de la chaîne et nous sommes experts sur la partie analyse.

Un bon projet doit automatiquement être bien drivé. C’est pourquoi, dans notre rôle de chef d’orchestre, nous vous proposons d’être l’interlocuteur privilégié de vos services techniques. Nous serons aussi les traducteurs du besoin métier. Si la compétence n’est pas disponible chez vous, vous pouvez compter sur notre réseau de partenaires techniques (expert du tag management, des plans d’implémentation, de la récupération et l’intégration, et de la réconciliation). Concernant la partie analytique, au-delà de la partie Profiling ou même les méthodes « Lookalike », nous allons jusqu’à mesurer le pouvoir explicatif de vos données digitales.

Néanmoins, avant la phase de mise en œuvre technologique et son exploitation, il reste primordial de définir le périmètre et les premiers objectifs du projet. La concrétisation d’un use-case est donc un incontournable pour embarquer les équipes qui seront amenées à travailler sur le projet et/ou à utiliser les résultats.

Un exemple de use-case : La digitalisation des clients off-line avec un objectif d’augmentation de la performance par une communication personnalisée dans les campagnes et une meilleure identification lors des visites sur le site permettant un contenu adéquat. La performance sera alors mesurée par l’acte d’achat réalisé en magasin ou sur le site.

Le bénéfice engendré : une expérience client aboutie et un engagement renforcé.

La mise en place du use-case peut se faire sous forme d’un POC (Proof Of Concept). Le POC permet de formaliser le projet test sur un délai court, avec des investissements faibles et maitrisés pour un résultat mesuré. Le sujet choisi doit être clair, simple et pragmatique pour une compréhension maximale. Prouver l’efficacité par le chiffre et rassurer sur les investissements consentis.

En cas de réussite, l’extrapolation en est facilitée puisque la démarche existe, avec quelques ajustements si besoin. Ceci est donc un bon moyen pour entrer dans une politique et une stratégie Omnicanal.

Contactez-nous pour un échange, nous vous donnerons notre vision par rapport à votre projet.
Quand le prédictif s’invite dans les stratégies marketing 2/2

Comme nous vous l’évoquions le mois dernier, Il existe trois paramètres importants à prendre en compte avant de se lancer dans l’aventure du marketing prédictif :
  • La matière première : les data
  • La problématique : la variable ou le phénomène à expliquer
  • L’exploitation du modèle créé

Mais qu’en est-il de cette phase de modélisation à proprement parler ? Alors que le mois dernier nous vous expliquions la partie fonctionnelle du marketing prédictif, nous vous proposons ici de vous expliquer la manière dont nous travaillons sur les méthodes de scoring et de modélisation. Cette méthodologie d’analyse éprouvée repose sur 6 étapes clés :
1. La compréhension des données disponibles : Au travers d’un diagnostic analytique, nous définissons les variables utiles à l’analyse. Il s’agit de répondre aux questions suivantes : est-ce que toutes vos données sont exploitables ? Certaines ne présentent-elles pas des biais ? Sont-elles suffisamment renseignées ? Quelles sources de données sont disponibles ? Nous allons jusqu’à définir une stratégie de data collect.

2. La construction de la variable cible : la première question est bien de savoir ce que l’on cherche à faire d’un point de vue CRM (lutter contre l’attrition, améliorer les ciblages,…). Au travers d’une phase d’analyse exploratoire des données et d’interviews avec le métier, nous construisons les règles de gestion permettant de définir cette variable. Notre premier objectif est d’impliquer notre interlocuteur dans la compréhension globale de la démarche analytique.

3. La construction des agrégats utiles : cette phase est majeure, elle est la plus longue dans la construction du modèle. Elle représente 60 à 70% du temps de réalisation. En lien avec la variable cible, il est nécessaire de transformer certaines données, d’en combiner d’autres. Bref trouver les agrégats les plus pertinents issus de vos données brutes pour expliquer la variable cible. Des analyses croisées entre données brutes et variable cible nous permettent de trouver les agrégats à construire.

4. La réalisation d’un échantillonnage pertinent : en modélisation statistique, il ne faut pas réaliser votre modèle sur toute la population. Deux explications à cela : des millions de lignes de données à analyser qui peuvent prendre beaucoup de temps sans améliorer les modèles et la nécessité d’avoir une population test pour valider les modèles. Plusieurs méthodologies d’échantillonnage existent, il faut être vigilant lors de la construction de l’échantillon de travail à ce que cet échantillon soit représentatif statistiquement de votre population globale.

5. La modélisation ou la réponse à la problématique : la modélisation repose sur 2 grands éléments, le choix du type de modèle à appliquer et la réalisation du modèle (le calcul des coefficients) à proprement parler. Aujourd’hui les outils de Machine Learning ont grandement contribué à avancer dans cette problématique car ils trouvent à notre place le modèle le plus performant. Attention toutefois à s’assurer de la pertinence du modèle tant à court terme qu’à moyen terme.

6. La mesure des résultats et la validation du modèle : une première étape de validation de cette pertinence va reposer dans la mesure des résultats obtenus au travers de la confrontation des résultats entre la population d’apprentissage et la population test, en particulier par l’utilisation des matrices de classement. Ceci va nous permettre d’éprouver la qualité du modèle et donc d’en valider la pertinence.
C’est par la maitrise de ces 6 étapes que l’on réussit à mettre en œuvre des modèles pertinents et robustes.

L’objectif final est bien de vous accompagner dans l’exploitation du modèle au travers d’un plan d’actions opérationnel. La mesure des résultats confirmera la création de valeur.

Prêts pour l’aventure prédictive ?