Data Science

KYP rejoint 1% for the planet

Chez Know Your People, nous cherchons toujours à prendre soin de ceux qui nous entourent, que ce soit nos clients, nous collaborateurs ou tout simplement l’environnement. Au travers de nos activités extraprofessionnelles, nous avons un rapport étroit à la nature. Que ce soit Guillaume lorsqu’il surfe les vagues du sud-ouest, Samuel lorsqu’il fait de la plongée, ou moi-même lors de mes entrainements pour le triathlon, nous essayons, à notre niveau, d’être attentif à l’environnement et à ne pas laisser de déchets derrière nous.

Récemment, nous avons pris la décision de donner une nouvelle impulsion à cet engagement en rejoignant le réseau 1% for the Planet.
Souvent nos clients s'interrogent sur la qualité et la pertinence des données socio-démographiques collectées sur leurs clients. Et bien souvent leur constat est que leur base de données n'est pas assez riche en données socio-démographiques et comportementales.



Pourquoi ce choix ?

Ce choix part d’un constat assez simple : l’environnement est le parent pauvre de la philanthropie. Il représente 3% des sommes allouées, et seulement une faible partie provient des entreprises. Or le rôle de 1% for the Planet est justement de connecter, promouvoir et certifier les entreprises soutenant les associations environnementales, créant un mouvement global engagé dans la protection de la planète.

Le mouvement a été lancé en 2001 par Yvon Chouinard, fondateur de Patagonia et Craig Mathews de Blue Ribbon Flies, dont les entreprises respectives étaient déjà philanthropes depuis de nombreuses années, sans que cela n'affecte négativement leur business. Ils ont décidé de créer ce réseau pour convaincre plus d'entreprises à s'engager pour la protection de l’environnement. L’objectif de 1% for the Planet est d’augmenter la philanthropie environnementale, en créant une communauté d’entrepreneurs philanthropes, à la résonance grandissante et à l’impact sur le terrain plus efficace. Et aujourd’hui, le réseau regroupe plus de 1300 membres donateurs et 3500 ONG engagées dans la préservation de l’environnement.

Nous nous sommes donc engagés, à partir de cette année, à reverser 1% de notre chiffre d’affaires à des associations agréées par 1% for the Planet qui défendent des causes qui nous sont chères.
Quand le prédictif s’invite dans les stratégies marketing 2/2

Comme nous vous l’évoquions le mois dernier, Il existe trois paramètres importants à prendre en compte avant de se lancer dans l’aventure du marketing prédictif :
  • La matière première : les data
  • La problématique : la variable ou le phénomène à expliquer
  • L’exploitation du modèle créé

Mais qu’en est-il de cette phase de modélisation à proprement parler ? Alors que le mois dernier nous vous expliquions la partie fonctionnelle du marketing prédictif, nous vous proposons ici de vous expliquer la manière dont nous travaillons sur les méthodes de scoring et de modélisation. Cette méthodologie d’analyse éprouvée repose sur 6 étapes clés :
1. La compréhension des données disponibles : Au travers d’un diagnostic analytique, nous définissons les variables utiles à l’analyse. Il s’agit de répondre aux questions suivantes : est-ce que toutes vos données sont exploitables ? Certaines ne présentent-elles pas des biais ? Sont-elles suffisamment renseignées ? Quelles sources de données sont disponibles ? Nous allons jusqu’à définir une stratégie de data collect.

2. La construction de la variable cible : la première question est bien de savoir ce que l’on cherche à faire d’un point de vue CRM (lutter contre l’attrition, améliorer les ciblages,…). Au travers d’une phase d’analyse exploratoire des données et d’interviews avec le métier, nous construisons les règles de gestion permettant de définir cette variable. Notre premier objectif est d’impliquer notre interlocuteur dans la compréhension globale de la démarche analytique.

3. La construction des agrégats utiles : cette phase est majeure, elle est la plus longue dans la construction du modèle. Elle représente 60 à 70% du temps de réalisation. En lien avec la variable cible, il est nécessaire de transformer certaines données, d’en combiner d’autres. Bref trouver les agrégats les plus pertinents issus de vos données brutes pour expliquer la variable cible. Des analyses croisées entre données brutes et variable cible nous permettent de trouver les agrégats à construire.

4. La réalisation d’un échantillonnage pertinent : en modélisation statistique, il ne faut pas réaliser votre modèle sur toute la population. Deux explications à cela : des millions de lignes de données à analyser qui peuvent prendre beaucoup de temps sans améliorer les modèles et la nécessité d’avoir une population test pour valider les modèles. Plusieurs méthodologies d’échantillonnage existent, il faut être vigilant lors de la construction de l’échantillon de travail à ce que cet échantillon soit représentatif statistiquement de votre population globale.

5. La modélisation ou la réponse à la problématique : la modélisation repose sur 2 grands éléments, le choix du type de modèle à appliquer et la réalisation du modèle (le calcul des coefficients) à proprement parler. Aujourd’hui les outils de Machine Learning ont grandement contribué à avancer dans cette problématique car ils trouvent à notre place le modèle le plus performant. Attention toutefois à s’assurer de la pertinence du modèle tant à court terme qu’à moyen terme.

6. La mesure des résultats et la validation du modèle : une première étape de validation de cette pertinence va reposer dans la mesure des résultats obtenus au travers de la confrontation des résultats entre la population d’apprentissage et la population test, en particulier par l’utilisation des matrices de classement. Ceci va nous permettre d’éprouver la qualité du modèle et donc d’en valider la pertinence.
C’est par la maitrise de ces 6 étapes que l’on réussit à mettre en œuvre des modèles pertinents et robustes.

L’objectif final est bien de vous accompagner dans l’exploitation du modèle au travers d’un plan d’actions opérationnel. La mesure des résultats confirmera la création de valeur.

Prêts pour l’aventure prédictive ?
Quand le prédictif s’invite dans les stratégies marketing 1/2

Le prédictif, un mot que l’on entend de plus en plus souvent… Sommes-nous prêts aujourd’hui à développer une vraie stratégie analytique autour des modèles prédictifs ?
Les techniques de statistiques prédictives ne sont pas nouvelles. Depuis plus de 20 ans, nous construisons des algorithmes afin de créer des modèles prédictifs robustes et performants qui améliorent toujours un peu plus l’expérience client.

Il existe trois paramètres importants à prendre en compte avant de se lancer :
  • La matière première : les data
  • La problématique : la variable ou le phénomène à expliquer
  • L’exploitation du modèle créé

Sur le premier point, notre bac à sable s’est très largement agrandi avec l’arrivée des data digitales. Si jusqu’à il y a encore quelques temps, les modèles prédictifs étaient construits à partir des données CRM classiques (transactionnelles, comportementales, socio démographiques), nous avons aujourd’hui accès à des données complémentaires qui viennent caractériser les comportements des consommateurs (données de navigations, sociales, et plus généralement les données digitales). L’enjeu aujourd’hui, est de pouvoir croiser les data de ces deux mondes (CRM & Digital). Les méthodes de réconciliation sont prêtes et les acteurs sur le marché proposent leur service à une qualité de matching qui devient intéressante (d’un point de vue statistique). Il ne reste plus qu’à définir la question à laquelle on souhaite répondre. Et c’est précisément ce point qu’il ne faut pas négliger !

Nous sommes convaincus que la construction de la « variable à expliquer » est un point majeur à la création de valeur future. Il est donc nécessaire de prendre le temps de définir une problématique qui soit réalisable et en adéquation avec la stratégie marketing. Que cherchons-nous à faire ? Réduire l’attrition ? Identifier l’appétence ? Maximiser la conversion ? Autant de sujet intéressant et d’actualité, mais qui restent généralistes et qui demandent à être préciser. Parle-t-on de contacts, de clients ou de prospects ? Intégrons-nous tous les segments de clients ou réalisons un focus sur une cible en particulier ? Vous l’aurez compris, il existe des filtres à intégrer dans la définition de la population à étudier. Ensuite, à nous de détecter les moments de vie et les cibles où nous maximiserons la conversion.

Le troisième point est peut-être le plus important. Il est indispensable d’utiliser / de tester / d’exploiter l’algorithme créé. Souvent nous remarquons qu’il existe de beaux scorings dans les entreprises, mais qui ne sont pas ou peu utilisés. Pour quelles raisons ? Juste parce qu’il existe encore une barrière de langage entre les dataminers / datascientists et le métier. Ou tout simplement parce que les équipes en place n’ont pas créé le modèle et donc n’en maîtrise pas les tenants et aboutissants. Sans oublier que les modèles prédictifs ont une durée de vie et qu’il est nécessaire, selon nous, de valider la véracité et la pérennité des algorithmes créés régulièrement. En d’autres termes, il ne s’agit pas de créer en one shot un score, mais il faut veiller à son application et sa performance dans le temps.
Un accompagnement dans les plans d’actions et la mesure des résultats peut-être nécessaire. L’objectif de performance peut alors augmenter de 15% à 20% avec un bon score, sur une bonne population, sur une bonne offre.
En d’autres termes, c’est un super outil prédictif, à vous, à nous de l’utiliser dans les meilleures conditions.
Contactez-nous pour faire le point !
AVIS D'EXPERTS : LE BIG DATA, PAR QUEL BOUT LE PRENDRE ?

Bon nombre d’experts se positionnent sur le sujet avec des convictions fortes et parfois opposées. Comment faire la part des choses entre ceux qui nous disent que cela va tout changer et les autres qui nous soutiennent que cela reste de l’analyse de données ? Quels sont les réels changements ? Sur quoi devons-nous être vigilants ? Comment ne pas tomber dans un projet sans fin sous le seul prétexte d’être présent sur le sujet ? Avec quelle organisation et quels profils ?

Notre vision reste le pragmatisme et l’itération du projet !

Tout d’abord, essayons d’en donner une définition : « Le principe des Big Data est de faire converger des données diverses et variées et de les exploiter à des fins de connaissance, de performance et d’usages. »

A chacun son niveau de maturité dans l’exploitation de la data et sur l’apport d’une telle démarche dans la stratégie de l’entreprise. Nous partageons l’avis de certains experts qui vont parler de SmartData. Car même si nous croyons à la puissance de la data dans sa plus pure exploitation, il existe encore un écart entre la réalité des projets mis en œuvre et les contraintes opérationnelles imposées aux équipes (budget, quickwins et ROI). Nous ne pouvons malheureusement pas tous allouer un budget R&D conséquent pour faire face à cette nouvel ère digitale ultra ciblée et connectée.

Mais, la question est bien de savoir comment nous continuons à avancer sur le sujet afin de ne pas être en retard dans les rendez-vous futurs que nous aurons avec les consommateurs.

L’offre KYP sur le sujet du Big Data est de vous faire gravir la montagne par étape et avec ambition. Grâce à notre passé ROiste, nous mesurerons l’apport de chacune de ces étapes au sein de votre marque/enseigne.

Pour cela, nous restons attentifs aux indicateurs des « V » du Big Data, car cela peut avoir un réel impact dans l’organisation, la réalisation et l’interprétation. Nous connaissons tous les « V » de : VOLUME, VARIETE, VELOCITE et VERACITE. A partir du moment où nous détectons l’activation d’un de ces « V », nous faisons appel à des experts internes et externes pour mesurer les enjeux du projet et mener à bien l’étape sur laquelle nous nous engageons.
N’oublions pas le « V », de VALIDITE qui à notre sens répond à la significativité et la robustesse des algorithmes (ce qui reste un éléments fondamental de la data intelligence). Et pour terminer le « V » de VALEUR, car après tout, c’est bien cette question qui est le nerf de la guerre (Valeur sur le business & Valeur sur l’intelligence créée).

Ce qui est certain, c’est que nous devons tous avancer dans cette course de la DATA INTELLIGENCE et qu’il faut commencer par un point de départ. Celui-ci est-il évident pour vous ? Nous serions ravis de pouvoir échanger avec vous sur le sujet.