Aujourd’hui, il n’est pas évident de s’y retrouver sur le sujet de l’algorithmie. Mais d’ailleurs, qu’est-ce que c’est exactement un algorithme ? A quoi ça sert ? Et dans quel cadre faut-il l’utiliser ?

Tout d’abord une définition, et je trouve celle du Larousse correcte : « Un Algorithme est un ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur ».
Si on essaye de répondre aux 2 autres questions, je dirai que la mise en place d’un algorithme permet de se simplifier la vie (gain de temps, règle de gestion, automatisation, prévisions, …).

Son utilisation est au final la partie la plus délicate à appréhender. Elle se traduit en 3 étapes :

A quel besoin métier répond-il ? La difficulté est de bien définir la problématique et d’identifier le périmètre d’intervention. C’est une étape qu’il ne faut pas négliger car c’est bien celle-ci qui va diriger les étapes suivantes. Il est donc nécessaire d’avoir un bon échange entre le métier, la technique et les producteurs experts en Data Science. La traduction du besoin est un élément essentiel afin que les équipes se comprennent, délivrent un bon algorithme et exploitent opérationnellement celui-ci. Très souvent, une négligence sur cette étape engendre beaucoup de temps et d’énergie passés pour au final une non-utilisation de l’algorithme et beaucoup de frustration.

Viens ensuite, la réalisation de l’algorithme. Plusieurs méthodes s’offrent à nous. Cela dépend du besoin, de la complexité, et des outils à dispositions. Pour des besoins simples et cadrés, il n’est pas nécessaire d’utiliser des solutions de Data Sciences à tout prix. Un bon requêteur peut parfois faire l’affaire. Pour une optimisation des programmes créés, bien évidemment, même le simple programme peut se faire via les outils existants. Quand on arrive à des besoins plus complexes, nous voyons une tendance des experts à n’utiliser que des techniques de Machine Learning et/ou les dernières méthodes à la « mode » (Random Forest, Réseaux de neurones, Régression pénalisée, …). Nous sommes les 1ers à les utiliser, mais attention, ces méthodes et techniques ne répondent pas toujours de manière simple au besoin exprimé et parfois il est difficile de maîtriser et d’expliquer le résultat obtenu. A la question, que vous nous préconisez-vous ? Nous allons répondre, au-delà du pré requis de réponse au besoin, qu’il faut mixer les techniques et méthodes. Utiliser des méthodes traditionnelles et des nouvelles méthodes. Une bonne vieille régression logistique continue de faire le job et est aujourd’hui complétement maîtrisé par les Data Scientists, elle a aussi le gros avantage de présenter une équation facilement compréhensible par les équipes.

L’exploitation de l’algorithme est devenue une étape indispensable à la création de performance. Cela ne veut pas dire qu’il ne faut plus essayer de nouveaux modèles dans le cadre de projet R&D, mais il est nécessaire d’exploiter certains algorithmes pour prouver l’utilité et la création de valeur. Dans cette partie, nous pouvons de nouveau distinguer 3 phases : Une phase de test afin de valider que l’algorithme fonctionne et apporte de la valeur. Une phase d’implémentation dans le ou les SI afin d’apporter cette couche d’intelligence à travers les outils de l’entreprise. Et une phase de mesure pour confirmer les tendances du test, calculer la création de valeur et valider la pérennité de l’algorithme.

Ces 3 phases sont indispensables pour obtenir le fruit des investissements liés aux algorithmes. Comme d’habitude, nous continuons de privilégier le pragmatisme et la communication au sein de ce type de projet. L’ennemi de l’algorithme est le temps de mise en place. Très souvent parce que les étapes n’ont pas été bien réalisées, on se retrouve avec des retards de livraison, des questionnements et des remises en cause qui suivent…
Pour terminer, le besoin identifié chez nos clients & prospects vient surtout sur les étapes 1 et 3 en accompagnement conseil, et sur l’étape 2 quand il existe un manque de ressource.
Bref, pour éviter d’être déçus, soyez méthodiques ou faites vous accompagner dans les premières étapes de ce type de projet.
Nous revenons de nouveau sur un sujet essentiel qu’est la mesure de la performance d’un plan d’animation. Ce sujet qui pourrait être banal, vue les outils existants du marché, et aussi une certaine disponibilité des données, n’est en fait pas toujours traité ou encore approximatif. Si bon nombre des sociétés utilisent et maitrisent plutôt un outil de gestion des campagnes marketing, encore bcp d’entre elles mesurent la performance à la campagne et non de manière globale, et potentiellement encore à l’individu.

Pourquoi une telle situation ? La première raison est clairement le manque de temps. La seconde pourrait être aussi une question de compétence où les utilisateurs des solutions analysent leurs campagnes via les reportings par défaut. Pour terminer, il existe certains outils qui promettent une analyse du ROI, mais plutôt en mode boîte noire où l’utilisateur ne sait pas par défaut ce qui a créé cette valeur et se voit retoqué en comité de direction.

Nous l’avons toujours dit, nous croyons à la performance et la rentabilité des plans d’animation marketing. Néanmoins, il est évident que de nos jours, nous ne pouvons plus envoyer n’importe quel contenu à n’importe quelle cible, n’importe quand. Il faut donc passer d’un plan de masse à un plan différencié et surtout de mettre en place une mécanique de mesure qui permettra de valider la création de valeur. Nous ne pouvons plus nous fier uniquement à un taux d’ouverture, de clics et de conversion, en y imputant un chiffre d’affaires global à la campagne.

Notre vision est comme habitude itérative. Vous ne pouvez pas connaître le ROI de votre plan d’animation avec précision sans avoir réaliser un certain nombre d’analyses préalables basiques en suivant une méthodologie séquencée.
Selon notre expérience, voici les principales étapes à suivre :
1. identifier toutes les opérations sur la période sélectionnée (commencer par un mois et aller jusqu’à l’année).
2. valider que vous avez toutes les données nécessaires à l’analyse (les volumes, l’échantillon témoin, les achats relatifs, la notion de retours strictes ou retours larges…).
3. thématiser vos opérations en fonction des contenus afin de mieux comprendre celles qui créent de la valeur.
4. créer des règles de réattribution du CA si plusieurs opérations se chevauchent en prenant en compte le contexte de la période (étape peut-être la plus délicate).
5. Réaliser le reporting de pilotage par opération et au global en validant que la somme des CA des opérations est bien égale au total de CA.
6. interpréter les résultats en fonction des thématiques, des opérations et de la valeur créée.

A noter que ce travail permettra aussi de mesurer une valeur de CA généré à l’individu. Nous allons même jusqu’à mesurer une valeur financière qui tient compte aussi des coûts liés aux opérations. Cela entraîne des valeurs positives, mais aussi négatives. Ce travail permet de démontrer qu’il n’est plus nécessaire d’envoyer des messages à toute la base et donc de passer à des offres différenciées en tenant compte de la capacité des individus à recevoir le bon nombre de communications sur le bon contenu.

Pour terminer sur ce sujet, nous constatons qu’avec un certain nombre de nouveaux KPI’s, adaptés à la marque ou à l’enseigne (identification de nouveaux axes d’analyse), nous pouvons aller à un niveau d’explication et d’interprétation complémentaire. Cela demande dans la méthode la prise en compte de données complémentaire (internes ou externes).

En résumé, attention aux modèles tout fait qui ne vous correspondent pas. Privilégiez une méthodologie analytique avec des axes d’analyses discriminants qui vous permettront de mieux comprendre, mieux analyser et mieux interpréter ce qui génèrent de la valeur* dans vos plans d’animation.

Nous serions ravis d’échanger avec vous sur ce sujet de vous montrer des use cases.
Le développement de l’Intelligence Artificielle ouvre de nouvelles perspectives aux acteurs du marketing. Et ceux-ci ne s’y trompent pas car près de 70% des marques envisagent d’utiliser l’IA pour personnaliser les offres et l’expérience clients. Toutefois la question se pose légitimement de savoir jusqu’où nous devons faire confiance aux modèles pour prendre des décisions à notre place. Nous allons essayer de vous donner quelques clés sur le sujet.

Apprentissage supervisé et non supervisé

Un premier point important à prendre en compte lorsque l’on traite de sujets d’Intelligence Artificielle est de savoir si le modèle que l’on va mettre en place va reposer sur un apprentissage supervisé ou non. En effet, le « mythe de l’IA », comme on pourrait l’appeler, repose sur le principe que la machine va analyser de manière totalement autonome les données qu’on lui met à disposition pour trouver des solutions à un problème que potentiellement on ne lui aurait pas poser ! De manière plus pragmatique, les modèles d’apprentissage non supervisé permettent essentiellement aujourd’hui de définir des groupes d’individus homogènes ayant des caractéristiques communes. Ce système va alors souvent permettre de créer des systèmes de recommandation pertinents (Netflix fait ça très bien par exemple pour vous recommander les films et séries les plus susceptibles de vous intéresser en se basant sur les films et séries vus par des individus qui vous ressemblent).
Dans la majorité des cas, ce sont donc plutôt les modèles supervisés qui vont être utilisés. Dans ce cadre, un Data Scientist va devoir guider la machine. En particulier, il va devoir définir les résultats attendus sur un volume important de données d’apprentissage afin que l’algorithme apprenne et puisse reproduire les mécaniques de décision qu’il aura apprises sur un nouveau jeu de données. Dans ce cas, l’humain joue donc un rôle important dans l’apprentissage du modèle et dans son exploitation future.

L’IA doit servir la stratégie et non pas la remplacer

En conséquence, on comprend bien que l’IA est bien souvent guidée par nos choix d’apprentissage et les données qu’on va lui mettre à disposition. On peut même aller plus loin en considérant que la stratégie marketing doit guider les actions des Data Scientists afin de concevoir les modèles les plus utiles aux experts marketing dans l’atteinte de leurs objectifs.
Plus généralement, il est même intéressant d’envisager l’apport de la Data Science (au sens large) à la stratégie marketing. En effet, bien souvent, on va pouvoir nettement augmenter la performance des dispositifs en mettant en place un process analytique pertinent reposant sur différents allers-retours entre stratégie et analyse. Aujourd’hui, la data doit accompagner la stratégie, et la stratégie doit guider la recherche de la performance. A titre d’exemple, on peut imaginer le process suivant :
1. Construction d’une segmentation adaptée
2. Identification des priorités stratégiques grâce à la matrice de passage
3. Définition des priorités opérationnelles par segment
4. Construction des modèles prédictifs adaptés à chaque cible (segment) et chaque problématique (attrition, recommandation, cross-sell…)
5. Test & Learn et mesure de la performance
6. Adaptation des modèles et des dispositifs
Bref, un équilibre fin à trouver entre les inputs de la stratégie à la Data Science et de la Data Science à la stratégie ! Et où les modèles IA supervisés ou non permettront de gagner en performance tout en ouvrant la voie à de nouveaux champs de recherche.

Ce sont des sujets qui vous intéressent ? Nous sommes là pour en parler avec vous. Notre pragmatisme et notre discours vulgarisé seront les clés de la réussite de votre prochain projet d’IA.
Chaque jour ou presque le sujet de l’avenir de notre planète est au centre des débats. En particulier, la notion d’empreinte carbone est un indicateur récurrent dans la mesure de l’impact écologique de nos activités humaines.

Lorsque vous envoyez des emails commerciaux à vos clients, les serveurs mails de votre entreprise stockent l’email avant de l’envoyer. Comme tout serveur, ils consomment de l’électricité et plus ils sont chargés, plus ils chauffent et plus ils nécessitent d’électricité pour refroidir.
On estime actuellement qu’un email simple a une empreinte carbone de 4g de CO2. Une entreprise envoyant régulièrement des newsletters à ses clients va donc vite voir son empreinte carbone augmenter. A titre d’exemple, si vous envoyez 1 million d’emails, 2 fois par semaine, l’empreinte carbone de votre animation clients sera de 416 tonnes sur une année. Soit plus de 200 allers-retours Paris-New York pour un passager !

Vous l’aurez compris, l’animation clients a donc un impact fort sur l’empreinte carbone de votre entreprise. Pour la réduire, il est donc fondamental d’optimiser ces ciblages marketing.

Comment peut-on réduire son empreinte carbone grâce à la Data Science ?
Pour ce faire, nous vous recommandons 2 outils analytiques simples :
- La segmentation clients :
Il existe de nombreux types de segmentations (segmentation transactionnelle, segmentation relationnelle, segmentation 360°…), mais toutes ont le même point commun : elles permettent de créer des groupes de clients homogènes sur lesquels nous allons pouvoir mettre en place un plan d’animation différencié.
Bien souvent, lors de la mise en place d’une segmentation, nous recommandons de faire le bilan du plan d’animation de l’année précédente pour bien comprendre les spécificités de chaque segment. En particulier, cette analyse va permettre de déterminer la pression commerciale optimale à appliquer à chaque segment.
Ce premier outil, si vous ne l’avez pas encore mis en place, va donc vous permettre en passant d’une logique d’envois de masse à une logique d’envois segmentés de baisser le nombre moyen d’emails envoyés. De la même façon, si vous avez déjà une segmentation existante, gardez en tête que celle-ci a une durée de vie et qu’elle peut être challengée ou modifiée via d’autres axes discriminants.

- Le scoring :
En termes de scoring, nous travaillons de plus en plus sur 2 niveaux de ciblage : le score de repoussoir et le score d’appétence.
Le premier, le score de repoussoir, va permettre d’isoler les clients qui ont une forte probabilité de ne pas ouvrir vos prochaines newsletters. Pourquoi les cibler, si on pressent dès aujourd’hui que l’email n’aura pas d’impact ? Ce premier type de score va donc réduire considérablement les volumétries d’envois. A ce jour, les scores de repoussoir que l’on a construit pour nos clients ont permis de réduire la volumétrie d’envois de l’ordre de 20 à 30% des volumes initiaux.
En parallèle, sur les potentiels ouvreurs, tous les messages n’ont pas le même niveau d’intérêt. Il est donc préférable, à ce niveau, de construire les scores d’appétence adéquats permettant de cibler les clients réellement intéressés par le message envoyé. Cela va vous permettre de combiner une diminution des volumes d’envois avec une hausse des performances commerciales (souvent de l’ordre de 15 à 25%). En conclusion : faire plus avec moins… d’empreinte carbone !

Bien évidemment, nous sommes conscients que ces sujets analytiques, et la Data Science en général, peuvent être perçus comme investissement important. Chez KYP, nous avons pris l’habitude de nous engager sur ces sujets d’accompagner nos clients dans la mesure du ROI et de la création de valeur.

Comme vous avez pu le lire, il peut être assez simple de réduire votre empreinte carbone tout en développant le potentiel commercial de votre base de données. Nous nous tenons à votre disposition pour tout échange sur ce sujet d’actualité et sur la mise en place d’actions analytiques concrètes ! Contribuez à réduire votre empreinte carbone tout en étant en phase avec vos valeurs et/ou celle de votre entreprise.
Chaque année la construction d’objectifs challengeant tout en restant atteignables et leur suivi sont un défi pour les managers. Notamment pour les entreprises avec une multitude de points de ventes, souvent regroupés de façon intuitive.

La Data Science peut vous aider !

Step 1 : Identifier les pools de points de ventes qui partageront les mêmes objectifs

Les méthodes de clustering vont d’abord vous permettre d’associer les points de ventes les plus semblables selon des axes de consommation (CA, recrutement, trafic, valeur des clients rattachés…) et de caractéristiques magasins (surface, nombre d'employés, emplacement, services spécifiques, zones de chalandises…).

Step 2 : Chiffrer ces objectifs

Les méthodes de prévision vont ensuite vous permettre d’estimer les objectifs par typologie de magasins et par mois en fonction des saisonnalités de consommation et les phénomènes exogènes identifiés. Ces objectifs peuvent prendre plusieurs formes : CA, Trafic, recrutement, collecte email,...

Step 3 : Suivre le taux de réussite

A l’aide de tableaux de bord synthétiques mensuels et sur mesure par point de vente, les managers pourront suivre au plus près la part de réalisation de ces objectifs dans le temps, identifier les plus performants et partager les best practices, détecter rapidement les magasins sous performants et les accompagner.

Vous avez un besoin similaire ? N’hésitez pas à nous solliciter !