(8) résultats pour votre recherche

Aujourd’hui, il n’est pas évident de s’y retrouver sur le sujet de l’algorithmie. Mais d’ailleurs, qu’est-ce que c’est exactement un algorithme ? A quoi ça sert ? Et dans quel cadre faut-il l’utiliser ?

Tout d’abord une définition, et je trouve celle du Larousse correcte : « Un Algorithme est un ensemble de règles opératoires dont l'application permet de résoudre un problème énoncé au moyen d'un nombre fini d'opérations. Un algorithme peut être traduit, grâce à un langage de programmation, en un programme exécutable par un ordinateur ».
Si on essaye de répondre aux 2 autres questions, je dirai que la mise en place d’un algorithme permet de se simplifier la vie (gain de temps, règle de gestion, automatisation, prévisions, …).

Son utilisation est au final la partie la plus délicate à appréhender. Elle se traduit en 3 étapes :

A quel besoin métier répond-il ? La difficulté est de bien définir la problématique et d’identifier le périmètre d’intervention. C’est une étape qu’il ne faut pas négliger car c’est bien celle-ci qui va diriger les étapes suivantes. Il est donc nécessaire d’avoir un bon échange entre le métier, la technique et les producteurs experts en Data Science. La traduction du besoin est un élément essentiel afin que les équipes se comprennent, délivrent un bon algorithme et exploitent opérationnellement celui-ci. Très souvent, une négligence sur cette étape engendre beaucoup de temps et d’énergie passés pour au final une non-utilisation de l’algorithme et beaucoup de frustration.

Viens ensuite, la réalisation de l’algorithme. Plusieurs méthodes s’offrent à nous. Cela dépend du besoin, de la complexité, et des outils à dispositions. Pour des besoins simples et cadrés, il n’est pas nécessaire d’utiliser des solutions de Data Sciences à tout prix. Un bon requêteur peut parfois faire l’affaire. Pour une optimisation des programmes créés, bien évidemment, même le simple programme peut se faire via les outils existants. Quand on arrive à des besoins plus complexes, nous voyons une tendance des experts à n’utiliser que des techniques de Machine Learning et/ou les dernières méthodes à la « mode » (Random Forest, Réseaux de neurones, Régression pénalisée, …). Nous sommes les 1ers à les utiliser, mais attention, ces méthodes et techniques ne répondent pas toujours de manière simple au besoin exprimé et parfois il est difficile de maîtriser et d’expliquer le résultat obtenu. A la question, que vous nous préconisez-vous ? Nous allons répondre, au-delà du pré requis de réponse au besoin, qu’il faut mixer les techniques et méthodes. Utiliser des méthodes traditionnelles et des nouvelles méthodes. Une bonne vieille régression logistique continue de faire le job et est aujourd’hui complétement maîtrisé par les Data Scientists, elle a aussi le gros avantage de présenter une équation facilement compréhensible par les équipes.

L’exploitation de l’algorithme est devenue une étape indispensable à la création de performance. Cela ne veut pas dire qu’il ne faut plus essayer de nouveaux modèles dans le cadre de projet R&D, mais il est nécessaire d’exploiter certains algorithmes pour prouver l’utilité et la création de valeur. Dans cette partie, nous pouvons de nouveau distinguer 3 phases : Une phase de test afin de valider que l’algorithme fonctionne et apporte de la valeur. Une phase d’implémentation dans le ou les SI afin d’apporter cette couche d’intelligence à travers les outils de l’entreprise. Et une phase de mesure pour confirmer les tendances du test, calculer la création de valeur et valider la pérennité de l’algorithme.

Ces 3 phases sont indispensables pour obtenir le fruit des investissements liés aux algorithmes. Comme d’habitude, nous continuons de privilégier le pragmatisme et la communication au sein de ce type de projet. L’ennemi de l’algorithme est le temps de mise en place. Très souvent parce que les étapes n’ont pas été bien réalisées, on se retrouve avec des retards de livraison, des questionnements et des remises en cause qui suivent…
Pour terminer, le besoin identifié chez nos clients & prospects vient surtout sur les étapes 1 et 3 en accompagnement conseil, et sur l’étape 2 quand il existe un manque de ressource.
Bref, pour éviter d’être déçus, soyez méthodiques ou faites vous accompagner dans les premières étapes de ce type de projet.
Le développement de l’Intelligence Artificielle ouvre de nouvelles perspectives aux acteurs du marketing. Et ceux-ci ne s’y trompent pas car près de 70% des marques envisagent d’utiliser l’IA pour personnaliser les offres et l’expérience clients. Toutefois la question se pose légitimement de savoir jusqu’où nous devons faire confiance aux modèles pour prendre des décisions à notre place. Nous allons essayer de vous donner quelques clés sur le sujet.

Apprentissage supervisé et non supervisé

Un premier point important à prendre en compte lorsque l’on traite de sujets d’Intelligence Artificielle est de savoir si le modèle que l’on va mettre en place va reposer sur un apprentissage supervisé ou non. En effet, le « mythe de l’IA », comme on pourrait l’appeler, repose sur le principe que la machine va analyser de manière totalement autonome les données qu’on lui met à disposition pour trouver des solutions à un problème que potentiellement on ne lui aurait pas poser ! De manière plus pragmatique, les modèles d’apprentissage non supervisé permettent essentiellement aujourd’hui de définir des groupes d’individus homogènes ayant des caractéristiques communes. Ce système va alors souvent permettre de créer des systèmes de recommandation pertinents (Netflix fait ça très bien par exemple pour vous recommander les films et séries les plus susceptibles de vous intéresser en se basant sur les films et séries vus par des individus qui vous ressemblent).
Dans la majorité des cas, ce sont donc plutôt les modèles supervisés qui vont être utilisés. Dans ce cadre, un Data Scientist va devoir guider la machine. En particulier, il va devoir définir les résultats attendus sur un volume important de données d’apprentissage afin que l’algorithme apprenne et puisse reproduire les mécaniques de décision qu’il aura apprises sur un nouveau jeu de données. Dans ce cas, l’humain joue donc un rôle important dans l’apprentissage du modèle et dans son exploitation future.

L’IA doit servir la stratégie et non pas la remplacer

En conséquence, on comprend bien que l’IA est bien souvent guidée par nos choix d’apprentissage et les données qu’on va lui mettre à disposition. On peut même aller plus loin en considérant que la stratégie marketing doit guider les actions des Data Scientists afin de concevoir les modèles les plus utiles aux experts marketing dans l’atteinte de leurs objectifs.
Plus généralement, il est même intéressant d’envisager l’apport de la Data Science (au sens large) à la stratégie marketing. En effet, bien souvent, on va pouvoir nettement augmenter la performance des dispositifs en mettant en place un process analytique pertinent reposant sur différents allers-retours entre stratégie et analyse. Aujourd’hui, la data doit accompagner la stratégie, et la stratégie doit guider la recherche de la performance. A titre d’exemple, on peut imaginer le process suivant :
1. Construction d’une segmentation adaptée
2. Identification des priorités stratégiques grâce à la matrice de passage
3. Définition des priorités opérationnelles par segment
4. Construction des modèles prédictifs adaptés à chaque cible (segment) et chaque problématique (attrition, recommandation, cross-sell…)
5. Test & Learn et mesure de la performance
6. Adaptation des modèles et des dispositifs
Bref, un équilibre fin à trouver entre les inputs de la stratégie à la Data Science et de la Data Science à la stratégie ! Et où les modèles IA supervisés ou non permettront de gagner en performance tout en ouvrant la voie à de nouveaux champs de recherche.

Ce sont des sujets qui vous intéressent ? Nous sommes là pour en parler avec vous. Notre pragmatisme et notre discours vulgarisé seront les clés de la réussite de votre prochain projet d’IA.
Cette année 2018 est particulière chez les Retailers. En effet, bon nombre d’entre eux ont une année Business assez difficile. Après une belle croissance en 2017, L’objectif d’une année ambitieuse a fait que la recherche de CA additionnel était au cœur des préoccupations. Comme nous le savons tous, depuis janvier, les chiffres ont du mal à croître et certains enregistrent des baisses de commandes – d’achats records.

Un des leviers du marché a été de compenser la baisse de CA par une augmentation des opérations marketing afin de limiter la casse. Force est de constater que cela a eu un effet bénéfique sur le CA. Les opérations marketing ont eu des résultats corrects. Néanmoins, au bout de quelques mois de shooting, l’analyse des résultats n’est pas si belle qu’elle n’y parait…

• Le taux de générosité, lié à la démarque, a augmenté.
• Le taux de désabonnement a augmenté.
• Les taux d’ouverture ont fini par baisser.
• Le taux de conversion a lui aussi baissé.

Les résultats de ces opérations, au global, sont difficiles à analyser si on ne prend pas le temps de croiser l’information. Quand on rentre dans le détail, on constate que la générosité a eu un impact sur la rentabilité. Sur le désabonnement, malheureusement, ce sont nos cibles préférentielles (à potentiel et/ou à forte valeur) qui ont boudé en premier ces communications. Le nombre important d’opérations marketing a eu un impact sur l’intérêt des clients vis-à-vis des contenus proposés, de la cohérence des messages pas toujours claire, voir d’une cannibalisation des opérations entre elles. Pour terminer, l’offre associée dans ces opérations était parfois liée au déstockage et donc pas toujours dans les attentes des clients.

Les 2 questions que l’on peut se poser sont :
« Ai-je perdu définitivement ces clients ? »
« Et comment corriger le tir dans les communications sans perdre de la performance ? »

Afin de répondre à la première question, il est nécessaire d’apporter des inputs chiffrés sur les comportements des clients désabonnés et des bons clients qui n’ont pas ré-acheté. Il nous donc décrire et identifier des comportements anormaux afin d’entreprendre une action correctrice. Nous disons toujours qu’un très très bon client doit être appeler le jour où vous avez identifié qu’il vous quitte. La méthodologie n’est pas complexe, mais demande de la rigueur, car il faut prendre en compte tous les paramètres internes et externes !

Concernant la seconde question, le correctif consiste à mettre en place une phase de modélisation sur les opérations envoyées. Tout d’abord, typer les opérations et regrouper celles qui sont semblables. Ensuite, identifier grâce aux modèles prédictifs les cibles appétentes à chaque type d’opérations. Avec ces deux actions, vous allez identifier pour chaque opération, les clients ouverts à la réception d’’emails et ceux à qui il ne faut pas envoyer de messages. Naturellement, l’impact sur votre plan d’action va avoir pour conséquence de diminuer le nombre d’envoi, tout en gardant le même nombre d’ouvertures et augmenter votre taux de conversion. Le résultat est garanti !

Nous avons constaté sur ce type d’analyse les ratios suivants : - 25% d’emails envoyés / +7% d’emails ouverts / +9% d’ouvreurs / + 8% d’activations

Un levier supplémentaire pour augmenter ces ratios serait de travailler sur le contenu et d’offrir un contenu adapté à l’appétence produit du client. Une méthodologie d’algorithme d’association produit croisé à du scoring d’appétence produit doit vous permettre de gagner en performance. Sur ce dernier point, soyez vigilants à la capacité de personnalisation de votre outil de gestion de campagne.

Vous souhaitez en savoir plus, échanger sur votre environnement et vos chiffres, demandez à un de nos experts un RDV.
Bilan des soldes d’hiver 2018 : pourquoi faire un bilan d’activité clients ?

Avec l’émergence du Black Friday, la multiplication des ventes privées et des promotions régulières en cours de saisons, les soldes ne sont plus le RDV incontournable qu’elles étaient.
Sans surprise, les premiers bilans de cette fin de soldes d’hiver 2018 confirment que cette période de destockage attire de moins en moins de consommateurs en magasins physiques, comme l’indique le panel PROCOS : baisse de près de 4% d’activité en janvier 2018 vs janvier 2017, qui lui-même était en recul de plus de 6% vs janvier 2016.



Dans un contexte de promotions quasi-continues et de durée de soldes variable d’une année à l’autre (dès 2019, les soldes devraient être réduites de 6 à 4 semaines) : comment faire un bilan pertinent et exploitable de votre fin de saison ?
Parce que la mesure et la recherche constante de l’optimisation sont au cœur de notre ADN, nous vous proposons plusieurs analyses éprouvées pour réaliser un bilan d’activité complet orienté valeur client.

Réaliser un bilan sur l’année plutôt que par opération commerciale

L’effet de cannibalisation entre promotions et soldes perturbe les analyses et fatalement, effectuer un bilan par opérations commerciales perd de sa pertinence.
Pour citer l’exemple du secteur du prêt-à-porter, selon les données de l'Institut français de la mode (IFM), le poids des promotions dans le chiffre d'affaires du secteur a progressé de 5% pour atteindre 27% des ventes depuis 2014. Parallèlement, celui des soldes a reculé de 7% pour totaliser 20% des ventes d'habillement.



Et c’est là que l’analyse orientée client prend tout son sens.
Analyser la problématique sur l’année et d’un point de vue valeur client permet de prendre de la hauteur et de raisonner sur le ROI de vos actions :
  • Segmenter le portefeuille clients, en créant des groupes de clients homogènes en fonction de leur valeur et de leur comportement d’achat (Segmentation RFM).
  • Identifier les segments clients fidélisés grâce aux opérations commerciales de l’années.
  • Valider si le taux de générosité accordé par segment client est cohérent avec la marge contributrice générée.



Ensuite, il est nécessaire d’adapter en conséquence la répartition des enveloppes budgétaires (budgets promotions, taux de générosité) selon la valeur des clients que vous souhaitez recruter, fidéliser et réactiver.

Par ailleurs, d’autre indicateurs tels que le profil des clients, l’analyse des produits vendus, les comportements de navigation ou encore les baromètres de satisfaction… sont autant de variables qui permettront d’établir un bilan encore plus complet de votre saison.

Optimiser le taux de fidélisation post-soldes

Même si les chiffres atteints ne sont pas toujours à l’objectif, on observe régulièrement des pics de recrutement clients pendant ces périodes. Des clients captés par les différentes communications multicanal, qui viennent enrichir les bases de données.

Mais si le recrutement durant cette période augmente, il n’en est pas toujours de même de sa qualité.

Et c’est tout l’enjeu post soldes.
Comment distinguer les clients à potentiel, sur lesquels il faut investir, des clients opportunistes à faible potentiel ?



Dans ce contexte, au milieu de clients zappeurs sur lesquels les communications n’auront aucun un impact, se cachent les pépites qui demain deviendront des ambassadeurs de votre marque !

C’est dans cette optique d’optimisation de ROI que KYP peut vous accompagner. Via des algorithmes prédictifs performants, nous vous aidons à identifier les clients les plus susceptibles de rentrer dans votre cœur de cible et à les transformer !

__________________________________________________________________________
[1] PROCOS, la Fédération du Commerce Spécialisé, a constitué un panel de 50 enseignes sur leur performance dans 50 pôles de références situés dans 15 agglomérations
Source : LSA CONSO.fr, Le commerce specialisé boucle un mois de janvier en baisse de 3,5 % [PROCOS], article du 15 Février 2018

[2] Source : La Tribune.fr, A partir de 2019, les soldes ne dureront plus que 4 semaines, 10 janvier 2018
Comment donner un coup de boost à votre Segmentation transactionnelle pour améliorer les performances ?

Dans la catégorie des segmentations basées sur des méthodes descriptives, la segmentation de type RFM est l’un des outils les plus utilisés pour segmenter les bases de données Clients.
Cette analyse a amplement prouvé sa validité, sa robustesse et sa facilité de mise en place du fait du peu de données nécessaires. Elle répond parfaitement à la création d’une valeur client et donc de l’identification des 20/80. Ce premier step peut être suffisant dans de nombreux cas, néanmoins, elle ne prend pas en compte un élément important de la relation client, à savoir le cycle de vie de celui-ci.

En effet, ce type de segmentation est figé et est basé sur un historique. A l’instant T nous connaissons la valeur client passé et nous déduisons un comportement proche dans le futur qui oriente notre plan de ciblages. Pourtant les cycles de vie clients nous indiquent, par exemple, que certains clients à potentiel à l’instant T du fait de leur consommation, de leur profil, de leur comportement sur la période précédente seront churners dans un futur proche.
Nous devons donc répondre à la question suivante : « Suis-je en début de cycle / début de projet, suis-je au milieu, ou suis-je à la fin du cycle ? » Ce critère temporel nous permet d’apporter une personnalisation complémentaire dans le ton et le discours du message que je souhaite faire parvenir à mon client.

La solution que Know Your People vous propose, est de modéliser le cycle de consommation en créant un algorithme prédictif basé sur des données comportementales.

Pour exploiter le fruit de ce travail dans vos plans d’animation, nous vous proposons :
  • soit d’utiliser cet algorithme prédictif seul afin d’identifier les potentiels.
  • soit de mixer la segmentation descriptive (RFM) et le score prédictif de potentiel des différents segments. (notre recommandation)

L’idée d’utiliser la force couplée de l’algorithme RFM et de celui du scoring permet de déterminer la valeur du segment à l’instant T et probabiliser son potentiel futur ! La prise en compte du cycle de consommation nous permet d’augmenter les taux de conversion de près de 5%.

Ci-dessous, un visuel du croisement des 2 analyses :



Par regroupement, on obtient ainsi 9 segments pour lesquels on observe un niveau d’engagement croissant : Inactifs profonds, Inactifs réactivables, Nouveaux sans potentiel, Nouveaux à potentiel, Clients en risque, Medium, Bronze, Silver, Gold.
L’identification du niveau d’activité en fonction de la valeur actuelle nous permettra d’adapter plus finement l’offre à la cible.

Plus d’hésitation, venez challenger votre segmentation actuelle avec cette nouvelle approche KYP ! Essayer c’est l’adopter !
Comment les marketeurs peuvent-ils utiliser la Data Science pour mesurer la rentabilité de leur plan d'animation ?

Parmi les sujets sur lesquels nous sommes souvent sollicités par nos clients, la question de la mesure du ROI du plan d’animation occupe une place particulière.



En effet, lorsque l’on doit justifier de nouveaux investissements, tant humains que techniques, afin de développer l’animation clients, la question qui revient sans cesse est de savoir ce que rapporte le plan d’animation. A cette question, nous avons développé une réponse en 3 points essentiels qui permettent de créer les conditions nécessaires à la mesure de ce ROI.

1. Construire les bons étalons
Lorsque l’on évoque la mesure du ROI, on évoque mécaniquement la mesure de l’additionnel. Combien de chiffre d’affaires est-ce que j’arrive à générer en plus grâce à mon plan d’animation ?
Cette mesure de l’additionnel nécessite de construire des populations de référence qui serviront de base de comparaison dans les analyses. Nous préconisons d’en construire de 2 types :
  • Des populations témoins sur chaque opération : leur rôle est de mesurer l’additionnel qu’apporte chaque opération individuellement. Cela vous permettra d’identifier les opérations à pérenniser ou au contraire celles à abandonner
  • Une zone blanche figée à l’année : son rôle est de mesurer l’additionnel d’activité des clients animés versus cette population qui ne recevra aucune sollicitation. On est ici dans la mesure de l’additionnel du plan d’animation.

Ces 2 niveaux de mesure sont complémentaires. Ainsi la somme des additionnels individuels de chaque opération sera systématiquement inférieur à l’additionnel du plan d’animation (ce n’est pas parce que le client n’a pas réagi à cette opération qu’elle n’aura pas un impact sur le long terme dans les préférences d’achat de votre client), mais elle vous permettra aussi de mesurer le poids des impacts directs et indirects de l’animation sur le comportement des clients.

Malgré tout une question reste en suspens : à quelle opération dois-je affecter la performance lorsque plusieurs opérations ont lieu en même temps ?

2. Attribuer la performance à la bonne opération
Lorsque l’on met en place un plan d’animation assez dense, on peut rapidement se retrouver confronté à une problématique d’attribution de la performance à la bonne opération. En effet, doit-on considérer que c’est le premier contact qui a initié la démarche d’achat ? Ou au contraire que c’est le dernier contact qui est le déclencheur ?

En règle générale, les outils du marché ont des modèles d’attribution prédéfinis :
  • Au premier contact : la vente est attribuée au levier ayant initié l’achat
  • Au dernier contact : la vente est attribuée au levier ayant précédé l’achat
  • Équivalent : tous les leviers impliqués se voient attribuer la même pondération
  • Croissant : la pondération augmente à mesure que l’on approche de la date d’achat

Nous pensons que la réalité est plus complexe et doit tenir compte des spécificités de votre plan d’animation. En particulier, l’étude des courbes de remontée peuvent mettre en valeur des différences assez marquée sur la durée de suivi entre 2 opérations distinctes.

Un autre point à prendre en compte dans l’attribution de la performance est la notion de retour strict vs retour large. En effet, le fait d’identifier un code offre, un code produit ou un code remise spécifique à une opération va permettre d’identifier de manière plus sûre le déclencheur.

Fort de ces constats, nous avons développé notre propre algorithme d’attribution de la performance basée sur ces différents éléments.

3. Un process de mesure validé par les financiers

Nous travaillons avec les équipes financières pour valider la méthodologie et les KPIs à suivre pour valider la pérennité du process de calcul de rentabilité.

A cette fin, en plus de la mesure de l’additionnel, nous appréhendons la structure de coûts induits par le plan d’animation. On peut alors mesurer les gains marginaux (CA et marge) issus de l’investissement dans le plan d’animation.

Il n’est pas trop tard pour mettre en place ce type de démarche sur 2017, Contactez-nous !

Matthieu D.
Quand le prédictif s’invite dans les stratégies marketing 1/2

Le prédictif, un mot que l’on entend de plus en plus souvent… Sommes-nous prêts aujourd’hui à développer une vraie stratégie analytique autour des modèles prédictifs ?
Les techniques de statistiques prédictives ne sont pas nouvelles. Depuis plus de 20 ans, nous construisons des algorithmes afin de créer des modèles prédictifs robustes et performants qui améliorent toujours un peu plus l’expérience client.

Il existe trois paramètres importants à prendre en compte avant de se lancer :
  • La matière première : les data
  • La problématique : la variable ou le phénomène à expliquer
  • L’exploitation du modèle créé

Sur le premier point, notre bac à sable s’est très largement agrandi avec l’arrivée des data digitales. Si jusqu’à il y a encore quelques temps, les modèles prédictifs étaient construits à partir des données CRM classiques (transactionnelles, comportementales, socio démographiques), nous avons aujourd’hui accès à des données complémentaires qui viennent caractériser les comportements des consommateurs (données de navigations, sociales, et plus généralement les données digitales). L’enjeu aujourd’hui, est de pouvoir croiser les data de ces deux mondes (CRM & Digital). Les méthodes de réconciliation sont prêtes et les acteurs sur le marché proposent leur service à une qualité de matching qui devient intéressante (d’un point de vue statistique). Il ne reste plus qu’à définir la question à laquelle on souhaite répondre. Et c’est précisément ce point qu’il ne faut pas négliger !

Nous sommes convaincus que la construction de la « variable à expliquer » est un point majeur à la création de valeur future. Il est donc nécessaire de prendre le temps de définir une problématique qui soit réalisable et en adéquation avec la stratégie marketing. Que cherchons-nous à faire ? Réduire l’attrition ? Identifier l’appétence ? Maximiser la conversion ? Autant de sujet intéressant et d’actualité, mais qui restent généralistes et qui demandent à être préciser. Parle-t-on de contacts, de clients ou de prospects ? Intégrons-nous tous les segments de clients ou réalisons un focus sur une cible en particulier ? Vous l’aurez compris, il existe des filtres à intégrer dans la définition de la population à étudier. Ensuite, à nous de détecter les moments de vie et les cibles où nous maximiserons la conversion.

Le troisième point est peut-être le plus important. Il est indispensable d’utiliser / de tester / d’exploiter l’algorithme créé. Souvent nous remarquons qu’il existe de beaux scorings dans les entreprises, mais qui ne sont pas ou peu utilisés. Pour quelles raisons ? Juste parce qu’il existe encore une barrière de langage entre les dataminers / datascientists et le métier. Ou tout simplement parce que les équipes en place n’ont pas créé le modèle et donc n’en maîtrise pas les tenants et aboutissants. Sans oublier que les modèles prédictifs ont une durée de vie et qu’il est nécessaire, selon nous, de valider la véracité et la pérennité des algorithmes créés régulièrement. En d’autres termes, il ne s’agit pas de créer en one shot un score, mais il faut veiller à son application et sa performance dans le temps.
Un accompagnement dans les plans d’actions et la mesure des résultats peut-être nécessaire. L’objectif de performance peut alors augmenter de 15% à 20% avec un bon score, sur une bonne population, sur une bonne offre.
En d’autres termes, c’est un super outil prédictif, à vous, à nous de l’utiliser dans les meilleures conditions.
Contactez-nous pour faire le point !
AVIS D'EXPERTS : LE BIG DATA, PAR QUEL BOUT LE PRENDRE ?

Bon nombre d’experts se positionnent sur le sujet avec des convictions fortes et parfois opposées. Comment faire la part des choses entre ceux qui nous disent que cela va tout changer et les autres qui nous soutiennent que cela reste de l’analyse de données ? Quels sont les réels changements ? Sur quoi devons-nous être vigilants ? Comment ne pas tomber dans un projet sans fin sous le seul prétexte d’être présent sur le sujet ? Avec quelle organisation et quels profils ?

Notre vision reste le pragmatisme et l’itération du projet !

Tout d’abord, essayons d’en donner une définition : « Le principe des Big Data est de faire converger des données diverses et variées et de les exploiter à des fins de connaissance, de performance et d’usages. »

A chacun son niveau de maturité dans l’exploitation de la data et sur l’apport d’une telle démarche dans la stratégie de l’entreprise. Nous partageons l’avis de certains experts qui vont parler de SmartData. Car même si nous croyons à la puissance de la data dans sa plus pure exploitation, il existe encore un écart entre la réalité des projets mis en œuvre et les contraintes opérationnelles imposées aux équipes (budget, quickwins et ROI). Nous ne pouvons malheureusement pas tous allouer un budget R&D conséquent pour faire face à cette nouvel ère digitale ultra ciblée et connectée.

Mais, la question est bien de savoir comment nous continuons à avancer sur le sujet afin de ne pas être en retard dans les rendez-vous futurs que nous aurons avec les consommateurs.

L’offre KYP sur le sujet du Big Data est de vous faire gravir la montagne par étape et avec ambition. Grâce à notre passé ROiste, nous mesurerons l’apport de chacune de ces étapes au sein de votre marque/enseigne.

Pour cela, nous restons attentifs aux indicateurs des « V » du Big Data, car cela peut avoir un réel impact dans l’organisation, la réalisation et l’interprétation. Nous connaissons tous les « V » de : VOLUME, VARIETE, VELOCITE et VERACITE. A partir du moment où nous détectons l’activation d’un de ces « V », nous faisons appel à des experts internes et externes pour mesurer les enjeux du projet et mener à bien l’étape sur laquelle nous nous engageons.
N’oublions pas le « V », de VALIDITE qui à notre sens répond à la significativité et la robustesse des algorithmes (ce qui reste un éléments fondamental de la data intelligence). Et pour terminer le « V » de VALEUR, car après tout, c’est bien cette question qui est le nerf de la guerre (Valeur sur le business & Valeur sur l’intelligence créée).

Ce qui est certain, c’est que nous devons tous avancer dans cette course de la DATA INTELLIGENCE et qu’il faut commencer par un point de départ. Celui-ci est-il évident pour vous ? Nous serions ravis de pouvoir échanger avec vous sur le sujet.