COMPRENDRE LE CLIENT

Chloé Dupuy, Manager analytic retail chez Catalina est l’invitée de l’épisode 16 de Data Driven 101.

Elle nous explique comment l’entreprise Catalina utilise des algorithmes et du machine learning pour personnaliser les campagnes de promotion et comprendre le client en analysant son comportement.

Chloé Dupuy : Comprendre le client

Marc — 00:00 :

 Aujourd’hui, je reçois Chloé Dupuy elle a passé 10 ans dans la data, dont 5 ans dans la Banque, puis 5 ans dans la grande distribution chez Catalina. Aujourd’hui, elle est manager Analytics retail et encadre 3 data scientists, toujours chez Catalina. Catalina est une agence de marketing spécialisée dans la promo personnalisée qui existe depuis 30 ans et qui est présente en France, en Europe et aux États-Unis. Bonjour Chloé. 

 

– Chloé — 00:23 :

 Bonjour Marc. 

 

– Marc — 00:25 :

 Alors, Chloé, ce que tu peux nous parler de Catalina, qu’est-ce que vous faites exactement? 

 

– Chloé — 00:28 :

 Alors donc, comme tu l’as si bien dit, on est spécialisé dans la promo personnalisée? L’atout de Catalina, ça va être d’allier à la finesse de ciblage et la puissance de communication pour donner quelques chiffres au niveau mondial, on a 30000 magasins connectés à nos systèmes informatiques, on analyse 20 milliards de transactions chaque année et on suit en continu au niveau mondial 130000000 de foyers. Du coup, qu’est-ce qu’on fait de toute cette masse d’informations? Concrètement, on analyse le comportement d’achat des consommateurs pour de la grande distrib, pour mettre en place des stratégies de fidélisation de recrutement, via des activations personnalisées et Omni canal. Donc ça peut être du couponing ciblé en magasin ou en digital, du programme de fidélité d’engagement. C’est assez varié chaque année, Catalina met en place environ 30000 campagnes pour les grands noms de la grande distribution comme carrefour, Intermarché, Monoprix, Coca-Cola, Heineken, Danone, Nestlé aussi pour des PME françaises, Biorg, Andros, Karkadé, lac et voilà et plein d’autres marques présentes chez Catalina. 

 

– Marc — 01:49 :

 Et alors donc la data chez vous, comment c’est géré, comment vous l’utilisez, quel data vous avez? 

 

– Chloé — 01:54 :

 Alors du coup donc, nous, on reçoit toute l’activité transactionnelle des enseignes donc on va vraiment recevoir les données, ticket de Caisse des shoppers notre équipe data, elle, se divise en 2 grands pans. On apporte d’abord une équipe BI qui va gérer tout ce qui est récupération de la donnée, qualité de la donnée et accessibilité de la donnée, donc accessibilité évidemment aux équipes data mais aussi ce qui est très important, c’est de donner l’accessibilité aux équipes transverses. Pour qu’en fait on ait une autonomie d’utilisation de la data quotidienne par des consultants marketing, des commerciaux avec toujours pour objectif de dégager du temps pour des tâches à plus forte valeur ajoutée dans les équipes data. Donc voilà donc ça, c’est l’équipe BI qui en composé d’environ 8 personnes à côté de ça, on a l’équipe analytique dont je fais partie. On est environ 25 et voilà, on on va être dédié à des activités, on va avoir une équipe de data analyse et dédiée à l’activité plutôt enseigne retail, donc Monoprix. Carrefour, Intermarché, une autre équipe dédiée plutôt à l’activité, marque industrielle et en transverse. On a l’équipe data science qui va nous aider sur l’ensemble de nos activités, qui va intervenir sur différents plans qui sont mis en place sur les différentes enseignes. 

 

– Marc — 03:11 :

 Alors peut-être, on peut avoir un exemple pour chacune de ces équipes de tâches qui sont de leurs responsabilités. 

 

– Chloé — 03:17 :

 Oui, pour l’équipe BI développer une plateforme d’accessibilité de la data. Aux équipes, consultante marketing commerciales. 

 

– Marc — 03:28 :

 Un dashboard? 

 

– Chloé — 03:30 :

 Non, alors ça va plus être une plateforme d’utilisation de la data, ils vont pouvoir en en clic bouton prendre les datas dont ils ont besoin et générer des requêtes automatiques pour sortir des KPI business pour suivre leur business au quotidien. 

 

– Chloé — 03:42 :

 D’accord. 

 

– Marc — 03:44 :

 L’équipe analytique on va intervenir à différents niveaux, on va intervenir sur du ciblage avec de la recommandation de personnalisation. On va intervenir sur du bilan, évidemment du bilan de campagne mais aussi sur la mise en place bah d’algorithmes pour voilà, identifier des styles de consommation des cibles stratégiques appétentes à un produit, une marque ou appétente, un style de consommation aussi, par exemple des clients appétents à du bio, à des produits bien autrices colorées. Voilà, on va intervenir globalement à ce niveau-là. Danse de long terme. 

 

– Chloé — 04:20 :

 Comment tendance de de consommation? 

 

– Marc — 04:24 :

 Et alors l’équipe data Science? 

 

– Chloé — 04:26 :

 Et l’équipe Data Science? Bah elle nous aide à à développer ses algos et à les implémenter dans des plans qui sont souvent déjà existants depuis quelques années et en fait avec l’équipe data Science, on va chercher à toujours plus de personnalisation sur nos plans donc on va tester des algos sur des plans déjà existants et pouvoir ensuite. Analyser si cette personnalisation, elle améliore les performances de nos campagnes. 

 

– Marc — 04:50 :

Est ce que tu peux nous décrire une mission type avec la mise en place d’une promotion. 

 

– Chloé — 04:57 :

 Donc on a nos équipes commerciales qui vont-elles travailler directement avec les enseignes qui sont nos clients. Voilà qui vont avoir un besoin de recruter une cible de clients, ça peut être des cibles familles, des cibles seniors et ils vont mettre en place une campagne de couponing en magasin ou digital et ensuite bah nous on va récupérer un brief. De la part des équipes commerciales pour Ben mettre en place cette campagne avec toujours bah la prise de témoin, une partie des clients qui seront pas animés sur cette campagne donc du coup on va intervenir à ce niveau-là Ensuite la campagne a lieu et on récupère ensuite les données pour l’analyser et faire un bilan avec des recommandations marketing. Voilà ce qui a bien marché, ce qui a moins bien marché. Et avec tout, avec un objectif derrière de revente de l’opération pour l’année suivante ou un autre temps fort ou ou voilà. 

 

– Marc — 05:54 :

 Alors on a l’impression que la, la data, le même, la digitalisation, c’est quelque chose d’assez récent et c’est une entreprise qui a 30 ans. Qu’est-ce qui a changé depuis 30 ans? Qu’est-ce qui a évolué? 

 

– Chloé — 06:05 :

 Oui, bah en fait il y a 30 ans, nous on a commencé avec le le coupon papier et puis bah évidemment avec l’explosion du numérique Catalina, ça adapté et dès deux mille douze a mis en place des solutions digitales chez Catalina donc aujourd’hui ça nous a donné de nouvelles perspectives, des possibilités de ciblage, de personnalisation, de suivi qu’on pouvait pas faire avec le coupon papier? Du coup, on a une palette de solutions. Maintenant qu’on peut proposer à nos partenaires et depuis quelques années, le digital connaît vraiment une croissance exponentielle. Chez Catalina, on récupère aussi depuis 5 ans toutes les données drive. Donc ça contribue d’autant plus à la croissance du digital chez Catalina. Mais notre métier ne change pas fondamentalement, nous, en tant que data analyst, voilà notre pouvoir. C’est toujours d’apporter cette recommandation de personnalisation et d’aller au plus fin et de proposer de la meilleure offre aux bons clients au bon moment. Avec le bon canal. 

 

– Marc — 06:59 :

Tu me disais que vous aviez dû vous adapter, vous transformer ce que tu peux nous parler un peu de cette transformation, donc une équipe data? 

 

– Chloé — 07:09 :

 Alors effectivement, en 2022 on a vécu une transformation à Analytics qu’on a appelé Existas. Donc bah comme on l’a dit on a quitté SAS, cet outil qu’on utilisait tous depuis des années. Nous au départ on a décidé de se transformer pour 3 objectifs. Premièrement, c’était dans un souci d’automatisation, automatiser nos process. Pour gagner en temps pour gagner en productivité, en efficacité. Deuxièmement, c’était plus pour essayer d’enlever le plus de process Manuel dans nos bah dans nos process pour toujours avoir le moins de risque d’erreur et un taux de qualité qui s’améliore puisqu’on travaille pour des clients externes. Donc voilà, c’est quand même quelque chose qui recentre de notre quotidien. Et enfin pour pouvoir proposer des algorithmes à la pointe du marché de machine learning et d’intelligence artificielle. Du coup donc, on a quitté ça. Donc, avant on était sur ça, on pointait sur des bases de données qui n’étaient pas dans le cloud et aujourd’hui, on utilise le langage Python via un éditeur vs code.On a aussi accès à du Snowflakes, donc ce qui nous donne pas mal d’agilité pour construire nos bases de données, notamment à nos bases de données digitales, et avoir vraiment le l’utilisation. Enfin, construire la base de données qui va nous aider au quotidien pour nos tâches. Ensuite, on a l’équipe data Science qui utilise beaucoup data BRICS pour faire du des traitements Spark. Et enfin plutôt sur de la data Viz. Et bon ça, ça fait déjà quelques années qu’on l’a mis en place. On utilise du Power bi, voilà pour des bilans pour des reporting à destination de nos consultants marketing et nos commerciaux mais aussi de nos clients externes. Pour encore une fois les rendre autonomes sur l’utilisation de la data et voilà qu’ils puissent jongler avec les datas qu’on leur donne et sortir l’info la plus pertinente pour eux. 

 

– Marc — 09:06 :

 Alors ça, c’est enfin, c’est un logiciel. Moi je sais que je me fais cibler par leur pub. Ils viennent de signer. Voilà avec la Fédération française de rugby pour les les accompagner, et cetera. J’ai l’impression que c’est pas tout à fait un logiciel du passé, en tout cas peut-être pas en fin de course. Ce que tu peux nous parler des raisons qui vous ont fait quitter ce logiciel, on va dire les inconvénients ce logiciel. 

 

– Chloé — 09:27 :

Nous, on voulait automatiser le plus de process possible et c’est vrai que dans dans ce cas, voilà, on manquait d’automatisation sur des process qui sont assez récurrents chez nous et qui prennent beaucoup de bande passante à l Analytics. Voilà, il y avait voilà des imports de fichiers manuels, voilà des un manque d’automatisation parce qu’aussi c’est des process qui tournent depuis des années et voilà, nous on a une contrainte de toujours répondre aux besoins business, donc pas forcément tout le temps, la bande passante pour se concentrer sur un code et le revoir entièrement. 

 

– Marc — 10:00 :

 Ça permet pas à l’automatisation suffisamment, donc pas assez d’intégration avec les autres outils peut-être? 

 

– Chloé — 10:06 :

 Oui, alors on peut automatiser sur ça, si évidemment mais voilà, c’est traitements qui sont beaucoup plus longs, de façon là en temps de traitement, depuis qu’on est passé sur Python pour donner un chiffre. Bon c’est c’est grosso modo hein, parce que je les ai pas forcément en tête exactement mais sur un process hebdomadaire. Une requête qu’on devait lancer de manière hebdomadaire qui nous prenait à 4h tous les lundis matins. Bah aujourd’hui c’est un process qui va tourner en 30 minutes, en fait ça change, ça change le quotidien parce que. On a tout de suite nos résultats. S’il y a un problème, il faut qu’on soit réactif parce que c’est des campagnes qui sont mises en place dès le lendemain en magasin. Donc voilà, faut faut pouvoir intervenir assez rapidement pour que le client ait toujours l’offre quand il vient visiter son magasin préféré. 

 

– Marc — 10:54 :

 C’est quoi les conséquences d’une transformation au quotidien?

 

– Chloé — 11:01 :

 Alors, pendant la phase de transformation, nous, déjà, on a été accompagnés par un cabinet externe pour nous aider à faire cette transformation à migrer tous nos codes, parce que évidemment, on ne pouvait pas en faire pâtir le le business. Donc il fallait continuer à produire, à délivrer tout en faisant cette transformation, on a dû se faire aider avec tout le temps des data analystes, évidemment, qui étaient en accompagnement de ces prestataires pour toujours bien suivre que le code allait être converti. De manière à ce que ça réponde aussi nous à nos nos objectifs, à notre vision métier. Donc je dirais pendant la transformation. Voilà ce qui a été difficile, c’est d’aller la réponse aux besoins business et en même temps de se développer sur un nouveau langage qu’on ne connaissait pas du tout. On est tous devenus débutants, un peu comme si on retournait sur les bancs de l’école. Donc voilà, c’est une transformation qui prend du temps. Qui aujourd’hui on a pas encore atteint notre vision cible sur certains process, ça continue à prendre du temps parce qu’aussi les datas analyses ont dû se réapproprier. Les codes qui ont été convertis par d’autres personnes Souvent avec d’autres logiques. La réappropriation, la montée en compétences sur l’outil. Savoir aussi quel outil utiliser, à quel moment parce que maintenant on a vraiment une palette d’outils vraiment spécifiques pour chaque utilisation qu’on veut en faire, donc toujours se poser au moment d’une nouvelle mission, OK quel outil est le plus adapté, quel est celui qui va me permettre de gagner en efficacité, qui va me donner le meilleur rendu? Enfin voilà le meilleur, algo et cetera. 

 

– Marc — 12:29 :

 D’accord et cette perte de repères un peu de productivité, combien de temps ça a duré avant que vous vous sentiez vraiment à l’aise avec l’un nouvelle stack? 

 

– Chloé — 12:39 :

 Bien 6 mois. Ouais, je dirais ça. Après c’est, c’est difficile parce qu’y a pas eu un moment où on s’est dit bon, là c’est bon, on est expert sur Python, on continue d’apprendre aujourd’hui, en revanche, ce qui a été vraiment sympa à vivre et positif, c’est que voilà de se retrouver tous débutants sur ce nouvel outil. Ben ça écrit vraiment une cohésion d’équipe. Il y a eu beaucoup d’émulation, il y a eu beaucoup de voilà, de solidarité, de partage de types entre nous. On s’est organisé des petites formations Python pour voilà ce challenger entre nous. En réunion d’équipe, voilà, à chaque fois, on n’hésite pas à dire à ce que si vous avez rencontré des difficultés, que vous avez réussi à résoudre, partagez les parce que souvent, bah c’est rare que quelqu’un ne connaisse pas la même difficulté dans les semaines suivantes, donc ça a été vraiment un moment d’équipe très sympa qui a soudé l’équipe qui est plus dédiée au retail et l’équipe Mark et l’équipe Data Science. Voilà, il y a eu vraiment une cohésion de cette grande famille Analytics. 

 

– Marc — 13:39 :

 Et aujourd’hui, vous avez récupéré une maîtrise supérieure à ce que vous aviez avant avec votre ancienne stack. 

 

– Marc — 13:45 :

 Oui. 

 

– Chloé — 13:45 :

 Vous avez fait du coup pour papier, vous en faites encore. La digitalisation vous a amené à faire d’autres choses. Ce que tu peux peut-être nous parler des alternatives. Et puis si t’as une visibilité un peu sur ce que ça représente en proportion de vos missions aujourd’hui, le papier encore. 

 

Chloé

Alors, en termes de proportion, j’ai j’ai pas la vision de toute l’activité analytique sur l’activité digitale nous en ce moment on a une solution qu’on a mis en place chez Catalina qui s’appelle One. Qui marche très bien. L’idée, c’est que de plutôt réfléchir en bon d’achat en magasin, on va proposer des challenges dans la durée et en digitale soit présent sur nos sites et applications catalina ou présents sur les applis de nos partenaires enseignes. Et donc voilà, le but, ça va être vraiment d’engager les shoppers à travers des challenges promotionnels avec voilà, différents niveaux de gain, donc un côté assez ludique derrière ça, mais aussi des actions relationnelles pour interagir avec la marque avec les enseignes et on travaille avec plus de 40 marques sur cette solution. Donc voilà, c’est quelque chose qui est vraiment en train de se développer chez Catalina, qui marche super bien. 

– Marc — 15:00 :

 Alors, t’as passé 5 ans dans la promotion, t’as sans doute des bons conseils. Bonne vision. Des écueils entièrement des astuces pour quelqu’un qui veut faire de la promotion. Est-ce que tu peux nous partager quelques trucs? 

 

– Chloé — 15:12 :

 Donc je dirais le le point global, c’est la personnalisation. Parler au client au bon moment avec la bonne offre sur le bon canal, ça c’est vraiment l’objectif. L’intérêt, ça va être de trouver justement cet arbitrage entre. Proposer l’offre la plus attractive pour le client tout évidemment, en gardant un niveau de rentabilité qui est bon. Donc justement, nous, on a des algos qui permettent de gérer ces choses-là qui vont par exemple proposer la meilleure combinaison, effort, générosité, un client.Vous allez en magasin, on vous demande d’acheter pour 3€ de fruits et légumes et on vous offre 0,50€ Ben l’algo il va définir pour chaque client quel meilleure combinaison pour lui. On va l’intéresser parce que c’est plutôt d’avoir une forte générosité. Et dans ces algorithmes, donc ça va proposer ça à chaque client, de la manière la plus optimale, mais tout en respectant une fonction de coût qui va être la rentabilité de la campagne. C’est voilà, c’est d’aller dans la personnalisation, mais en gardant en tête que voilà, il faut évidemment que les campagnes soient rentables. 

 

– Marc — 16:20 :

 Comment on mesure la rentabilité d’une campagne? 

 

– Chloé — 16:23 :

 Alors bah la rentabilité, ça va être un un rapport entre l’additionnel qu’on a généré et les coûts que cette campagne a engendré la additionnelle sur la plupart de nos campagnes. Je dis bien la plupart parce que c’est pas toujours possible, on va faire de la prise de témoin, donc une partie des clients qui ne vont pas être exposés à cette campagne dans le cas où bien sûr c’est une campagne qui est pas annoncée en magasin parce qu’évidemment dans ce cas-là on peut pas mettre des clients de côté. Parce que sinon les clients se plaignent. Donc voilà, on va faire de la prise de témoin en assurant évidemment la représentativité de nos 2 groupes sur différentes variables de contrôle selon les les clients qu’on va animer et puis ensuite au moment du bilan, on va regarder ce qui se passe, le comportement d’achat des clients qui ont été contactés par un coupon ou qui ont été sur leur appli et qui ont activé un challenge. Par rapport à ces témoins qui n’ont rien reçu? Et voilà, on va regarder combien ils ont dépensé ce qu’ils sont plus venus, ce qu’ils ont acheté. Est-ce qu’ils ont acheté plus de produits promus qui étaient proposés dans cette campagne, ou est-ce qu’au contraire, ça les a fait aller dans d’autres catégories? On va regarder aussi, par exemple si quand on a des plans de longue durée, si le client est devenu un un meilleur client au sens marketing. Grâce à ces campagnes là, en analysant des matrices de transfert de segmentation. Rfm par exemple, et après, dans les coûts. Ben effectivement il va y avoir les coûts d’impression des coupons, les coûts d’envoi d’emails. Enfin, selon le canal utilisé et les coûts de générosité qui ont été distribués aux clients. Voilà, et donc ça nous donne les la rentabilité des campagnes. 

 

– Marc — 18:01 :

 D’accord, donc AB testing finalement, avec des magasins entiers pour pas léser certains clients d’un magasin et on arrive à peut-être se rendre compte sur l’ensemble des produits achetés. Est-ce que certains ont été achetés moins souvent à cause de la promotion? Certains au contraire. 

 

– Chloé — 18:20 :

 Alors c’est peu probable qu’on achète moins parce qu’y a une une promotion, c’est plutôt, ça n’aura aucun impact ou au contraire, la promotion fait venir plus les clients. Je voulais compléter par rapport à ça parce que bon je disais qu’il y avait une majeure partie de nos campagnes sur lesquelles on tire des témoins mais donc parfois c’est pas possible et dans ces cas-là l’équipe data Science a travaillé sur un gros projet c’est derniers mois qui va utiliser. Des algorithmes qui vont permettre de tirer des témoins à posteriori pour mesurer des impacts de campagne sur lesquels on n’a pas pu mettre en place de témoins. Et on utilise l’intelligence artificielle pour chercher les groupes de clients qui ressemblent aux clients qui ont été exposés à cette campagne, pour pouvoir quand même mesurer quelque chose. Donc ça, c’est la grande nouveauté parce qu’on a quand même des grosses campagnes nationales sur lesquelles on ne peut pas prendre de témoin. Et voilà, c’est évidemment plus compliqué pour mesurer un impact qui soit réel et significatif d’un point de vue statistique. 

 

– Marc — 19:22 :

Si je prends l’exemple, qu’on prend souvent quand on parle de de cannibalisation des ventes, la lessive, par exemple. Bon, c’est une promo sur la lessive que c’est ma marque. J’en prends 6 mois et puis pendant 6 mois j’en achète pas au prix plein. Tarifs Comment vous mesurez un peu cet effet? 

 

– Chloé — 19:43 :

 Tu veux dire que du coup, le client il fait des stocks. 

 

– Marc — 19:52 :

 Alors, avec la promo quoi, il en profite. 

 

– Chloé — 19:54 :

 Alors sur les produits qu’on achète, de manière, disons pas quotidienne, c’est plus compliqué. Alors nous, souvent, on est quand même sur de l’alimentaire, donc c’est on a, on n’a pas une campagne spécifique pour la lessive enfin notamment alors si pardon je pourrais un peu ça, ça va être plutôt côté marque. Moi, je suis au niveau retail donc c’est vraiment global de l’enseigne, ça va être plutôt sur des rayons là du rayon produit hygiène mais un rayon global ça va pas être sur un produit donc au final voilà c’est pas quelque chose qu’on ressent parce que c’est pas un produit hein particulier mais en effet ce problème peut se poser par exemple, dernièrement on on travaille sur un algorithme de churn, donc c’est comprendre en fait de savoir distinguer le client qui ne fait plus ses courses dans cette enseigne. Ouais, parce qu’il a trouvé une autre enseigne qui propose bah dans un contexte inflationniste, des produits moins chers et donc pour la perdu de listing d’un client qui bah voilà un de ses enfants est parti du foyer parce qu’il est grand, il prend son appartement ou je sais pas, y a un divorce donc y a une baisse de besoins donc une baisse de consommation mais sur laquelle on ne peut rien faire. C’est une baisse de besoin et vraiment un une baisse de consommation sur quelque chose qu’on peut intervenir et donc ça ça va être plus. Bah on va regarder des produits un peu marqueurs. On se dit si un client il achète plus. Du jour au lendemain, des fruits et légumes. Bon bah c’est potentiellement qui les achètent d’ailleurs en fait ils pas se passer de cet achat qui est quotidien sur des produits, plus de stock voilà peut y avoir une promotion à un moment dans une autre magasin, ça veut pas dire qu’on a perdu définitivement le client. Voilà, c’est des algorithmes qui sont compliqués à mettre en place. 

 

– Marc — 21:37 :

 À mesurer. 

 

– Chloé — 21:38 :

 Ouais et surtout que Bah nous, c’est justement quelque chose qu’on c’est une donnée, alors on a beaucoup de données, mais les données de géolocalisation des clients, c’est quelque chose qui qui qui nous manque, voilà de savoir OK le client, il habite ici. Si on regarde la localisation des magasins autour de son lieu d’habitat, Ben en fait, on voit qu’il y a une enseigne concurrentielle à côté et on voit qu’il part OK donc ça ça ça peut nous donner une information supplémentaire sur son type de charme, mais on n’a pas cette INFO. 

 

– Marc — 22:06 :

 Il faut vraiment rentrer dans le détail pour comprendre. 

 

– Chloé — 22:08 :

 Quoi ouais, c’est beaucoup de temps de finale, c’est pas tant l’algorithme qui est compliqué à mettre en place, c’est plus de définir la cible en fait, comment se comporte un client qui part d’une enseigne et d’un et qui peut parvenir quoi

 

Marc

 et au niveau de la rentabilité des promotions? C’est dans l’imaginaire collectif. Y a un peu l’idée de s’ils le font, c’est que ça leur rapporte de l’argent et je me demande quel est la proportion en fait des promotions qui sont faites à tort, entre guillemets. Parce que ça t’arrive souvent d’analyser une promotion passée et se rendre compte que c’était pas une bonne idée. 

 

– Chloé — 22:44 :

 Oui, bien sûr, ça arrive, c’est aussi des tests et en fait, on va toujours avoir le la volonté de s’améliorer et de faire en sorte que ça marche, donc comprendre pourquoi elle a pas marché cette promotion, parce qu’on était sur un périmètre produit trop petit. Bah c’est pénétré. Est-ce que Ben en fait il nous manque justement un critère de personnalisation pour vraiment bien toucher le bon client? Est-ce que c’est une campagne qui n’a pas duré assez longtemps? Voilà parce qu’on a des durées de validité aussi des campagnes, donc j’ai dit n’importe quoi. C’est une campagne qui dure 2 semaines et qu’on est plutôt sur des cibles de clients qui viennent une fois par mois. On peut en louper certains. Bon, c’est quelque chose qui n’arrive pas parce que bon, on fait de la personnalisation, donc on s’assure de bien tout combiner. Mais bien sûr ça peut arriver sur des nouveaux dispositifs qu’on connaît pas. Voilà, on peut bah se rendre compte que ça marche pas mais avec toujours derrière des recommandations OK comment on peut faire pour que la prochaine fois ce soit un succès? Et souvent, on arrive à à faire en sorte que ça un succès, et si ça l’est pas, bah on arrête. Et puis on on trouve autre chose. 

 

– Marc — 23:46 :

 Tu nous as parlé un petit peu d’algorithmes, de machine learning chez vous le machine learning, où est-ce qu’il intervient? Quels sont les usages? 

 

– Chloé — 23:53 :

 Bah en fait, on va intervenir à différents moments, je dirais de la campagne, on va intervenir sur du ciblage avec Ben par exemple. Des algorithmes de recommandation produits savoir quels propos du proposer aux clients des algorithmes qui vont proposer le l’offre la plus intéressante. D’un point de vue financier pour le client, ce que je t’expliquais tout à l’heure? L’algo qui va proposer la meilleure combinaison et fort générosité. On va aussi intervenir encore une fois sur du ciblage, mais pour identifier des cibles stratégiques.des cibles appétentes à une marque, à une catégorie, à des styles de conso. On va intervenir au niveau machine learning sur des bilans avec par exemple des algorithmes de type thé ratifiés pour redresser les populations témoins pour faire des mesures. Ben parfois en fait, on va remarquer qu’il y a des distorsions entre nos témoins. En fait post campagne, parce qu’on va analyser, nous les clients, qui ont été vraiment exposés à la campagne et donc on crée une distorsion avec nos témoins, donc ça va être voilà, on va utiliser des algos de type Calmar maintenant Ikarus pour redresser ces témoins à les rendre comparables. 

 

– Marc — 25:00 :

 Enlevé du billet? Enlever du biais d’un des 2 desserts. 

 

– Chloé — 25:02 :

 Tout à fait et donc voilà sur du bilan là-dessus et plus récemment, comme je le disais sur de la mesure sans témoin, utiliser de l’intelligence artificielle. Pour trouver des groupes de clients, on va pouvoir analyser pour donner des impacts. Voilà j’en oublie surement mais le champ des possibles est assez large, intervient différemment. 

 

– Marc — 25:23 :

 Pour les algos qui enlèvent du biais sur les datasets témoins est-ce que tu peux nous donner un peu un exemple de comment ça fonctionne enfin nous parler un peu de ça alors, 

 

– Chloé — 25:32 :

 Ce qui est intéressant, c’est que l’équipe Data Science travaille pour que ce soit des packages faciles à utiliser pour les équipes data Analyst, donc en gros on a ce qu’on appelle des toolkit. Avec toutes ces différentes méthodes. On utilise dans notre quotidien, donc bah la prise de témoin, le redressement de témoins, le calcul additionnel, ça va être dans des packages qui sont construits par l’équipe data Science et que nous on va pouvoir implémenter dans nos codes pour utiliser pour chaque analyse la même método surtout pour qu’on soit vraiment uniformisé sur les méthodes qu’on utilise, qu’on gagne aussi en temps parce que c’est des tâches qui se répètent. Mais voilà, globalement ça va être des packages sur lesquels on va pouvoir rentrer. Nous nos paramètres à quel niveau ces témoins ont été tirés. C’est un nouveau segment, RFM est-ce que c’est un niveau d’une autre segmentation? On va mettre aussi le nom d’itération qu’on souhaite pour se redressant. C’est un algo qui fonctionne de type itératif, donc voilà, on va pouvoir faire varier ce paramètre et voilà. Mais nous on requête pas l’algorithme à chaque fois qu’on fait nos bilans, on utilise des packages qui sont construits en interne. 

 

– Marc — 26:36 :

 Une boîte à outils interne. 

 

– Chloé — 26:37 :

 Une boîte à outils interne. Du coup là pour le redressement, on utilise la método, anciennement calmar, devenu ikarus. Voilà pour un calage de population statistique. 

 

– Marc — 26:49 :

 D’accord, tu peux nous parler de ta plus grande déconvenue avec la data? 

 

– Chloé — 26:53 :

 Alors des convenus, des convenus. C’est difficile à dire enfin c’est des convenu bon frustration quoi. Parfois on va se dire si on avait cette donnée là on pourrait aller beaucoup plus loin, on pourrait voir si OK c’est pour ça que ça n’a pas marché ou c’est pour ça que ça a marché ou de pouvoir cibler davantage de cibles appétentes donc je te disais par exemple pour les données de géolocalisation. C’est quelque chose qui nous manque. Je dirais aussi parfois la difficulté d’accessibilité de la data quand c’est bah nos clients qui doivent nous envoyer une data. On a du mal à la récupérer ou nous-mêmes en interne. Parfois il y a de la donnée qu’on imagine simple à récupérer et en fait bah ça peut être un peu compliqué parce qu’on connaît pas bien l’interface qu’on ne sait pas réellement ce qu’il y a derrière. Enfin en fait, avant d’être sûr de mesurer la bonne chose, bah on a pas mal d’interactions avec nos équipes, I aussi hein pour faire des tests et être sûr qu’auxquels là on a la bonne donnée. Voilà donc je dirais, ça peut être aussi sur voilà, on a plein d’idées d’algol à mettre en place parfois. Malheureusement, ils s’adaptent à des campagnes, mais c’est des périmètres trop petits, donc on en fait, on peut pas le mettre en place donc ça peut être assez frustrant parce qu’on sait que c’est quelque chose qui marcherait. 

 

– Marc — 28:07 :

 Mais le périmètre trop petit, ça veut dire quoi par exemple? 

 

– Chloé — 28:09 :

 C’est des campagnes qui vont être faites sur des périmètres de produits trop petits, avec peu d’acheteurs sur des marques innovantes par exemple. 

 

– Marc — 28:17 :

 Passer de volume, passer les algos? 

 

– Chloé — 28:19 :

 Explique oui parce que bah parfois on va tester un algorithme sur une campagne avec des grosses volumétries pour être sûr de pouvoir lire quelque chose à la fin. Puis on se dit, Bon bah cet algo, il est vraiment bien marché. On aimerait le tester, il serait très impactant sur cette campagne là. Malheureusement on peut pas en fait le, le périmètre est trop petit donc voilà, 

 

– Marc — 28:36 :

 Et quand est-ce que t’es la plus contente de ce que tu fais? 

 

– Chloé — 28:39 :

 Il y a plein de moments, je suis contente, mais bah quand on justement on se met autour de la table avec l’équipe data science qu’on va réfléchir à à on a une campagne qui marche très bien depuis des années, mais voilà, on a toujours besoin de renouveau. De montrer qu’on avance, donc on va se mettre autour de la table avec l’équipe data Science, on va réfléchir ensemble, on va mettre en place des tests, donc on va suivre tous ensemble les résultats au fur et à mesure de cette campagne et de voir que le test a marché. Et justement, bah là on est content quand on voit que plus de personnalisation ça marche, qu’on le présente au client, qu’il est content, qu’il se dit Ah ouais en fait vous nous proposez vraiment une solution intelligente? Et ouais, la personnalisation c’est l’avenir et c’est ce qu’il faut et faut toujours essayer d’aller plus loin là-dessus Donc je dirais que c’est ça et puis bah aussi voilà de pouvoir valider ou invalider des hypothèses. Déchiffrer qu’ouais, c’est vrai ou au contraire bah non en fait vous vous trompez, on s’imaginait ça mais mais c’est tout le contraire qui se passe en fait pourquoi? Et ouais ça c’est hyper challengeant intellectuellement et t’as un exemple pour nous de situation dans laquelle l’intuition a été complètement invalidée par le. 

 

– Chloé — 29:43 :

Là, je pourrais pas dire un exemple comme ça, mais c’est assez rigolo parce qu’en fait, les équipes, les, les gens, ils vision de la data comme un peu on, on est Madame Irma quoi, on a une boule de cristal et et essayer de nous estimer ça et de prédire vraiment l’avenir parfois. Alors, prédire l’avenir pour prédire s’il y a un client, il va vouloir acheter ça dans le futur, on sait faire, mais à prédire par exemple. Ok cette campagne, combien va nous rapporter ce que les clients vont être intéressés vraiment par par ce truc? Bah en fait des fois on dit OK alors nous on fait de la data, on n’est pas non plus des voyants, on va pas pouvoir non plus vous donner tout ce qui veut passer dans l’avenir et mais c’est assez rigolo de voir ça et parfois on arrive à le faire et en fait les gens nous voient comme enfin en tout cas chez Catalina nous voient comme des. Des montréalistes et c’est assez rigolo donc voilà.

 

– Marc — 30:34 :

 Ce que tu peux nous partager une anecdote qui te vient? 

 

– Chloé — 30:37 :

 Alors je mets beaucoup de temps à raconter les histoires, donc ça serait de déborder mais du coup on travaille avec la data donc sur des campagnes par exemple on va prendre des cartes test chez nous. Des les catalyseurs ont des cartes chez Intermarché chez Carrefour et on va tester avec avec les cartes avec leur accord. Bien sûr. Ok est-ce que t’as bien reçu ce coupon? Est-ce que t’as bien reçu ce challenge machin et du coup parfois on va pouvoir voir à ce qui consomme ou découvrir. Je sais pas OK Bah toi tu manges très sucré, c’est des choses un peu marrantes. Une fois on avait mis en place une segmentation cycle de vie pour une enseigne donc pour vraiment estimer la tranche d’âge dans laquelle se trouve le client donc l’enseigne qui nous avait donné des cartes test. À eux pour tester notre algo et en fait, voilà, il y avait une des clientes qu’on avait segmentées en en tranches d’âge, 60, 70 ans, qui en fait était avait plutôt entre 40 et 50 ans. Donc en fait, on s’est retrouvés au au rendez-vous en disant Bon bah elle dit bah c’est vrai, c’était ma carte et j’ai je suis pas partie, la tranche d’âge chausson 70 et du coup c’est des moments un peu gênants mais ça fait partie aussi de la data et des comportements atypiques qui existent. Et bon voilà. Pas de chance, l’algo s’était trompé. Enfin, une carte test. 

 

– Marc — 32:01 :

 Ouais y a la, la fameuse anecdote de Target là-dessus, où une femme c’est y à recevoir de la pub pour des couches bébé. 

 

– Chloé — 32:08 :

 Oui voilà ouais, ouais ouais

 

– Marc — 32:16 :

 Il y avait une histoire de comportement alimentaire qui avait changé. Et donc l’enseigne. Enfin, l’algo avait suggéré que la la femme était enceinte, quoi, et elle était enceinte? 

 

– Chloé — 32:24 :

 Ben ça, c’est un algo qui marche. 

 

– Marc — 32:25 :

 Bien du coup, quel profil vous recrutez catalina? 

 

– Chloé — 32:32 :

 Alors déjà, on recrute notre futur chef aujourd’hui donc voilà donc faut qu’on partage. Alors on recrute souvent parce que du coup on est une grande équipe donc il y a souvent un poste ouvert. On va recruter des data analystes donc évidemment qui ont une très bonne connaissance, python mais aussi on essaie de toujours avoir le l’alliance entre compétences techniques mais aussi à appétence marketing, voilà la capacité à analyser vraiment la valeur marketing derrière une campagne donc aussi une capacité à communiquer. Avec des équipes qui sont pas dans la data, pouvoir les présenter en rendez-vous client, être à l’aise à l’oral, voilà. En gros ça voilà. 

 

– Marc — 33:14 :

 Ok. Et est ce que t’as un conseil pour quelqu’un? Enfin, pour une entreprise qui voudrait se lancer dans la promotion et donc utiliser la data, appliquer à ces promotions. 

 

– Chloé — 33:27 :

 Bah justement, je dirais du coup de pas se borner à à ce secteur en particulier. En fait, la data, elle s’applique à des secteurs très différents. Et ton podcast le démontre, hein? Tu reçois des gens qui bossent dans la data mais dans des secteurs très variés et en fait, on veut tous derrière la même chose. C’est connaître derrière la la les gens honnête les clients et donc en fait s’adresser de la meilleure manière à ces gens-là et du coup je dirais que ce serait s’ouvrir en fait à différents secteurs, de faire de la veille, de s’inspirer de ce qui est fait. Bah par exemple nous récemment on a une de nos collègues qui a assisté à un meetup. Sur des algos de Reco chez Deezer et Spotify donc rien à voir avec nos activités mais elle est revenue et elle nous a partagé tout ce qu’elle avait appris et en fait c’est hyper intéressant et on voit que derrière il y a vraiment le même objectif donc c’est très inspirant donc je dirais voilà, c’est vraiment de s’ouvrir à tout ce qui peut être fait sur le marché, participer à des congrès, à des des meetups 

 

– Marc — 34:27 :

 Et Ben merci pour le Conseil, Chloé. 

 

– Chloé — 34:28 :

 Merci à toi. 

 

– Chloé — 34:30 :

 Vous venez de rejoindre Chloé Dupuy Manager Analytics. Stage chez Catalina sur Data driven One One la semaine prochaine, je recevrai Alex Haag, expert en voiture autonome, si vous avez aimé que vous voulez nous soutenir, n’hésitez pas à partager et à suivre l’émission sur votre plateforme préférée à très vite.