DATA ET PANIER REPAS

DATA et paniers repas : Laure Lapostolle, DG adjointe de Quitoque et invité de l’épisode 5,  nous dévoile les usages surprenants de la data dans une entreprise de livraison de repas en kit.

Laure nous offre un tableau complet des applications efficaces de la Data Science et du Machine Learning mises en œuvre par ses équipes : 

👉 Comment doit-on faire évoluer ses indicateurs avec sa croissance et quels sont les pièges à éviter ?

👉 Qu’est-ce que le Machine Learning peut faire pour aider la planification ?

👉 Qu’est-ce que le RGPD peut avoir de positif pour une entreprise ?

Data et paniers repas : Laure Lapostolle

– Marc :

 Aujourd’hui, je reçois Laure lapostolle, DG adjointe, de qui toque. Elle est diplômée de l’essec. Elle a suivi le parcours graduate finance chez Legrand et elle a ensuite rejoint, quitté en 2017 en tant que Daf, elle créé la fonction data avant de devenir déjà adjointe Quito. C’est une entreprise créée en 2015 avec pour ambition de réenchanter la cuisine du quotidien en supprimant la croisée des courses. En 2017 ils ouvrent leur première entrepôt 2019 Ils lancent les ventes en direct producteur et en 2020 forte accélération de kitt et du e commerce en deux mille vingt et un, doublement du catalogue de recette avec plus de 30 recettes chaque semaine. Aujourd’hui, c’est un acteur de premier plan de la Food tech en France, sur un marché toujours plus concurrence. Bonjour Laure. 

 

– Laure :

 Bonjour Marc, merci pour l’invitation. 

 

– Speaker 2 :

 Avec grand plaisir. Alors, Laure, est-ce que tu peux nous dire avec tes mots, qu’est-ce que vous faites chez Toc et ton rôle là-bas? 

 

– Laure :

 Alors chez qui toc? Ce qu’on fait, c’est qu’on livre des box à cuisiner. Concrètement, comment ça marche? Nos clients vont choisir chaque semaine les recettes qui veulent cuisiner parmi un menu donc de plus de 30 recettes qui changent chaque semaine. Ensuite, on va sélectionner soigneusement les ingrédients et préparer un colis pour chacun de nos clients, avec les ingrédients dans les justes quantités, tous les ingrédients dont ils ont besoin et des fiches recette, et ensuite on leur livre le colis chez eux. Concrètement, nos clients vont faire appel à nous pour 3 raisons principales. La première, c’est l’inspiration pour finalement arrêter de se poser la question du qu’est-ce qu’on mange ce soir? La 2ème, C’est parce que c’est quand même drôlement pratique de faire ses courses en 5 minutes et de le recevoir chez soi sans gaspillage alimentaire en plus, puisqu’on livre les ingrédients dans les justes quantités. Et la 3ème, C’est la qualité de nos produits. Mon rôle à moi en tant que déjà adjointe, c’est, je dirais 2 missions principales. La première, garantir à nos clients une expérience. Irréprochable de bout en bout et la 2ème, c’est finalement de réaliser notre trajectoire de croissance et de rentabilité. 

 

– Speaker 2 :

 Ok alors la data chez vous, à quoi et à qui ça sert? Comment vous gérez ce sujet? 

 

– Laure :

 Alors, ce qui est intéressant chez Quick, c’est qu’on a beaucoup de métiers différents parce qu’on a fait le choix d’internaliser presque toute notre chaîne de valeur, donc on va avoir des personnes qui créent des recettes, des acheteurs qui sont en charge de dénicher des super bons produits, des préparateurs de commandes, des agresseurs de fruits légumes, des développeurs RTT un service client, et cetera. Et donc ça finalement, ça va nous donner énormément de données. Et je crois qu’aujourd’hui tout le monde dans l’entreprise est client d’une manière ou d’une autre de l’équipe data. On est une entreprise qui est assez data-driven. 

 

– Speaker 2 :

 D’accord, il y a une équipe data, donc de ce que je comprends quelle est sa taille, quand est-ce que vous l’avez créé, disons, dans votre Map de développement. 

 

– Laure :

 Oui, alors effectivement, on a une équipe data qui est indépendante finalement, mais qui travaille en lien étroit avec les différents métiers. La première Data Scientist, qui était une femme d’ailleurs de KitKat et arrivée en 2018 et ensuite on a créé l’équipe sous son format actuel en 2019 Aujourd’hui, on est une équipe de data Scientist et de Data Analyst qui sont assez couteaux suisses et qui vont chacun regrouper 2 expertises, une expertise technique qui va être par exemple la data analyse le Tracking là datation, ce l’automation et aussi une expertise métier. De cette manière, le marketing, l’équipe de création culinaire, les opérations, chaque métier en fait, va avoir un référent bien identifié au sein de l’équipe data, qui comprend particulièrement ces enjeux. Et c’est problématique de visiteurs externes sont souvent surpris par là maturité de notre écosystème data. Donc je pense qu’on est pas trop mal pour notre taille et notre âge et ça nous empêche pas d’avoir plein de projets et d’idées pour la suite. 

 

– Speaker 2 :

 Ok alors pour nous donner une idée justement de la taille et de la taille de l’équipe data, on va dire allez. 

 

– Laure :

 Alors au global, chez Tok, aujourd’hui, on est plus de 190 employés répartis sur les différentes fonctions dont dont je te parlais avant. 

 

– Speaker 2 :

 Entendu alors Ben pour rentrer dans le vif du sujet, ce que tu peux nous partager, une décision business concrète que vous avez pris grâce à la data? 

 

– Laure :

 Oui, tout à fait. Alors quelque chose qui a été assez structurant, je dirais dans notre croissance, c’est la façon dont on mesure les performances du marketing. Historiquement, on regardait beaucoup le nombre de nouveaux clients qu’on recrutait et c’est un peu comme ça qu’on évaluait l’efficacité de notre marketing pour construire un business model qui est robuste dans la durée. Finalement, c’est important aussi de bien intégrer et très tôt dans le parcours la notion de rétention et donc de s’assurer que les clients qu’on recrute sont bien les clients qu’on cible. Sont des gens à qui le produit qui te correspond et donc on s’est rendu compte aussi qu’en pilotant, voilà cette efficacité marketing seulement au nombre de nouveaux clients recrutés. On pouvait être amené à prendre des décisions qui a, à moyen long terme, n’étaient pas forcément les bonnes. Donc voilà, on a pas mal réfléchi, itéré et au bout d’un moment on est arrivé à trouver le bon indicateur pour capturer ça qui était la lifetime value à 5 semaines. Donc la Life time value à 5 semaines, ça veut dire pour nous le le chiffre d’affaires que va générer un nouveau client sur ces 5 premières semaines, d’accord et ça, ça permet de s’assurer que les clients qu’on recrute sont bien dans notre cible et ça a l’avantage d’être. Voilà plus riche que simplement un nombre de nouveaux clients ou un panier moyen du premier client, et d’être quand même sur un horizon de temps assez court de 5 semaines qui permet de garder une bonne réactivité si on s’aperçoit que ça dérive ou à l’inverse qu’on est dans une bonne dynamique. 

 

– Speaker 2 :

 Oui, c’est un compromis entre la vraie métrique qui serait la Life time value de toute la vie mais qui du coup donnerait pas une très bonne réactivité. Et le fait de justement de pouvoir en fait avoir un indicateur sur comment étaient les ventes il y a 5 semaines finalement. 

 

– Speaker 2 :

 Exactement. 

 

– Laure :

 Est-ce que tu peux nous décrire le pilotage Day Today de ton côté? Oui, alors il y a pas mal de choses et ça dépend évidemment de quel métier, puisque chaque équipe à ses indicateurs et sa temporalité, on a des indicateurs qu’on va suivre en temps réel. Bien un outil qui s’appelle Ghana et ça, ça va être utilisé beaucoup par les opérations pour mesurer en temps réel à l’entrepôt des indicateurs de productivité et de qualité de service, donc ils vont mesurer par exemple la cadence sur la chaîne. D’ailleurs, on en a 2 en miroir et donc c’est un petit peu la compétition entre la chaîne de gauche et la chaîne de droite pour voir qui avancent le plus vite et on a aussi des indicateurs de qualité puisqu’on va par échantillonnage, contrôler des colis pour s’assurer qu’ils sont complets. En fait, avec les bons produits et ça, ça nous permet de détecter tout de suite si il y a une erreur dans le réapprovisionnement de la chaîne. Donc si par exemple pour une raison XY un opérateur a mis des poireaux à la place des carottes lors de ce contrôle, on va voir tout de suite qu’il y a un problème sur un article. On va pouvoir remonter à l’emplacement concerné et corriger tout de suite pour éviter que tous les colis suivants, finalement, et le mauvais produit? De la même manière, par exemple, on va analyser quasiment en temps réel les retours clients sur des éventuels incidents qui ont pu constater et une anecdote un peu rigolote, c’est que ça nous a permis de détecter un problème de réglage sur la machine de conditionnement d’un de nos fournisseurs. On a vu, en analysant ces retours clients qui avaient un taux de d’anomalie anormal sur des barquettes des sous vides et en en contactant le fournisseur. Ben il a pu se rendre compte, il n’avait pas encore vu lui-même qu’il avait un problème de réglage de sa machine. Après, on a des indicateurs qu’on va suivre plutôt à la maille jour où par exemple le service client va analyser chaque jour sa qualité de service, donc contrôler par exemple, ces délais de réponse. On a différents canaux de contact pour notre service client. Le plus chaud, c’est WhatsApp ou on essaye de répondre en moins de 5 minutes à nos clients, donc ils vont vérifier chaque jour comment situe par rapport à cet objectif là qu’on s’est fixé sur un horizon un peu plus long à la maille semaine. Et l’équipe de création culinaire va analyser les notes des recettes, les avis des clients. Et ensuite à la maille du mois, on va analyser le NPS c’est un indicateur de satisfaction client. Alors cet indicateur là on peut le trouver dans le tableau. Notre outil de datavisualisation et on dédié un moment d’entreprise avec tous les collaborateurs qui s’appellent un point Voix du client pour partager à tout le monde à la fois les réussites du mois et les incidents qu’on a pu rencontrer pour que chacun dans l’entreprise se sente concerné par les retours de nos clients. 

 

– Speaker 2 :

 D’accord. Alors, vous avez un outil en interne de prévision des commandes, est-ce que tu peux nous en parler un petit peu? Oui. 

 

– Laure :

 Alors, ce qui est intéressant dans le modèle de Quick, c’est qu’on a mis en place une logistique qui s’appelle pool, c’est à dire qu’on va commander les ingrédients à nos fournisseurs une fois qu’on aura confirmé les demandes de nos clients, c’est à dire que Marc, si demain tu veux commander un panier qui toque, je vais te demander de choisir tes recettes 6 jours à l’avance et ensuite je vais acheter les ingrédients dont j’ai besoin pour préparer ta commande. À ce moment-là, ça va permettre d’éviter d’avoir des stocks et du gaspillage alimentaire pour que ça fonctionne, parce qu’on a quand même des variations de commandes qui peuvent être assez importantes d’un jour à l’autre. Des variations dans les choix de recettes, et cetera. Il faut qu’on s’assure de pas avoir de rupture sur certains produits et donc pour ça c’est très important qu’on puisse communiquer en amont à nos fournisseurs pour leur dire bah cette semaine là je vais avoir besoin de à peu près tant d’escalopes de poulet, tant de carottes, tant de fromage blanc. Et donc c’est pour ça qu’on a mis en place un modèle de prévision des ventes, donc on utilise pour ça du machine learning et donc on a défini les features qui correspondaient bien à ce cas d’usage, donc on va prendre en compte par exemple des jours fériés, des périodes de vacances, ce qu’on a fait sur les années passées à la même période. On va regarder aussi le calendrier des temps forts du marketing, parce que par exemple, si on fait une campagne télé, ça va forcément être impactant pour prévoir nos commandes. On va regarder si on a des animations particulières sur les recettes ou sur notre offre du marché, par exemple au moment de Noël, on propose pas mal de produits complémentaires et donc ça va rentrer aussi en ligne de compte pour projeter notre volume de commande. Et donc voilà, c’est comme ça qu’on est capable de de projeter notre nombre de commandes, qu’on communique à nos fournisseurs jusqu’à 6 semaines à l’avance. Et puis des prévisions détaillées à l’ingrédient, donc en anticipant aussi quelles recette vont être le plus prisés par les clients? 

 

– Speaker 2 :

 D’accord, donc vous essayez de prédire quand il y a plusieurs recettes, plusieurs choix. Lequel sera le plus choisi? Quelle proportion? 

 

– Laure :

 Exactement. On va prédire en fait combien de colis on va faire, est ce que ça va être des colis pour 2 personnes, 3 personnes, 4 personnes, combien de recettes ils vont choisir? Et ensuite quelles recettes ils vont choisir? Et comme ça, ça nous permet de dire qu’on va avoir besoin de X fromage blanc et d’y l’escalope de poulet. 

 

– Speaker 2 :

 D’accord alors sur ce choix des recettes, comment est-ce qu’on prédit le le choix des gens en fait, sur les choses qui se basent sur leur goût? 

 

– Laure :

 Alors, il y a 2 choses à prendre en compte et là c’est intéressant parce que c’est un cas d’usage ou la data, plus qu’un outil de reporting, nous a permis aussi de construire notre stratégie produit et de mettre au point le bon menu de recette sur une semaine donnée. Donc, avant même de se parler de choix des clients, on a mis pas mal d’intelligence pour essayer de trouver la bonne offre de recette qui plairait à tout le monde avec de la variété dans les ingrédients et les types de recettes qui sont proposées. Un équilibre au niveau des temps de préparation pour s’assurer qu’on a des recettes rapides même si on en a qui sont peut-être un peu plus techniques, un peu plus élaborées, qui vont être un peu plus longues, bien respectées. Le fait qu’on n’utilise que des fruits et légumes de saison. Et ensuite s’assurer aussi que par rapport à nos différents types de clients, chacun y trouvé son bonheur. Donc quelqu’un qui veut que des recettes rapides trouvé ce qui lui plaît, quelqu’un qui veut que des recettes végétariennes trouvé ce qui lui plaît et donc pour ça, on a mis au point un un algorithme d’optimisation sous contrainte qui chaque semaine va venir screener notre catalogue de recettes, celle qu’on a pu déjà proposer et aussi beaucoup de recettes qu’on a créées mais qui n’ont pas encore été proposées à la vente. Et en intégrant toutes les contraintes dont je te parlais à l’instant, il va venir faire la proposition du menu optimal pour un client qui toque ensuite un peu sur le même modèle que les prévisions. On a aussi un outil qui va nous permettre de prédire quelles recette vont être les plus prisés, ce qu’on utilise pas mal aussi, c’est les choix des premiers clients parce qu’en fait on va mettre en ligne nos recettes 3 à 4 semaines à l’avance et donc on a des clients qui viennent très tôt choisir leurs recette et souvent c’est assez révélateur. Finalement, de ce qui va se passer en bout de chaîne. 

 

– Speaker 2 :

 Donc cela représentatif ensuite de la population globale qui commandera les recettes. 

 

– Laure :

 Exactement, donc ça nous donne une bonne photo assez tôt de ce qui va être choisi à la fin. 

 

– Speaker 2 :

 Ça vous donne quel avantage compétitif aujourd’hui de faire autant de data? 

 

– Laure :

 Ce qui est intéressant, c’est qu’on a beaucoup de données à notre disposition et qu’on peut s’en servir pour créer de la valeur autour de notre produit ou de notre service, par exemple, depuis un an, on publie le nutria score de nos recettes puisque comme on connait exactement. Leur composition? On est capable de le calculer et de le mettre à disposition du client, donc ça lui fait une information additionnelle et il peut s’il le souhaite choisir ses recettes en fonction. On va aussi bientôt mettre en place un score environnemental pour comparer l’impact carbone de différentes recettes. Donc c’est tout simple mais ça va permettre à nos clients qui souhaitent réduire l’empreinte carbone de leur alimentation de choisir leurs recette en intégrant secrétaire. 

 

– Speaker 2 :

 Quelles sont les limites de la data chez vous? Des mauvais clip I, des applications un peu gadget que vous auriez pu connaître. 

 

– Laure :

 Euh, peut-être un premier élément de réponse, c’est de croire que la data à réponse à tout et de finalement repousser une prise de décision en cherchant des réponses à travers la data. Je pense que la data vient éclairer et guider la prise de décision mais que ça n enlèvera jamais une part de risque. Un autre biais qu’on peut avoir. Si si on se concentré uniquement sur l’analyse des données passées, on peut rater quelque chose, perdre sa créativité, sa capacité à innover, sa capacité à capter. Peut-être des nouveaux profils de clients, donc il faut là aussi savoir s’en extraire, ou en tout cas prendre un peu de de recul pour pas s’enfermer. Et puis ensuite, on peut avoir bien des sujets de biais statistiques, d’événements atypiques qui font qu’on peut être amené à retravailler les datas pour avoir des informations plus juste. 

 

– Speaker 2 :

 Est-ce que t’aurais un exemple dans lequel la créativité, l’imagination, ont été décisif et ou la data aurait poussé à prendre des décisions dans l’autre sens? 

 

– Laure :

 Alors un exemple qui me vient, c’est l’innovation sur les recettes à la fois, on va avoir un gros travail d’analyse de ce que nos clients aiment, les questionner sur ce qui voudraient plus et à la fois. On confie aussi à notre équipe de création culinaire et à notre chef mari le la responsabilité d’aller chercher des nouveaux usagés, de découvrir des nouveaux ingrédients. D’explorer des nouveaux terrains de jeu et là, la data va finalement pouvoir nous dire si ça prend ou pas, mais c’est plus exploratoire dans l’approche et donc ça va être moins poussé par la data par exemple. Il y a quelques années, on a testé de développer une offre de recettes véganes et donc ça, c’était un projet plus exploratoire. 

 

– Speaker 2 :

 Ce qu’il y a des métriques alors. Il y a des KPI qu’ont souvent qu’on on regarde à tort, on parle des fois de Vanity metrics. Est-ce qu’y a des choses chez tok qui t’évoquent cette erreur dans les métriques? 

 

– Laure :

 Je sais pas si j’ai un exemple concret en tête. En tout cas, je pense que ce qui est important, c’est de rester un peu souple dans son set d’indicateur et je pense qu’il faut pas hésiter à continuellement le le réactualiser. Je pense qu’en fonction des périodes, des sujets sensibles, des focus de l’entreprise, on va pas avoir les mêmes indicateurs et donc plutôt que de toujours rajouter des nouveaux indicateurs. Il faut pas hésiter à en enlever certains si on est dans une phase d’hyper croissance, on va plus se concentrer sur notre nombre de nouveaux clients. 4ltv et cetera. Si on est dans une phase, on va plus se concentrer sur la rentabilité. On va peut être plus regarder notre coût d’acquisition client ou notre marge dégagée par commande. Et donc je pense que c’est intéressant de rester un peu dynamique là-dessus pour éviter d’avoir deux cents p i et de finalement plus trop savoir ce qu’il faut regarder où on en 

 

Marc :

est quel est votre plus grande déconvenue? Avec la data cache et qui toque ou que tu regrettes de pas avoir fait autrement? 

 

– Laure :

 Plus grande déconvenue, c’est peut-être un peu fort, mais ce qu’on a fait au tout début, on avait pas spécialement d’experts data et on avait des équipes qui étaient naturellement assez orientées. Performances et résultats, mais du coup, chaque équipe finalement, construisait un petit peu ces indicateurs. À sa sauce. C’était bien parce que chacun était très responsabilisé sur ces indicateurs, sauf que, en grossissant, le problème c’est que c’est parti un peu dans tous les sens et donc si on demandait par exemple le nombre de colis à l’équipe marketing et à l’équipe opération et à l’équipe finance, on avait 3 chiffres différents et là je me suis dit, Bon, si, quand on a un chiffre, le premier réflexe c’est de se demander est-ce que c’est le bon et ensuite de passer plus de temps à réconcilier les chiffres qu’a les exploiter, c’est que ça n’allait plus et donc c’est à ce moment-là qu’on a créé. Une équipe data indépendante qui est venue normer tous ces indicateurs, s’assurer de la qualité des données, s’assurer qu’y a pas 3 chiffres d’affaire, mais il en est un seul et du coup créer cette toute première couche, ce socle solide qui permet ensuite de venir nourrir les différents besoins métiers. Mais en partant de la même source. Et ça, je pense que ça a été une étape assez importante et assez structurante et on aurait pu peut-être le faire un peu plus tôt. 

 

– Speaker 2 :

 D’accord normaliser en fait, vous êtes une entreprise comme tu le disais qui fait intervenir tellement de métiers différents. Que même si vous êtes petit ou que vous étiez petit au moment de se poser des questions-là vous aviez les mêmes problèmes de stylo qu’on va avoir dans les grands groupes et donc vous êtes passé par une phase de data Warehousing, on va dire avec qui a permis de mettre la même heure sur les montres. 

 

– Laure :

 Ouais, avant même de parler de data Warehousing. C’était aussi standardisé des requêtes qu’on appelait des requêtes chapeau des requêtes par exemple sur le chiffre d’affaires, sur le nombre de commandes. Parce que finalement, quand on écrit sa requête, on va mettre un certain nombre de filtres ou de conditions qui peuvent parfois être un peu à l’appréciation de chacun. Et donc là-dessus se donner des règles communes à tout le monde pour s’assurer de la cohérence des données. 

 

– Speaker 2 :

 Oui, en fait, la raison pour laquelle ils avaient le chiffre d’affaire, c’est que certains considéraient que certaines choses n’étaient pas du chiffre d’affaires, que certaines choses méritent d’être comptabilisées pour l’année suivante, et cetera. En fait oui. 

 

– Laure :

 Voilà des histoires de de remboursement client, de dates, d’avoir de livres pas encore livré. Bref, plein de questions qui peuvent paraître un peu futiles. Mais finalement qui faisait qu’on ne s’y? 

 

– Speaker 2 :

 Retrouvait pas en ligne, OK alors le le, RGPD est-ce que c’est quelque chose qui vous impacte? Et est-ce que c’est un problème pour vous? 

 

– Laure :

 Alors évidemment, on est concerné puisque on est une entreprise de B to c, donc on collecte un certain nombre de données sur nos clients. C’est forcément assez structurant puisque ça suppose d’être hyper attentif aux traitements qu’on va avoir de ces données de bout en bout. Je pense que c’est quand même assez bénéfique dans le sens où ça oblige à se poser la question de pourquoi on collecte cette donnée, est ce qu’on a vraiment besoin, qu’est-ce qu’on va en faire, combien de temps on doit la garder? Donc ça prend un peu plus de temps, ça peut être un peu laborieux à mettre en place, mais finalement c’est assez vertueux. C’est un peu comme si c’était la sobriété énergétique appliquée à la data. C’est douloureux au départ parce qu’il faut changer ses habitudes, mais après, on s’en porte mieux. 

 

– Speaker 2 :

 Oui, et finalement ça vous filtre aussi une partie du travail qui aura à faire à posteriori pour pas se noyer dans un volume de data trop grand? 

 

– Laure :

 Oui, c’est ça, parce que ça peut être le risque aussi qu’on est tellement donné qu’on sache plus où regarder, qu’on sache plus ce qui est important et finalement s’être posé ce genre de questions en amont, ça vient faire gagner du temps après. 

 

– Speaker 2 :

 Donc vous faites du machine learning, tu nous en as parlé un peu, quel intérêt? Concrètement, ça à pour vous? 

 

– Laure :

 Ça va nous donner de la visibilité sur la suite et ça va nous permettre d’anticiper au mieux. Donc je te parlais tout à l’heure du cas, des prévisions de commande, on a aussi un modèle qu’on a développé pour prédire la satisfaction des recettes, donc le la note quelque part que les clients vont leur donner. Donc pour ça, on a mis en place des features là aussi qui vont être dédiés par exemple, l’ingrédient présent dans la recette. Parce que si c’est du saumon où on avait ça va pas donner le même résultat. La catégorie de la recette est ce que c’est dans le foot technique de chef qui te freine lee? Le temps de préparation, le nombre d’étapes de la recette, le nom de la recette, et cetera. Et donc tout ça va nous permettre de guider la création culinaire pour faire des recettes qui vont plaire au mieux à nos clients et ensuite pour venir alimenter cet algorithme de 1000 plannings dont je te parlais pour proposer un éventail de recettes qui plaisent au mieux aux clients, donc un large choix et aussi un large choix par profil de clients type. 

 

– Speaker 2 :

 T’as une anecdote à nous partager sur la data Sheet OK? 

 

– Laure :

 Alors peut être notre segmentation client qui n’est pas forcément classique au sens RFM ou ou PMG mais on a décliné notre segmentation client à la sauce qui toc. Donc c’est une segmentation qui parle recette. On a identifié que parmi nos clients, on avait différents profils, donc on va trouver des profils explorateurs qui veulent découvrir des recettes du monde qui vont particulièrement rechercher des épices, des nouvelles peur? On a des profils familles qui vont privilégier des recettes consensuelles, des types pour faire manger des légumes à ses enfants sans qui s’en rendent compte, qui sont relativement rapides à préparer. On a des clients qui vont être préférences végétariens, donc on a assez peu de gens qui sont 100 % végétariens. En revanche, on en a un certain nombre qui vont privilégier une majorité de recettes végétariennes, et cetera. Et donc ça, ça nous permet ensuite à la fois d’adapter notre offre de recettes et à la fois d’adapter nos communications pour parler à nos clients des recettes qui vont tout particulièrement leur plaire. 

 

– Speaker 2 : 

 Est-ce que tu as une opinion sur la data partagée? 

 

– Laure :

 Pas spécialement. 

 

– Speaker 2 :

 Pas de problème. Quand vous recrutez les gens à côté data, qu’est-ce que vous cherchez dans les profils? 

 

– Laure :

 Alors naturellement, y a un premier prérequis qui va être, qu’on cherche une expertise technique. Donc pour ça, on a un certain nombre de cas pratiques qui nous permettent de tester le niveau de nos candidats, soit parce qu’ils ont déjà prouvé, dans une expérience passée à qui une certaine expertise, soit parce qu’on sent qu’ils ont la capacité de progresser rapidement et que ça va pas être un point bloquant. Et après, ce qui est très important pour moi, c’est de recruter des gens qui ont le sens du client, une vraie orientation business. Je pense qu’on peut faire un peu tout dire à la data. On peut sortir un peu tout et n’importe quoi et ce qui fait un bon data analyste, c’est sa capacité à comprendre son client et à poser la bonne question. Donc en fait, commencer par bien poser la problématique et être capable d’avoir des idées qui peuvent sembler un peu farfelue? Parfois, ça va être assez clé finalement pour découvrir des choses intéressantes sur lesquelles on va pouvoir. Capitaliser ensuite. Souvent à partir de questions hyper larges, comme comment rendre notre business model encore plus durable? Et puis on va resserrer l’entonnoir jusqu’à arriver à se dire, en fait, il faut qu’on pilote la performance de notre marketing à la LTV 5 semaines de nos clients. Et donc voilà, je cherche des profils qui sont capables d’avoir cette prise de hauteur et d’avoir des idées nouvelles à investiguer tous les jours et qui ont, je me suis rendue compte chacun aussi leur petit tempérament, donc ils sont complètement capables de persévérer même si parfois ces idées peuvent sembler un peu étonnantes. Mais voilà, ils ont cette capacité aussi à aller au bout de leur raisonnement pour trouver des choses et on a mis en place, je pense, à un bon équilibre ou à la fois les métiers vont poser des questions à la data, leur demander des analyses. Et puis, l’équipe data va aussi pro activement proposer des idées nouvelles, proposer de regarder un problème sous un angle différent, et c’est assez fertile comme mode de fonctionnement. 

 

– Speaker 2 :

 Alors au niveau des outils que vous utilisez de l’infrastructure, est-ce que tu peux nous dire en un mot quelles ont été vos choix, que vous avez essayé et sur quoi vous avez? Vous avez atterri? 

 

– Laure :

 Oui, alors on a une bonne partie de nos données qui se trouve dans notre back office, qui est un outil interne qu’on a développé nous-mêmes, qui va gérer toute la partie back office des commandes clients du référentiel article des fournisseurs, des commandes d’achat, des recettes. Donc évidemment pas mal de données viennent de cet outil. Il y en a une partie qui est déversée dans un data Lake Big quéry et après on a aussi plein d’autres sources de données. Par exemple, on va avoir des données de production qui viennent de notre logiciel de à l’entrepôt, le WMS Warehouse Management System. On a des données qui viennent des outils du service client, on a des données qui viennent de nos clients eux-mêmes, à qui on envoie pas mal d’enquêtes de satisfaction pour collecter du feedback à chaud et en continu. On a aussi des données de navigation sur nos outils, que ce soit notre notre site où nos applications et donc tout ça va nourrir notre écosystème data. Après en termes d’outils, on utilise pour l’ordonnancement des tâches ou l’automatisation air Flow, donc ça va nous permettre d’éviter des tâches assez. Compétitive de mise à jour d’un report mise à jour d’une prévision historisation de données qui sont pas forcément des données transactionnelles dans notre back office, nos data scientists et analystes code en Python. Ensuite, en datavisualisation. On utilise donc à la fois le tableau qui est assez déployé dans l’entreprise et graffa spécifiquement pour répondre aux besoins du temps réel. 

 

– Speaker 2 :

 D’accord. Si c’était à refaire chez tok, qu’est-ce que tu changerais? 

 

– Laure :

 Pas grand chose je crois, je suis-je suis assez fière de ce qu’on a réussi à construire avec l’équipe data que je salue et que je remercie au passage, quoi qu’on a, on a fait quelque chose d’assez incroyable, en tout cas dans le séquencement. Je pense que c’est important de garder cette première étape de consolidation du socle pour partir sur des bases saines dès le début parce qu après ça peut devenir assez lourd de mettre à jour tout un inventaire de requêtes qui sont un peu bancales, ensuite de construire ce ce cockpit à la fois d’un point de vue général, pour avoir une vue d’ensemble. Et ensuite métier par métier, pour avoir en temps réel ou en tout cas de manière très régulière, une vision d’ensemble sur ces indicateurs, sa performance et savoir ce qui se passe à tout moment. Et puis peut-être la 3ème étape, c’est de pas oublier de s’amuser. Je pense que la data, c’est un terrain de jeu assez incroyable, on peut vraiment partir dans tous les sens, explorer plein de choses. Imaginez énormément de cas d’usage en terme de personnalisation pour les clients, de contributions aux produits des des solutions qui vont permettre aux équipes de gagner en productivité en éliminant des tâches manuelles où récurrentes. Et donc je pense qu’il faut pas oublier non plus de de s’amuser et et pas se mettre de barrière. Garder cette capacité à explorer, tester, innover au travers de la data. 

 

– Speaker 2 :

 Super et un dernier mot pour conclure sur le futur de Quick. 

 

– Laure :

 Alors, un un gros projet qu’on a pour l’année prochaine, c’est d’élargir encore notre catalogue de recette et la mise en production de notre algorithme de 1000 planning va nous permettre justement de gérer un catalogue de recettes élargie avec toutes les contraintes de diversité, saisonnalité et cetera. Donc je pense que ça va être une étape assez intéressante, c’est quelque chose. On n’aurait pas pu, je pense, faire uniquement humainement, ça aurait fait beaucoup trop de contraintes à gérer pour un être humain et donc là c’est un vrai exemple d’obstacle que la data permet de déverrouiller et ensuite un projet qui me tient beaucoup à cœur, c’est ce score environnemental des recettes. Évidemment, on se pose beaucoup de questions chez quitter sur notre impact, sur ce qu’on peut faire pour contribuer à à réduire les émissions de gaz à effet de serre l’alimentation aujourd’hui, ça représente 25 % de nos émissions de gaz à effet de serre, donc c’est quand même très conséquent et en fait il y a plein de choses. Assez simple qu’on peut faire pour réduire son impact environnemental le gaspillage alimentaire, c’est quelque chose de d’hyper important, on y pense pas, mais il y a 1/3 de la nourriture dans le monde aujourd’hui qui est jeté, donc des modèles un peu malins comme Kita qui permettent à la fois de de travailler en flux tendu et à la fois de livrer aux clients les justes quantités dont il a besoin pour éviter d’avoir des restes en fin de semaine. Bah c’est une solution concrète pour s’attaquer au gaspillage alimentaire, un autre élément clé, c’est la composition de nos assiettes. On se rend pas compte, mais entre une assiette de bœuf et une assiette végétarienne, il peut y avoir un facteur 11 en termes d’émissions carbone. Donc même si on veut pas arrêter de manger du bœuf, en fait, on mangeait un petit peu moins déjà, ça fait une énorme différence sur l’impact carbone de notre alimentation et donc pouvoir donner des clés à nos clients pour qu’ils se rendent compte de ça, qu’ils le comprennent et qu’ensuite ils choisissent chacun à leur rythme, comment ils veulent faire évoluer le le contenu de leur alimentation. Je trouve ça hyper intéressant. Et puis après Ben évidemment le côté choisir des ingrédients de saison locaux, c’est aussi. Hyper important. Et ça, ça a toujours été dans l’a DN de Kita qui est et on continue dans ce sens-là Mais c’est aussi un levier pour améliorer le bilan carbone de son alimentation. Donc voilà, les cours responsabilités, c’est aussi un un axe fort sur lequel on veut accélérer l’année prochaine. 

 

– Speaker 2 :

 D’accord, merci beaucoup, Laure. 

 

– Laure :

 Je t’en prie, merci Marc. 

 

– Laure :

 Vous venez d’entendre Laure lapostolle, déjà adjointe de kitoh, sur Data driven One One, le podcast marque une pause pendant les fêtes de fin d’année et je vous retrouve le 2 janvier avec Nicolas gros Nevers pour un épisode dédié au sujet de la génération d’images par intelligence artificielle. Joyeuses fêtes.