DATA ET SHOPPING

Coralie Betbeder-Déchelette, Data Lead chez Joko est l’invité de l’épisode 20 de Data Driven 101.

Elle nous parle de data et shopping notamment de data model, de bilan carbone et de l’importance de la culture de l’entreprise en matière de données, et comment cela peut affecter l’impact de l’équipe data sur le reste de l’entreprise.

Coralie Betbeder-Déchelette : Data et Shopping

– Marc — 00:00 :

 Aujourd’hui, je reçois Coralie betbeder déchelette, ingénieur de l’école polytechnique spécialisé en data science. Après un moment en Conseil en stratégie, elle rejoint joko en 2021 en tant que data lead. joko, c’est une start-up montée en 2018 application mobile de shopping, Bonjour Coralie. 

– Coralie — 00:17 :

 Bonjour Marc. 

– Marc — 00:18 :

 Alors, Coralie, est-ce que tu peux nous parler de djoko? Ce que vous faites? 

– Coralie — 00:21 :

 Alors djoko, on est une nappe de shopping, alors on a des produits be to see dont la mission est de permettre à nos utilisateurs de faire du shopping plus intelligemment, ça peut être en augmentant leur pouvoir d’achat via du cashback en ligne, en magasin, des codes promo appliqués automatiquement d. Paiement en plusieurs fois également de gagner du temps, avec par exemple des alertes automatiques en cas de diminution de prix de certains produits. Et on a un dernier axe sur lequel on met beaucoup l’accent cette année, qui est un axe responsabilité pour permettre à nos utilisateurs de faire du shopping de manière plus responsable. Donc une des features cours de cet axe là c’est un tracking de l’empreinte carbone de nos utilisateurs qui se fondent sur leurs transactions bancaires. On pourra peut-être revenir plus en détail là-dessus par la suite et donc on a une application mobile et des extensions de navigateur. Également sur mobile et sur desktop, voilà. 

– Marc — 01:11 :

 D’accord, donc, l’idée c’est de quoi connecter cette APP à la banque pour qu’elle ait eu accès justement aux données qui permettront de calculer l’empreinte carbone, entre autres. 

– Coralie — 01:19 :

 Ouais exactement. Donc on a une étape de connexion de la Banque donc c’est vraiment sécurisé au même niveau que des applications qui sont propres aux banques. On trouve un partenaire pour ces connexions là et ça permet plusieurs features, une des features qui est de faire du cashback en magasin. Donc on a des partenaires en magasin. Si tu fais une transaction chez eux on est capable de la matier. À ce marchand grâce au partenariat de rétribuer du cashback à nos utilisateurs. Et on a également une feature qui est de calculer l’empreinte carbone associée à ces dépenses là, typiquement si tu fais une dépense qui est chaussée a donc le secteur de la chaussure, on a une moyenne d’équivalent dans le kilo de CO 2 par euro dépensé et donc ça nous permet de faire une approximation. En tout cas une estimation de l’empreinte carbone de nos utilisateurs et on a des futurs aussi de monitoring de budget qui vont être développés courant d’année. 

– Marc — 02:07 :

 Quelle décision business vous avez déjà pris grâce à la data chez Joko? 

– Coralie — 02:11 :

 Alors une décision en tout cas une orientation business qu’on a pris chez djoko, je peux citer l’action qu’on a mis récemment sur un de nos produits, qui est une extension mobile sur IOS donc sur safari mobile et donc on a développé ça quand technologiquement c’est devenu possible assez tôt et on a vraiment suivi à quel point ça prenait auprès de nos utilisateurs et c’est vraiment quelque chose qu’on a suivi d’un point de vue data plus que des features historiques sur lesquels on a moins mis tout de suite des dashboard et du monitoring. Et ça nous a clairement permis d’identifier l’opportunité business qui était liée et pour un ordre de grandeur, aujourd’hui, ça représente quelques dizaines de % de notre revenu, donc c’est vraiment significatif et c’est un produit qu’on a développé, amélioré, vraiment grâce à la data, au suivi d’aussi côté Product Analytics et en règle générale, quand on définit nos OKR et nos orientations business, on a vraiment une culture assez data-driven. Déjà des fondateurs et qui aussi répartis sur toutes les équipes et donc c’est généralement des orientations qui sont soutenues significativement par la data, que ce soit des dashboard, des analyses adoc. On peut faire pour différentes équipes. 

– Marc — 03:15 :

 Et côté machine learning, quelles sont vos applications? 

– Coralie — 03:18 :

 Alors on a des algorithmes qui tournent donc plus dans l’équipe tech, donc développement des applications que dans l’équipe data en data, on est vraiment plus orienté data Engineering ou Analytics Engineering suivant les dénominations et business Analytics. Mais côté donc de l’équipe tech développement vraiment produit, on a des applications pour développer un Smart browser donc bien traiter des pages web, détecter les champs importants, les champs de prix pour détecter notamment les notifications de price. Europe on a plusieurs algorithmes qui tournent là-dessus, c’est des algorithmes de recommandation, mais l’idée, c’est vraiment d’être une couche sur le browser qui est intelligente et qui comprend la navigation et les et les pages qu’il traite. 

– Marc — 03:57 :

 Quels autres applications de la data est-ce que vous avez chez vous? 

– Coralie — 04:01 :

 Alors nous une application donc côté équipe data qu’on a développé sur les 6 derniers mois, c’est un site dédié à nos partenaires, donc des marchands que notre côté B to B parce qu’on a une plateforme à la fois avec des utilisateurs B to C et des clients qui sont des marchands qui leur permet d’avoir accès à des insights sur l’évolution de leur part de marché. L’évolution des habitudes de consommation de nos utilisateurs alors c’est des données qui sont complètement agrégées, anonymisées et donc on a développé ce site et ces dashboard qui sont accessibles par nos marchands. Et ça, on le fait via notre outil de data visualisation et une application qu’on a développée récemment et qui se base justement sur les données de transaction qu’on récupère via notre connexion aux différentes banques pour les utilisateurs qui consentent. 

– Marc — 04:44 :

 Ça vous donne quel avantage compétitif d’avoir toute cette donnée aujourd’hui? 

– Coralie — 04:49 :

 Alors, notre premier avantage compétitif qui est vraiment au cœur de notre business model, c’est d’être en mesure de faire un targeting pertinent pour les utilisateurs et pour nos marchands, c’est-à-dire de leur permettre de faire des campagnes d’acquisition. L’utilisateur, qui n’ont pas dépensé dans les 6 derniers mois ou qui sont des utilisateurs très réguliers qui souhaitent fidéliser, donc ça nous permet de vraiment personnaliser les offres. Le Targeting à nos utilisateurs et leurs habitudes de consommation, et également, donc j’en parlais juste avant l’outil de suivi Insight qu’on a mis à disposition auprès de nos marchands. On ne vend pas ces données, c’est vraiment quelque chose qui vient avec la prestation du Go et ça c’est un avantage compétitif parce qu’on a de la donnée très riche qu’on peut exploiter pour leur permettre d’avoir plus de visibilité sur leur secteur et la manière dont les habitudes de consommation. 

– Marc — 05:37 :

 Évoluent d’accord, oui, alors justement vous vendez pas cette donnée? Quelles sont les sources de revenus? En fait? Quel est votre business model? 

– Coralie — 05:42 :

 Finalement, c’est un business model qui est assez simple. Finalement, c’était une grosse partie de notre revenu vient du cashback actuellement. Donc typiquement on est un apporteur de trafic pour des marchands par exemple, Assos ou la Fnac. Et donc quand un utilisateur passe par djoko pour faire des achats sur ces sites là ou en magasin ils sont détectés comme venant de Djoko, donc nos partenaires nous attribuent une Commission. Qu’on partage de manière égale avec l’utilisateur donc c’est vraiment une autre source de revenus et la source du cashback que peuvent gagner les utilisateurs grâce à Yoko, et on a d’autres sources de revenus, notamment le paiement plusieurs fois, mais qui sont minoritaires versus les d’accord, 

– Marc — 06:20 :

 Et alors ces insights là que vous mettez à disposition de vos clients qui sont les clients B to B on va dire les clients, les entreprises qui font un djoko pour le cashback, ces personnes là accèdent à tous ces incidents gratuitement, c’est vraiment un plus pour eux quoi. 

– Coralie — 06:34 :

 Voilà, c’est un plus pour eux. À la fois déjà pour suivre les campagnes d’acquisition, de fidélisation ou de réactivation de leurs clients qui mettent en place et aussi pour avoir des données plus précises sur leurs utilisateurs que nous. On a encore une fois, on les agrège qu’on a mais qu’eux ils n’auraient pas si un achat était simplement fait en magasin avec un tracking finalement très faible. 

– Marc — 06:55 :

 Alors du coup, est-ce que tous ces insights permettent à vos partenaires de rester plus longtemps, de continuer avec vous ce que vous sentez une influence à ce niveau-là Oui, 

– Coralie — 07:04 :

 Parce que grâce à ces insights-là, on est capable de prouver. Qu’on peut faire de la réactivation d’utilisateurs qui ont churn, enfin qui en tout cas, qui ne sont plus clients chez eux. Et ils ont vraiment un intérêt à les identifier et à travailler avec nous sur des partenariats ciblés et qui ont vraiment de la valeur sur une catégorie d’utilisateurs qui veulent cibler. On a eu des campagnes, par exemple sur les étudiants ou sur des personnes qui avaient une consommation chez les marchands qui étaient en train de décroître doucement, sans qu’ils aient complètement arrêté de consommer chez l’enseigne. Donc ça permet également de prouver nous qu’on est capable d’avoir cette vue là. À la maille des utilisateurs de faire un targeting qui est ciblé, de leur apporter vraiment une valeur fine sur un panel qui veulent cibler. 

– Marc — 07:45 :

 Aujourd’hui dans l’équipe, vous êtes combien d’on va dire de data professionnels et quelle est la composition de cette équipe, 

– Coralie — 07:51 :

 On a des profils un peu data dans 2 équipes, donc l’équipe de développeurs avec des profils un peu machine learning, data science qui travaillent sur des algorithmes en production, sur nos produits et on a l’équipe data, donc c’est parti. Et dans cette équipe, on est 4 maintenant et donc on a pour l’instant des rôles, enfin un peu de tout, c’est à dire qu’on a encore une casquette business Analytics avec des analyses adoc mises en place de reporting pour différentes équipes et vraiment une grosse partie de notre bande passante aussi qui est dédiée à des sujets de mise en place de la stac d’outillage des différentes équipes métiers qu’on a un peu construites de 0 moi quand je suis arrivée en janvier 2021 j’étais toute seule à l’époque, on avait déjà des briques, on avait un outil d’I, on avait un outil pour faire du SQL mais il fallait qu’on réussisse à faire passer ça à l’échelle en utilisant des outils pertinents, on a mis en place slowly par exemple, Metabase. Comme outil d’il y a vraiment ce projet, on est en train de mettre des BT donc projet de faire une stack, faire une source de vérité dans notre data warehouse qui est fiable et qui SCALE. Et donc ça c’est une grosse partie de notre bande passante donc ça peut être plus proche du data Engineering ou du Analytics Engineering. On peut voir ça comme ça. 

– Marc — 08:59 :

 Alors vous traitez des données très personnelles, donc vous êtes concerné par le RGPD qui depuis quelques années s’impose en Europe. Ce que ça implique pour vous de respecter le RGPD Voilà qu’est-ce que ça change pour vous? 

– Coralie — 09:12 :

 Alors nous on fait très attention à nos données personnelles, on a une partie de l’équipe technique donc, qui s’occupe de ces sujets là? Notre si faut aussi avec des avocats et des spécialistes du domaine, un exemple concret de ce qu’on fait, c’est que, au-delà d’un certain temps, on supprime les données pour nos utilisateurs pour pas garder un historique qui est trop grand. On n’a pas le droit, donc c’est mais c’est un chantier sur lequel on fait effectivement très attention parce qu’on a en effet des données personnelles et on partage jamais et encore moins vendre des données qui sont pas anonymisées, agrégées. 

– Marc — 09:42 :

 Quelle a été ta plus grande déconvenue? Que la data aurait pu te permettre d’éviter? 

– Coralie — 09:46 :

 Je pense que plus que les erreurs qu’on aurait pu éviter avec la data, on aurait pu être plus réactif sur certains sujets. Bah je pense notamment à des sujets de fraude sur lesquels on a mis en place des monitoring qui sont plus précis, des systèmes pour taguer les fraudeurs, les identifier, faire attention à leur comportement. Et on a déjà eu des cas où on aurait pu agir, enfin réagir plus rapidement si on avait eu les bons outils et qu’on avait bien mis en place un monitoring dédié, c’est quelque chose sur lequel on a travaillé. On peut encore faire des programmes et un exemple qui me vient de ça. 

– Marc — 10:16 :

 La fraude, ici, c’est un utilisateur qui on prétend avoir eu un achat, comment on fraude sur une application de je sais pas si c’est si je peux donner les techniques de fraude pendant le podcast, mais 

Coralie

frauder c’est à dire que tu trouves des moyens soit de bénéficier plusieurs fois d’un cashback ou d’un programme de fidélisation qui est normalement à usage unique. Donc souvent c’est soutenu par des trous un peu dans la raquette de notre côté qu’on sauve dès qu’on identifie le potentiel de fraude. Mais justement, tout l’enjeu est de détecter suffisamment tôt les fraudeurs les plus malins pour régler ça de notre côté. Et ça, c’est vraiment quelque chose qu’on peut faire grâce à la data. 

– Marc — 10:52 :

 Au niveau de l’éligibilité en fait, on est éligible qu’une seule fois et il y a personne ne peut remonter. Une transaction qui n’a pas eu lieu vu que vous êtes connecté à la banque directement. 

– Coralie — 11:02 :

 Oui, mais c’est sûr des par exemple sur des programmes de des référés Roll, on a eu déjà des situations. 

– Marc — 11:08 :

 D’accord donc, faire remonter des achats qui n’auraient pas été référés par joko. 

– Coralie — 11:15 :

 Non non, c’est trouver une manière de parrainer des utilisateurs qui peuvent être des utilisateurs fictifs ou on a déjà eu des cas comme ça. Je pense que toutes les applications qui traitent des rewards monétaires sont confrontées à des situations de fraude et donc tout l’enjeu c’est de les détecter le plus rapidement possible et de bridge technologiquement pour les éviter. Et c’est vraiment ce qu’on a fait sur ces cas-là 

Marc

pour essayer de rentrer un peu dans un exemple, comment est-ce qu’on attaque un truc comme ça on va chercher le nombre de d’occurrences, on va chercher les nouveaux utilisateurs. 

– Coralie — 11:41 :

 Ce qu’on va faire, c’est qu’on va avoir sur différentes fonctionnalités des dashboard qui permettent de suivre l’usage. Un peu comme sur les outils technologiques, on peut avoir des énormes pics comme sur des usages. Je sais pas d’un WS ou on peut mettre des alertes pour identifier les outliers et se rendre compte que là il y a 1YA enfin ça nous donne une première alerte qui signale un problème à ce sujet-là e  t ensuite nous tout l’enjeu c’est d’avoir la bonne alerte au bon moment et après de Deep Dive donc ça peut être côté data si on veut regarder plus en détail les utilisateurs, leur comportement passé et cetera et ça peut être aussi côté technique. Côté développement de l’application, identifier le bridge qui a permis ce genre de situation. 

– Marc — 12:19 :

 Quelles sont les limites pour toi de la data et quels sont les pains que vous rencontrez? 

– Coralie — 12:23 :

 Bah je pense que nous une limite en quelque sorte qu’on a de plus d’un point de vue usage, c’est qu’on évolue en parallèle en construisant notre stack data et en ayant toujours des applications business. On veut aider les équipes à avoir l’analyse dont ils ont besoin. L’aquarelle dont ils ont besoin. Mais en parallèle, il faut qu’on mise vraiment sur le long terme, donc créer des tables qui sont faciles d’usage pour tout le monde, démocratiser, former toutes les équipes avec des profils plus ou moins techniques, à la data. Donc on a vraiment un enjeu. De trade-off entre le court terme et le long terme. Et ça peut être une limite. Forcément, quand on construit une stack de bien réussir à se consacrer à ce qui a le plus d’enjeu et de bien prioriser, donc c’est quelque chose qu’elle on s’attelle pour pas créer de points bloquants pour les équipes mais à moyen terme de leur donner les outils dont ils ont besoin pour utiliser à bon escient. Et la data est et prendre les bonnes décisions eux-mêmes. 

– Marc — 13:12 :

 Pour utiliser la donnée qui vient de plein de sources différentes, là les gens des banques différentes, des gens, il y a plein de partenaires différents. Comment est-ce que vous assurez d’avoir? Quelque chose de standard, comment est-ce qu’on arrive, que c’est beaucoup de travail, déjà, de standardiser tout ça pour pouvoir l’utiliser? 

– Coralie — 13:30 :

 Alors pour récupérer la donnée de tous nos partenaires, nous, on utilise des services qui sont des agrégateurs, en quelque sorte. Par exemple, quand nos utilisateurs connectent leurs comptes bancaires, ils peuvent être à la BNP à la société générale, dans des néo banques et donc on a un partenaire qui s’appelle Provence et qui fait ce travail. Vraiment d’agrégation de regroupement des données dont on a besoin et nous, on se connecte à leur service et on récupère la donnée. Alors après, évidemment, on fait des traitements, nos propres tables. Mais c’est quelque chose qui nous aide dans cette démarche là. 

– Marc — 13:58 :

 Alors pour rentrer dans un exemple qui nous tient tous à cœur et dont tu nous as un peu parlé, c’est pour le bilan carbone, est ce que tu peux nous expliquer un peu en détail? Comment est-ce qu’on calcule le bilan carbone d’un achat en ligne? 

– Coralie — 14:12 :

 Oui, bien sûr. Alors, comme j’expliquais précédemment, on a nos utilisateurs qui connectent leurs comptes bancaires, donc ça, on l’avait pour une feature historique qui était le cashback en magasin et donc une fois qu’on accède aux transactions bancaires de nos utilisateurs, on est capable de les associer. Un marchand? Par exemple, je donne un exemple de chaussée a pour la catégorie chaussures, donc on associe un marchand qui est lui-même associé à une catégorie, donc chaussures, voyage et cetera, et donc avec des données donc qui peuvent venir de l’Insee, de l’Ademe. On est capable de calculer par catégorie donc on souhaite la plus fine possible des empreintes carbone par euro, donc les empreintes carbone on les mesure en équivalent CO 2 équivalent en grammes de CO 2 émis et donc pour reprendre l’exemple de chaussée. Où ce serait une dépense et chaussa de 50€ ce serait associé à une dépense donc de la catégorie chaussures de 50,00€ et avec ce facteur d’émission, on est capable d’estimer un équivalent en CO 2 d’environ 12kg. 

– Marc — 15:12 :

 d’accord aujourd’hui, 6 chaussée a surperforme par rapport aux autres marchands de chaussures. Ils pourront pas se distinguer dans votre bilan carbone. 

– Coralie — 15:21 :

 Aujourd’hui, alors en effet, nous, c’est une granularité plus fine à laquelle on aimerait aller à la maille du marchand, puisque de la catégorie et encore plus à la maille du produit. Donc on voit une tendance actuellement que les marchands ont tendance à être de plus en plus. Transparent sur ces sujets là, c’est aussi un quelque chose qui tient beaucoup à cœur les utilisateurs, enfin leurs consommateurs qui sont aussi pour certains de nos utilisateurs. Donc quand le monde des marchands va plus vite dans cette direction, bah nous c’est des données qu’on peut également récupérer et aller à une maille plus fine dans cette fonctionnalité là, donc c’est vraiment quelque chose qu’on souhaite faire, sur laquelle on veut mettre l’accent d’amélioration de ce produit là. 

– Marc — 15:56 :

 Aujourd’hui chez joko, dans toutes les équipes. Qui va utiliser la data, qui va manipuler, qui va être consommateur de data et comment ça se passe, ce qui viennent vous voir, ce qu’ils ont des outils à leur disposition? 

– Coralie — 16:07 :

 Alors on a beaucoup d’équipes qui utilisent la data chez Djoko, même avant la mise en place d’outils qui sont vraiment faciles d’utilisation comme metabase récemment, on avait pas mal de gens qui savaient faire du SQL et qui avaient un peu l’appétence à aller fouiller par eux-mêmes dans la data, donc je pense, c’est vraiment quelque chose d’important dans une entreprise de notre taille, d’avoir cette culture là et donc ça va de l’équipe. Business donc, qui travaille avec les marchands justement à personnaliser le Targeting, et cetera donc, qui ont besoin finalement de toutes ces analyses qu’on peut réaliser avec eux. Mais ils sont devenus de plus en plus indépendants sur le sujet. L’équipe produit donc qui s’attelle à améliorer nos produits, développer des nouvelles fonctionnalités et donc à B tester ces fonctionnalités, à monitorer les usages. Donc ça, c’est quelque chose qui font via metabase et via un outil de Product Analytics dédié qui amplitude et de manière générale, on a des dashboard qui sont un peu high level et qui sont utilisés pour suivre. Tout type de sujet, ça peut-être l’évolution de notre revenu, ça peut-être l’évolution de l’acquisition d’utilisateurs d’un point de vue marketing et donc pour ça, on a metabase qui notre outil un peu de référence et qui, utilisé de profils très opérationnels qui ont besoin de prendre des décisions à la maille, par exemple, d’une offre jusqu’au fondateur de djoko, qui eux, suivent le business d’un point de vue un peu plus macro, mais qui utilisent également le même type de support. 

– Marc — 17:23 :

 D’accord, donc ouais, toutes les équipes consomment via metabase avec différents Dashboard dans plus ou moins adaptés à leurs fonctions. 

– Coralie — 17:29 :

 Exactement. L’idée qu’on a derrière ça, c’est de former les équipes, c’est quelque chose qu’on a fait, par exemple, avec quelqu’un de l’équipe service client à utiliser, créer eux-mêmes leur dashboard et être vraiment autonome avec notre outil BI Donc pour ça, on fait des formations au moment de leur boarding. Après nous, on est en support pour faire monter en compétence les différentes parties prenantes pour pas devenir vraiment un beau tonik de toute création de dashboard. Toute création d’analyse, c’est quelque chose qui nous tient beaucoup à cœur et c’est la philosophie vers laquelle on veut aller. 

– Marc — 17:59 :

 Vous avez des profils non ingénieurs qui ont mis en place des dashboard? Ce genre de choses? Ça, cette acculturation d’attaque, vous avez mis en place, est-ce que vous arrivez à les faire utiliser metabase? 

– Coralie — 18:10 :

 Oui, complètement. J’ai plusieurs exemples en tête. Des exemples côté B to B donc qui ont créé leur propre dashboard. Certains dashboard qui ont été montrés à des marchands et aussi un exemple récent, donc côté service client, avec tout un sujet de d’améliorer le suivi qu’on a de nos temps de réponse à nos utilisateurs qui soumettent des TIC au service client. Et donc ça c’est de la donnée qu’on avait dans un outil tiers qui était complètement stylisé. Qu’on a recoupé dans notre data warehouse. Donc qui est snowflake et après nous, on a vraiment travaillé sur cette partie. Tuyauterie de données l’ingestion, la transformation pour laquelle on utilise des BT pour donner la sortie la plus propre possible à l’équipe service client et qui elle, a identifié une personne qui était intéressée par les sujets data BI et quelqu’un de mon équipe. Du coup, a travaillé en binôme avec elle pour la former, lui montrer comment faire dashboard metabase et ensuite ça a été itératif où cette personne qui avait pas un profil 1G mais était très intéressé. C’est tout à fait capable de travailler sur ces sujets là à réaliser elle-même ses dashboard et donc on a mis en place un process de review sur les cas compliqués ou sur les points bloquants, et c’est ça scale, beaucoup mieux parce que ça permet à ces personnes d’être enfin, de répliquer le process, de créer d’autres, de l’adapter. Quand le dashboard devient un peu ou Tahiti donc c’est vraiment c’est hyper important pour nous et ça a bien marché sur certains cas et on veut continuer à faire ça avec toutes les équipes. Là dans les mois qui arrivent. 

– Marc — 19:33 :

 Ça enlève énormément de friction si ils ont pas besoin d’en voir aussi hein? 

– Coralie — 19:36 :

 Ouais complètement c’est le but et on réfléchit à des bons moyens de faire de la formation continue. Peut-être avec différents niveaux de formation, suivant quel stade la personne en est d’utilisation, des outils de data et aussi des formations sur les données qu’on a, comment elles sont agrégées, comment elles sont accessibles, et c’est quelque chose sur lequel on travaille aussi de notre côté de construire un data modèle le plus propre et le plus structuré possible. Avec la donnée de tous les outils qui sont utilisés par les différentes équipes. Donc c’est vraiment un chantier qui est central pour nous et qui va permettre de faciliter la démocratisation de l’usage de la donnée chez des locaux. 

– Marc — 20:07 :

 Ce que tu appelles data model, c’est l’orchestration des différents. 

– Coralie — 20:11 :

 Parce que j’appelle. Data model, c’est plus la structuration de notre schéma de données, c’est à dire avoir toute l’étape utilisée par la finance accessible à un endroit, donc avec les différents types de revenus ou de coûts agrégés, par temporalité, jour, semaine, mois. Avoir la même chose pour le marketing, avoir des métriques d’usage de produits par exemple avec des utilisateurs actifs et donc d’avoir toutes ces métriques finalement qu’on suit d’un point de vue business mais qu’on pourrait industrialiser, automatiser avec une bonne arborescence de données et pour ça on va utiliser vraiment des BTS On a commencé à le faire et c’est ça qui va rendre ces données beaucoup plus faciles à comprendre et à utiliser dans notre outil de bi, sans avoir besoin, à aucun moment de faire du SQL. 

– Marc — 20:54 :

 Quand est-ce que tu es la plus contente de ce que tu fais? 

– Coralie — 20:57 :

 Ce qui est le plus satisfaisant en tout cas dans le métier qu’on fait en data, c’est de se rendre compte qu’en permet à des équipes de prendre des décisions éclairées, de monter en compétence sur les sujets data et de mieux comprendre leurs utilisateurs. Et tout ce qui importe pour eux d’un point de vue Daily, de prendre des décisions plus rapidement également, donc c’est vraiment satisfaisant de ce côté un peu. Annabel enfin, rendre service aux différentes équipes. Moi, j’ai aussi eu la satisfaction de voir l’équipe grandir en a on abordé une 2ème data analyse, puis un 3ème et là quelqu’un qui vient d’arriver très récemment et ça a vraiment décuplé le. Puissance de tir en quelque sorte qu’on a dans l’équipe pour mettre en place la bonne stack, les bons outils et continuer à aider les équipes et c’est super satisfaisant, surtout dans une entreprise où il y a vraiment cette culture et cette appétence d’utiliser la donnée, de mieux comprendre les usages, les comportements de nos utilisateurs s’ils aiment ou pas les fonctionnalités qu’on a développées, donc travailler dans cet environnement là, c’est super gratifiant. En travaillant en data qui est par définition une équipe transverse amenée à travailler avec toutes les équipes métiers. 

– Marc — 22:06 :

 À l’inverse, quand est-ce que tu es la moins contente de ce que tu fais? 

– Coralie — 22:09 :

 Je pense qu’il y a un trade-off un peu naturel entre l’enfin en tout cas quand on met en place une stack data entre le court terme, donc on a envie d’aider tout de suite, de faire la quéry qui va débloquer la personne athée plus 1h et Ben on a aussi envie de à long terme créer bah des tables qui sont faciles d’utilisation de les mettre dans un outil sur lequel les personnes sont formées peuvent faire les outils eux-mêmes, donc un peu toujours ce trade-off entre j’ai envie d’aider, la personne peut être de lui faire son dashboard sur metabase et la débloquer et d’un autre côté il faut garder en tête qu’on doit dédier. Une partie significative de notre bande passante à au long terme à la formation, au choix d’outils à rester cultivés en quelque sorte sur l’écosystème data qui évolue très vite et donc c’est des choses sur lesquelles o n dédie du temps, quitte à parfois faire des arbitrages sur des Quick wins qu’on pourrait réaliser. 

– Marc — 23:00 :

 Et si c’était à refaire, qu’est-ce que tu referais différemment? 

– Coralie — 23:04 :

 Si c’était à refaire, peut-être que je me serais penchée sur le sujet du data model. Plutôt donc en construisant des un peu comme je t’expliquais qu’en construisant des tables faciles d’utilisation agrégées facilement accessibles par tous les utilisateurs dans l’entreprise via metabase peut-être en même temps que la mise en place de metabase pour éviter une transition qu’on aura entre des beaucoup de questions qui ont été réalisées en utilisant du SQL vers quelque chose de plus drag-And-Drop donc ce serait dans l’ordre des chantiers. Sur lesquels on s’est adressé dans la construction de la Stack. Mais sinon, en termes de choix technologiques, parce que c’était les gros enjeux qu’on a eu, c’était des choix technologiques, parce qu’on partait un peu, on a tout refait, de la stac là-dessus. Je pense que pour l’instant, on n’est pas à l’abri de changer d’avis à un moment donné, mais je crois que pour l’instant, on est satisfait des outils qu’on a choisi, de la manière dont on les a mis en place. On a beaucoup parlé à des pairs pour faire ça. Moi, j’avais pas un background, 10 ans d’expérience en data avant d’arriver et donc c’est quelque chose sur lequel on a essayé de trouver des solutions en parlant à d’autres personnes qui ont les mêmes enjeux à un moment donné, on se rend compte que les enjeux sont très similaires. D’une boîte à l’autre. Donc je pense qu’on est resté, je dirais modeste en nos capacités à juger tel outil, telle technologie et à vraiment enfin faire des benchmark précis et éclairées par d’autres personnes aussi à l’extérieur de djoko, donc on n’a pas eu de gros regrets pour l’instant, sur des choix qu’on aurait pu faire trop vite ou mal. 

– Marc — 24:27 :

 Est-ce que tu as une opinion à nous partager sur la data? 

– Coralie — 24:30 :

 À une opinion que j’ai sur la data et qui m’a beaucoup frappé chez djoko, surtout quand j’ai commencé à parler à d’autres entreprises. C’est l’importance de la culture. Qu’on a parce qu’en fait on peut avoir autant de données autant de dashboard qu’on le souhaite. Si les personnes sont pas sensibilisées à l’usage de la donnée pour des décisions et qu’on est dans quelque chose de beaucoup plus intuitif que de rationnel et de fonder sur des faits, c’est beaucoup plus dur d’avoir un impact en termes d’équipe data. Sur le reste des équipes et nous, on a la chance chez Yoko d’avoir une assez forte culture. Celle qui est produit. Alors, on a pas mal de profils ingénieurs mais même en règle générale, les personnes sont assez sensibles et assez rationnelles et je pense que c’est vraiment quelque chose qui nous a aider, s’accoupler avec de la bonne volonté parce qu’au début, on n’avait pas tous les outils parfaits. On n’avait pas un data model top parce qu’en même temps, quand on utilisait la data pour des sujets business Analytics, on était en train de mettre en place la stack et on a vraiment eu des personnes qui avaient parfois des profils pas du tout technique et qui mettaient le nez dedans. Qui apprenaient le SQL ou même du Python. Sur certains exemples d’eux-mêmes. Et donc je pense que ça c’est une chance qu’on a chez bio et qui m’a beaucoup impressionné quand je suis arrivée. Et évidemment, on veut aller vers une simplification en même temps qu’on grossit de l’usage de la donnée. Mais je pense que c’est un chantier à pas négliger la partie culturelle et Explication évangélisation sur pourquoi on utilise la data, pourquoi ça a de la valeur pour l’entreprise? 

– Marc — 25:55 :

 Alors quels sont les chantiers à venir côté data chez Djoko? 

– Coralie — 25:58 :

 Alors on travaille là sur la mise en place de notre modèle de données, on a mis des BT donc il y a un outil data transformation et qui est lié à nos data warehouse. Snowflake, on l’a mis en place il y a quelques mois et donc ça va. C’est un petit vraiment sur lequel on veut passer du temps pour construire un modèle de données qui est pertinent pour nous. On a également un chantier d’amélioration de la manière dont on l’Ode, la donnée, donc passer à une situation, on aura de la donnée. Plus rapidement, donc moins de 10 lits entre l’action utilisateur ou la réception de la donnée dans nos bases de prod et le moment où elles sont accessibles sur nos outils de bi et également qui sera plus optimal en termes de coûts. Donc ça, c’est un chantier qui est en cours et après on aura tout un pan à mesure qu’on complexifie les pipelines de données, les jobs, on rajoute des outils tiers qui sont connectés à nos data warehouse. On aura toute une phase de mise en place d’une stratégie de testing, d’alerte sur ces jobs qu’on garde dans un coin de nos têtes, mais qu’on peut pas prioriser tout en même temps. Donc pour l’instant c’est pas un chantier qu’on a beaucoup adressé et qui arrivera. Sûrement sur Q 3. 

– Marc — 27:01 :

 Ok. Et pour djoko en général, quelle est la suite? 

– Coralie — 27:04 :

 Alors on a 2 grands axes de développement, on a l’axe d’expansion géographique, donc on en 2023 c’est le l’année de l’internationalisation. On a rendu l’App compatible avec L App Store US donc maintenant elle c’est possible de la Download aux US on l’a mis dans la main de quelques utilisateurs qui vont la tester et vraiment on a l’idée d’apprendre sur un petit panel d’utilisateurs avant de déployer des grandes stratégies de l’eau et c’est quelque chose qui est en cours et donc c’est les US mais ça peut être d’autres géographies. À moyen terme et côté produit donc on a un produit sur lequel on mise beaucoup, qui est notre extension de navigateur mobile sur IOS et donc on est très à l’écoute de l’usage que font nos utilisateurs de ce produit là pour l’améliorer, ajouter des fonctionnalités dessus. Et on a également donc d’autres fonctionnalités qui vont arriver sur la partie responsabilité. Enfin, shopping plus responsable par exemple, raffinement de notre. Tracking d’empreinte carbone et c’est quelque chose qui va arriver là, courant 2023 avec d’autres features, par exemple des Features de Gift Card toujours pour aller dans le sens de notre mission qui est de permettre à nos utilisateurs de faire du shopping plus intelligemment, peu importe ce que ça veut dire pour lui, suivant là où il l’utilisateur met l’accent, que ce soit du shopping responsable ou le pouvoir d’achat, toutes les features qu’on développe vont dans cette direction et continuent à aller dans cette direction en 2020 et Ben Bon courage, merci Coralie. 

– Coralie — 28:28 :

 Merci à toi Marc. 

– Coralie — 28:29 :

 Vous venez d’entendre Coralie Betbeder Cholette, Lidl Data chez Djoko dans Data driven. À Nolan si vous avez aimé que vous les nous soutenir, n’hésitez pas à vous abonner à la chaîne, à liker et à partager dans le prochain épisode, je recevrai Edouard d’Archimbaud Sitio de Kili Technology, pour nous parler d’annotation de données à très vite.