RESTER AGILE
Victor Billette de Villemeur, product manager chez L’Oréal, est l’invité de l’épisode 2.
Pourquoi la data est au cœur de la stratégie d’une entreprise de cosmétique ?
Comment s’assurer du retour sur investissement des projets data ?
Comment se transposent les principes de l’agile à la data ?
À travers un regard transverse des différents métiers, il déchiffre l’univers data d’un grand groupe.
– Victor — 00:01 :
Socialement, en fait, on, on a l’impression qu’on fait un data scientist. C’est une superstar et un data analyst, c’est un boulot un peu moins technique, un peu moins poussé quoi. Je trouve ça assez ironique parce qu’en fait pour la data science marche que les data algorithmes, machine learning marchent. Il faut d’abord qu’on soit capable de faire de la bonne B et de la bonne data, analyse du coup en sous-estimant en sous, investissant sur bah ces fonctions BI data, analyse et aussi data ange, on se tire une balle dans le pied et on fait moins de la mode data science à la fin.
– Marc — 00:28 :
Bonjour et bienvenue sur data driven One One, le podcast qui s’intéresse aux applications concrètes de la data. Dans toute leur diversité, je suis Marc sanselme, fondateur de scoopeo, agence de recherche et développement en data Science. Je reçois des professionnels d’horizons variés pour nous parler de leurs aventures, leurs succès, leurs échecs, leurs espoirs, leurs techniques, leurs astuces, leurs histoires et leurs convictions. Cette semaine, je reçois Viktor billet de villemur Product manager après 4 ans chez bearing point en tant que prestataire pour le secteur public, il est maintenant chez L’Oréal, dans le département, Haïti. Depuis un an. Il est également vulgarisateur sur LinkedIn, avec 2 publications par jour sur le sujet, PM et tech en général. Bonjour Victor.
– Victor — 01:08 :
Bonjour Marc.
– Marc — 01:09 :
Alors, Victor, est-ce que tu peux nous dire en quoi consiste product manager chez L’Oréal? Dans le département, Haïti, exactement.
– Victor — 01:16 :
Ouais, avec grand plaisir Marc alors du coup ma Project manager côté tech chez L’Oréal c’est déjà un boulot de manager en général, c’est à dire que du coup, tu vas interagir avec 3 grands mondes, le monde de la tech, le monde de la technique, les développeurs, les ingénieurs, les scientistes pour délivrer des applications qui soient bien faites d’un point de vue technique, tu vas échanger avec le monde des utilisateurs et de l’expérience pour essayer de leur construire des applications qui soient bien intuitives, ergonomiques, bien faites et et voilà des jolies interfaces. Et puis du coup t’as un 3ème monde qui est celui du business. On essaie de construire des applications qui soient rentables, qui trouvent leur marché et donc qu’on puisse bah faire agrandir la durée. Alors du coup ça c’est donc un le problème majeur en général, et alors plus spécifiquement moi chez L’Oréal. Ce sur quoi je bosse, c’est des applications métier pour les employés de L’Oréal, donc on est dans un contexte B to e business to employ et donc il y a certaines spécificités à à ce boulot là, donc on pourra, on pourra y revenir. Mais une des spécificités que ça a, c’est qu’on essaie beaucoup du coup d’utiliser la data pour rendre les employés plus efficaces dans leur leur boulot de tous les jours. Donc ce qui fait quoi, la, la, l’approche data-driven, c’est quelque chose qui nous, qui nous anime et et sur lequel on travaille pas mal.
– Marc — 02:24 :
Alors dans ton cas et en tant que Product manager chez réal la, la, la data en en quoi ça consiste? Qui ça sert comment c’est géré exactement à ce que tu peux nous donner un peu, l’interaction que t’as au quotidien en tant que Product manager?
– Victor — 02:36 :
Ouais, alors je vais commencer déjà par les les 3 aspects avec lesquels j’ai interagi avec la data, je pense le premier, il y a vraiment un côté qui est bah construire des produits qui se basent sur de la data, de la data Science, des bases de données, de l’intelligence artificielle parfois. Donc en fait ça va nous aider à générer plus d’efficacité pour les employés. Ça va nous aider à accélérer certaines tâches qui peuvent être fastidieuses. Ça va nous aider à à avoir des tailles plutôt marqué, plus importants, plus rapides. Sur des produits cosmétiques, ça, c’est le premier aspect. Donc bah voilà, construire des produits qui sont un peu spécifiques, coques qui ressemblent pas forcément aux autres produits qu’on peut avoir sur le marché quand justement ça va être des applications un peu plus simples quoi donc premier aspect, je dirais des produits data, des produits y a le 2ème aspect c’est que dans notre quotidien tous les jours en tant que product manager, moi je suis obligé de d’utiliser beaucoup la donnée de parce que c’est une source d’information hyper précieuse sur le comportement de mes utilisateurs et ça me permet en fait derrière bah d’avoir des insides précieux pour faire évoluer mes applications d’une manière de pour les rendre un peu plus efficaces et et pour les rendre plus ouais pour pour faire en sorte qu’elles soient plus utiles pour mes utilisateurs, donc par exemple ça va être un truc comme Google Analytics qu’on va brancher sur nos applications, sur nos produits et donc ça va nous ressortir de données d’usage et ça va nous donner des bah des infos sur comment les utilisateurs l’utilisent. Donc ça c’est le 2ème point du coup hein la la data en fait comme aide pour le Project Manager et le 3ème aspect qu’il a un peu spécifique à à chez L’Oréal et au travail Moi que je fais aujourd’hui enfin c’est temps-ci, c’est qu’on essaye aussi du coup de dans une grosse boîte comme le Real dans un grand groupe, donc à peu près 100000 personnes. Et je sais pas entre 2 et 5000 personnes sur les sur les sujets tech en fait, on a beaucoup de gens qui vont bosser sur la data, sur la data Science en particulier et et donc il y a un risque, un peu de dispersion et donc un des enjeux qu’on a aujourd’hui aussi, c’est de de bah de créer des communautés sur ce sujet sur ce sujet data science pour faire que les gens bah échangent, qu’il la transversalité et qu’on réinvente pas la roue en fait parce que bah voilà quand quand t’as une boîte qui est très très grosse avec bah plusieurs localisations géographiques hein évidemment dans tout le monde quoi. Bah potentiellement quelqu’un va faire un truc en aux États-Unis, puis en fait derrière quelqu’un doit le faire en Chine 6 mois après donc voilà, on a aussi cet enjeu là, c’est c’est le 3ème hein du coup d’on va dire fédérer, créer une sorte de culture commune de data les peut-être aussi.
– Victor — 04:50 :
Et ouais, tout à fait aussi, ça fait partie de ça également.
– Marc — 04:52 :
Alors pour entrer dans le vif du sujet, ce que tu peux nous parler de décision business, on va dire stratégique que vous auriez pris grâce à la data.
– Victor — 05:01 :
Alors, ça va être difficile d’identifier une décision business précise, mais il y a 2 aspects, je pense. Enfin, 2-2 champs particuliers sur lesquels on va beaucoup utiliser la donnée. Le premier, je pense, ça va être tout ce qui va être sur la stratégie média, la stratégie de de promotion de la stratégie marketing. On va beaucoup utiliser la data pour essayer de réfléchir à ou investir en termes d’en termes de dépenses marketing, est ce qu’on va investir dans des médias traditionnels comme la télé, les journaux? Est-ce qu’on va investir dans des médias un peu plus un peu plus, modernes un peu plus nouveaux, comme des campagnes d’influence sur Instagram sur Tik Tok, donc là ça va être un des premiers aspects sur lequel on va utiliser la data avec des modèles. Bah parfois un peu un peu complexes quoi de de recherche opérationnelle et donc ça va nous aider à être plus efficace dans les dépenses qu’on fait. Voilà l’oral c’est une, c’est une entreprise qui est connue pour beaucoup de dépenser. Dans dans le dans tout ce qui est marketing et donc du coup on essaie de le faire intelligemment. C’est le premier aspect. Le 2ème aspect, ça va aussi être sur les sujets marketing, mais du coup un peu plus en amont sur bah la recherche utilisateur, la la recherche consommateur. Et si justement de mieux comprendre les comportements de nos nos, nos consommateurs, les, les grandes tendances qui se développent et donc on essaye aussi d’utiliser bah la data, l’intelligence artificielle et tout ce qu’on peut récupérer comme données sur les réseaux sociaux pour identifier les grosses tendances et et du coup les sujets sur lesquels investir.
– Marc — 06:17 :
Alors, est-ce que tu peux décrire le plus simplement possible l’architecture, on va dire? Data qu’avec laquelle t’aimes travailler sur les bonnes pratiques.
– Victor — 06:27 :
Ouais tout à fait plaisir. Alors du coup un truc hein, qui est, qui est assez récent, chez nous, chez l’oral? Enfin qui a 4-2-2-3 ans, quoi mais bon, pour une boîte qui a une centaine d’années c’est c’est assez récent, c’est qu’en fait on a enfin voilà, on y a toujours un débat un peu entre eux, à quel point je centralise la gouvernance, à quel point j’ai décentralise. Est-ce que du coup je fais passer toutes les décisions par on va dire un organe un peu unique ou est-ce qu’en fait je laisse un peu les gens faire ce qu’ils ce qu’ils veulent, quoi donc y a toujours une sorte d’équilibre à trouver qui est compliqué hein et et donc du coup une chose qu’on a faite c’est qu’on a essayé de centraliser. Un peu plus des choses. Bah sur le P, pertinentes, centralisées sur lesquelles on avait des économies d’échelle, donc par exemple tout ce qui va être stockage et gestion de l’infra on, on a tout migré globalement quasiment tout migré sur GCP sur Google cloud depuis un ou 2 ans. En tout cas, on est vraiment en train de de terminer tout ça aujourd’hui. Donc ça c’est le premier aspect hein, c’est que notre stack technique au niveau infra, c’est l’u GCP et et donc bah tous les avantages que le cloud peut peut donner en terme de voilà serveur. Là ça va beaucoup plus vite pour pour créer un environnement et donc ça c’est le premier truc. Au niveau technique.
– Marc — 07:28 :
Tout se branche les les services se branchent les uns aux autres facilement. Vous avez pas d’intégration? Difficile à faire quand vous utilisez plusieurs services de Google quoi alors ouais, on en a parfois sur des applis. Enfin, parce que du coup on évidemment, on a on a des applis genre SAP truc comme ça les force et là du coup qui sont pas forcément natifs GCP donc là c’est un peu plus compliqué mais on va dire moi sur le type d’application sur lequel je bosse qui sont globalement bah des applications sur lequel on va développer globalement à peu près tout in House à la maison du coup du coup pour le coup ça se passe bien quoi donc en gros on a une couche, donc GCP pour tout ce qui est stockage infra, et on utilise des services managés. Donc typiquement tout ce qui va être donc pipeline CICD on on est, on n’utilise pas mal Vertex et I bon voilà qui est en gros un peu le le truc. Enfin le le service qui nous permet du coup de faire du du CDD sur des sur des applications machine learning et des aspects hop également quoi ensuite en général on a du Python assez classiquement pour tout ce qui va être gestion de la donnée back end et et puis derrière du Front end en JS en général on fait du ouais c’est le du REACT en général qu’on prend, donc c’est ça. Globalement la stack et ces choix, pourquoi vous les avez faits, est-ce qu’est-ce que tu connais les, les tenants et aboutissants de ces choix et avantages, inconvénients?
– Victor — 08:42 :
Alors je pense pour Python, Python, REACT. C’était c’était globalement, c’est parti. Des technos qui sont les plus les plus utilisés sur le marché. Un un, une petite précision, c’est quand même que souvent, on essaie d’utiliser aussi Stream milite au début au début du du projet, au début de la construction du produit pour prototyper un peu plus vite.
– Marc — 08:59 :
Stream Lite, outil qui simplifié à l’extrême pour créer une application web.
– Victor — 09:04 :
Exactement parce que ça nous permet facilement du coup de de tester très très vite le produit avec l’utilisateur et ça permet d’avoir du feedback et donc d’être un peu plus sécurisé du fait qu’on ait de la valeur quoi. Mais on va dire donc citons enfin Python, streaming réac. Je pense, c’est des choses qui sont assez. Voilà qui sont assez connues et et plutôt état de l’art. On va dire dans ce qui se fait sur le marché GCP Pour le coup, pourquoi on a pris GCP alors je saurais pas vous dire hein, j’étais pas dans le dans le schéma décisionnel, j’étais pas dans dans ouais dans l’organe de décision. Ce qui est sûr, c’est qu’y a un avantage quand même à avoir des CP qui est pas un qui est pas à leader en fait pour le coup sur le sur le sur le tout ce qui est cloud provider puisqu’en fait bon W c’est Azure sont quand même devant un désavantage d’avoir GCP c’est qu’on a des relations qui sont assez bonnes en fait avec eux on arrive à discuter et puis bah un petit peu bah voilà influent essayer d’influencer la la roadmap. On est des gros utilisateurs pour eux parce qu’en fait évidemment bon, si on regarde les les coûts, je pense que voilà une recette comme le Real, on doit dépenser beaucoup plus chez Microsoft quoi en termes de juste licence office mais par contre pour JCP c’est important d’avoir un acteur du coup de la beauté Ben qui soit chez eux ou chez eux. Et c’est notamment un truc qui mettent pas mal en avant, GCP sur dans leur communication institutionnelle. Le fait qu’on bosse avec eux, que du coup une boîte de la Biotech qui bosse avec eux.
– Marc — 10:13 :
Oui, le fait d’être un gros acteur vous permet aussi de leur demander peut-être des développements, des corrections, des choses comme ça sur leurs produits.
– Victor — 10:20 :
Ouais, exactement ça fait partie des des choses qu’on peut faire parce que du coup on on reste. Enfin, voilà un acteur un peu. Le plus important pour eux que que la normale, quoi.
– Marc — 10:28 :
Vous pourriez pas vous l’offrir si vous étiez chez le plus gros.
– Victor — 10:30 :
Exactement chez W France, ce serait beaucoup plus compliqué quoi. Il y a probablement aussi la culture Google en derrière. Je pense qui qui aide là-dessus, qui que probablement plus user centric que que côté à WS ou Azure. Mais voilà en tout cas c’est sûr que c’est plutôt vertueux pour nous et on je pense qu’on est assez content. Quoi de de ça alors,
– Marc — 10:44 :
Est-ce que vous faites du machine learning de chez L’Oréal, est-ce que tu peux nous parler un peu d’exemples concrets?
– Victor — 10:51 :
Ouais, avec plaisir bah du coup on on en fait alors je dis Bah pour vous citer 2 Applis qui sont assez emblématiques de ce qu’on peut faire. Donc c’est des applications pour le métier la la première donc c’était sur le sujet des traînes, l’identification des tendances. Donc c’est un gros enjeu, hein? Pour bon, toutes les marques. Enfin, voilà à peu près toutes les marques dans le monde, mais c’est un gros enjeu d’identifier les nouvelles tendances parce qu’en fait on a envie en tant que marque qui offre des produits de consommation pour pour les les consommateurs lambda, en fait, hein, d’être vraiment à en avance sur ces tendances là et de pouvoir bah adapter vraiment à la à l’humeur du marché quoi aux grands, aux grands sujets sociétaux, donc typiquement je sais pas Black Live Matters par exemple, Bah c’est un, c’est un sujet vraiment important que bah que du coup les les différentes marques dans le monde. Différentes entreprises Ben ont dû adresser une autre de leur communication ou dans leur stratégie de produits. Et donc bah typiquement le le prochain Black Live Matters. Bah on veut, on veut le repérer. Et puis bah du coup pouvoir voilà être être proactif là-dessus sur le sujet. Il y a un côté évidemment opportuniste hein parce que bah c’est aussi une manière pour nous de bah de de vendre plus de produits mais c’est aussi une manière de de montrer nos valeurs et d’être dans le bon timing pour bah pouvoir parler de de ce qui est important pour nous quoi donc ça peut être la matière ça peut être me too, ça peut être autre chose mais donc ça c’est le premier, l’identification des tendances et donc nous on on a des outils du coup pour Ben pour identifier ça. En amont, alors ça se passe comment? En général, c’est que Ben on va scrapper alors pas nous-mêmes, on va récupérer de la donnée sur les sur tout ce qui se passe sur les réseaux sociaux, ça va pouvoir être des postes d’influenceurs, ça va pouvoir être généralement un certain nombre de comptes de personnes qu’on va suivre et et d’autres on va pouvoir bah suivre un peu la l’engagement et l’influence et du coup on a une grosse base de données du coup avec plein d’informations, plein de textes, plein d’articles publiés et en fait on va essayer de faire un tri là-dedans pour bah sortir peut être des mots qui vont particulièrement sembler importants parce que leur fréquence de de leur fréquence d’occurrence et et et importante quoi. Et donc ça va me permettre de dire Bah tiens, voilà, c’est intéressant le le mot clean beauty le mot Green beauty, le mot no Cruelty, enfin Cruelty Free. Ben il ressort beaucoup donc ça veut dire c’est un sujet important type donc forty three ça veut dire Bah on ça ça renvoie au fait que les produits cosmétiques sont pas testés sur les animaux, en tout cas que ça a pas été fait avec de la cruauté envers les animaux, ça c’est évidemment un sujet qui est important pour nous. Bon ça fait longtemps ça l’est mais du coup du coup ça me permet de le confirmer quoi ça c’est le premier sujet donc vraiment identification des tendances et ça c’est des applications c’est les c’est les sujets de c’est des des applications machine learning qui nous permettent de faire ça au sens où du coup bah l’idée est toujours de projeter une tendance dans l’enfin de se dire voilà tel mot aujourd. Et il est à tel niveau et j’anticipe que dans le futur, il sera à tel niveau plus important et donc ça vaut le coup d’investir dessus quoi.
– Marc — 13:14 :
Donc là pour bien qu’on comprenne, vous récupérez la data avec du Scraping ou en récupérant les flux réseaux sociaux et ensuite c’est dans l’analyse que vous utilisez des outils de machine learning. On va dire de Natural Language processing pour comprendre tout ce texte éventuellement je sais pas l’image je sais pas si vous travaillez sur l’image aussi.
– Victor — 13:35 :
L’image se rappelle sur le muscle, mais oui effectivement, donc là y a un côté LYA un côté aussi, série temporelle puisque en fait. L’idée, c’est de dire je vais modéliser le comportement temporel d’une tendance et je vais.
– Marc — 13:43 :
Identification, vous faites utiliser des outils de machine learning pour prédire le les prochains data point entre guillemets, exactement.
– Victor — 13:50 :
Du coup, alors en 2ème, qui est plus orienté, lui vraiment? Lp pour le coup, traitement du langage. C’est en fait un outil qui va nous permettre d’analyser les commentaires sur différents différents plateformes e-commerce donc comme Amazon. Typiquement là-dessus y a beaucoup beaucoup de commentaires en fait laissés par des utilisateurs, des consommateurs sur les produits cosmétiques et en fait, on va essayer de les analyser pour bah voir ce qui ressort en termes d’insigne. Ouais sur le produit cosmétique et ça c’est très utile en fait pour bah nos équipes recherchent qui conçoivent ces produits parce que ça leur permet de voir d’avoir vraiment une une boucle extrêmement forte avec l’utilisateur final pour savoir comment il le l’outil a été perçu là pour le coup c’est du c’est ça va être la partie, machine learning apportée sur du L puisque bah l’idée ça va être de dire voilà j’ai j’ai j’ai un certain nombre de commentaires que j’ai tagué comme étant en lien avec tel sujet, avec tel degré de positivité de de négativité et du coup bah sur les nouveaux je vais pouvoir récupérer je vais pouvoir dire bah du coup voilà celui-là il est très positif ou un peu moins. Grâce à du coup au au stock de de données historiques sur lequel je me suis rentré.
– Marc — 14:47 :
C’est du passage à l’échelle, en fait, parce que finalement, par rapport à une dizaine de commentaires qu’on pourrait lire là, on se retrouve avec des dizaines de milliers, peut-être de reviews sur Internet et le NP vous permet de synthétiser, de d’extraire un avis synthétique de toutes ces personnes, exactement que peut-être des rapports un peu plus compliqués qu’une simple phrase. Mais c’est quelque chose qui ne serait pas accessible sans machine learning.
– Victor — 15:08 :
Ouais, exactement parce que le volume est trop important et et du coup on aurait pas à scooter prédictif qu’on enfin qu’on peut inclure là maintenant. Et il y a aussi un aspect intéressant mais du coup on aura sûrement. Donc aussi en fait le fait de d’essayer de créer sous kaza, c’est ça, nous a forcé à nous poser des questions d’un point de vue métier, qui était assez pertinent. Enfin typiquement, bah typiquement là, ça nous a poussé à me poser comme question. Bah, quels sont les attributs potentiellement sur lesquels peuvent parler les consommateurs quand on parle d’un mascara par exemple? C’est quoi les différents attributs dont peuvent parler les les consommateurs? Est-ce que si enfin voilà, typiquement, voilà mascara, on va, on va attendre qu’il fasse, pas de d’espèces de petits pâté au niveau des cils, mais du coup comment on définit ce terme pâté et et du coup en fait il y a vraiment eu un travail aussi métier de définition de clarification de ce qu’on attendait comme attribut. Qui pour le coup A pas grand chose à voir au au au début avec avec la data mais qui est hyper utile en fait. À la fin d’un de métier à la fin d’un de data.
– Marc — 15:59 :
Et alors, quel est le plus gros avantage compétitif que vous avez à L’Oréal en étant une société qui s’occupe de la data, qui l’analyse, qui la consomme?
– Victor — 16:08 :
On va du coup y a toujours 2 aspects à mon avis dans dans ces sujets data, je pense y a vraiment un sujet. D’abord rationalisation un peu, process, isolation quelque part, et là c’est un peu ce qu’on a mis en place avec du coup la migration sur GCP de l’Infra et puis du coup on bosse beaucoup hein, nous sur le côté data gouvernance. En fait, essayez de bah. On ne sort intelligent de faire que le métier. Les les fonctions business puissent avoir des idées, du use case qu’elles puissent construire avec les bah les populations activistes. Quoi donc ça c’est le premier truc hein? Je dirais, c’est la première chose qu’on a fait. Et la 2ème du coup C’est vraiment bah ensuite avoir une sorte de de compétence technique pour bah construire ces use case da de machine learning qui sont difficiles d’un point de vue technique donc c’est un peu les les 2 trucs qu’on a je pense qu’il faut l’un et l’autre quoi c’est à dire que si si jamais tu as bah la partie compétences, machine learning sans avoir la partie gouvernance, rationalisation de l’infra en fait t’as t’as des usines d’époque en fait qui vont jamais aller en production. Et puis si jamais t’as uniquement une partie rationalisation de l’infra gouvernance mais sans compétences machine learning en fait, tu vas rester sur des trucs qui sont très puissants comme la BI par exemple, mais tu vas pas aller plus loin sur les prédictifs et parfois ça va être nécessaire quoi donc nous le l’avantage direct ça nous donne c’est qu’en fait d’avoir fait ces 2 trucs là assez tôt de manière assez précoce alors quand je rapporte à notre industrie de la beauté, ça nous permet d’avoir une bah, des des premiers un un avantage important parce qu’on a commencé à essuyer des plâtres un peu plus tôt que les autres et du coup ça nous a permis de gagner en maturité un peu plus vite et et donc bah par exemple de commencer à capitaliser sur nos sites de data, les rationaliser, les câliner. Pour consulter ça, le meilleur qualité que bah et et en fait ça va continuer à s’améliorer au fur et à mesure, à la fois qualité en quantité et donc ça, ça nous permet de prendre de l’avance en fait sur les autres.
– Marc — 17:39 :
Vous êtes finalement une fonction support au sein de L’Oréal et et vous vous donnez le meilleur support à ceux qui conçoivent les produits, ceux qui design, les stratégies marketing?
– Victor — 17:50 :
Ouais alors du du coup justement, nous on essaie un peu de casser le terme fonction support parce qu’en fait la l’i t, un peu à l’ancienne on va dire c’était un peu ça, c’est à dire en gros je vais voir l’informatique quand j’ai besoin de nouveaux PC ou que mon PC marche plus et et ça du coup c’est en fait une relation client fournisseur qui est qui est pas hyper saine. Enfin en tout cas qui est pas forcément hyper efficace. On essaie vraiment d’être dans une relation un peu plus partenariale. Ou en fait le business va pouvoir nous parler d’un use case et on va bah travailler ensemble pour les pour le pour le sortir, pour le développer et ou aussi nous qui sommes plutôt techniques on va pouvoir bah leur proposer des idées et et en fait ensemble on va construire des choses. On est plutôt dans une relation partenariale par contre. Enfin je pense que voilà ce qui est important et ça revient à ce que ce que tu dis hein c’est qu’on est là au service du business, on n’est pas là pour faire de la City, pour le lit à la fin, on veut que ça serve à L’Oréal, on veut que ça aille l’impact bah pour la boîte en général.
– Marc — 18:40 :
Un data Scientist, un data analyste tu attends quoi de lui quand tu le recrutes?
– Victor — 18:45 :
Alors moi je dirais-je dirais Bah on va dire, c’est assez classique hein mais sauf skins arts hein pour pour différencier, je vais commencer du coup par lire aussi parce que c’est plus facile du coup la partie R skills en fait ce qu’on va quand même attendre de lui, c’est une bonne maîtrise des basiques en termes de cliniques, de données, gestion de données. Et puis, premières analyses statistiques, voilà ça, ça va être bah à la fois pour l’analyse à la fois pour pour le, pour, le Data Scientist pour en fait bah être capable de faire des, des petites manips rapides. Sur des données et récupérer les premiers insights ensuite, ce qu’on va attendre peut-être un peu plus spécifiquement, la data Scientist, pour moi, c’est des vraies compétences de Software engineer, c’est-à-dire qu’en fait on on est quand même en train de construire des applications qui terminent en production à un moment et donc on peut pas se permettre de juste faire en en gros des si je caricature des Jupiter notebook qui qui vont tourner en local sur le PC du PC Data Scientist donc moi j’attends aussi je pense d’avoir un peu cette cette ouais cette cette sensibilisation sur le fait qu’à la fin ça termine en prod et que ça doit être bah des applications bien faites quoi et bien conçues c’est aussi en avec le plus d’argent pour le coup qui qui fait partie aussi de cet écosystème. Donc ça c’est c’est, c’est voilà, c’est, je pense, le premier point sur la partie hard skills et sur la partie soft skills hein? Je dirais qu’en fait on a besoin aussi d’avoir des data scientists, des bons communicants qui sachent expliquer leur travail, un un des gros écueils je pense de de machine learning aujourd’hui, c’est qu’en fait c’est mal compris, notamment par les chefs, les sponsors qui imaginent que c’est une sorte de baguette magique. Et en fait on a besoin de de data Scientists qui savent expliquer en quoi c’est pas le cas. En quoi en fait? Bah c’est c’est très puissant comme approche mais en fait ça revient quand même à la au bout d’un travail qui est poussé, qui est compliqué. Donc on a besoin de cette communication.
– Marc — 20:18 :
Tu viens de parler de sponsor justement, pour quelqu’un qui est pas product manager, c’est intéressant d’avoir un peu une une explication de ce qui va derrière les parties prenantes sur un projet dans une boîte comme L’Oréal, qui sait en gros et quels sont les interlocuteurs du Data Scientist dans ce genre de de situation?
– Victor — 20:35 :
Alors en général, je pense que sponsor de manière générale, hein, pour le définir, c’est quelqu’un qui globalement a un peu de droit de vie et de mort sur ton projet, hein, pour le dire très simplement et du coup bah sur un peu tout produit, tout initiative en fait. T’as souvent quelqu’un qui va représenter le monde. De l’informatique de la tech quoi donc là ça va être en général? Bah plutôt mes chefs, les chefs chez moi quoi et puis en général t’as un chef côté métier du coup, qui est le chef des interlocuteurs métiers qu’on va avoir, quoi et donc du coup pour moi, tout l’enjeu en fait du du Data Scientist un peu maintenant, quoi le data Scientist du futur c’est de pas purement et dans la relation de son stakeholder, de son sponsor côté tech mais aussi de savoir en fait en parler côté business quoi donc du coup je dirais qu historiquement en fait on a plutôt eu tendance enfin parfois on a le mauvais réflexe en fait de de dire que les nationalistes doivent un peu bosser en back office et et en fait mon, du coup, plutôt un reporting au niveau tech mais mais sans aller plus loin. Et je pense que du coup aujourd’hui justement faut aller plus loin, faut faut remettre le moment, mettre le data Scientist ou le développeur à l’acteur technique aussi au centre des débats et et le faire discuter avec le business parce que c’est vertueux pour tout le monde.
– Marc — 21:39 :
Et lui a besoin de comprendre les enjeux business pour bien bosser.
– Marc — 21:43 :
Exactement.
– Victor — 21:45 :
Il y a quelque chose d’assez récent qui s’appelle le règlement général sur la protection des données RGPD une contrainte de travail qui protège les données personnelles des gros acteurs comme L’Oréal sont sous le sous. Le feu des projecteurs? Concrètement, vous, au quotidien, qu’est-ce que ça change, comment est-ce que vous gérez ça. Bah du coup je dirais y a vraiment il y a 2 aspects-là dedans, je dirais y a la première premier truc, premier premier aspect, ça va être bah quand nous on gère nous-mêmes la donnée donc là effectivement on est obligé de faire de faire bien attention à ces aspects-là c’est un truc alors sur lequel auquel on fait déjà attention un peu avant hein sur les les enjeux de data privacy confidentiel de la donnée mais là pour le coup c’est matérialisé encore plus fort d’un point de vue réglementaire donc on est encore plus vigilant. Typiquement bah voilà, on enfin. L’oréal, un un sujet qu’on a depuis toujours c’est que donc l’oral, c’est une sorte de marque chapeau qui derrière englobe un univers de de de différentes marques. Quoi donc je sais pas, par exemple, Lancôme Garnier, c’est c’est des marques qui appartiennent à L’Oréal, mais qui en fait ont leur univers propre et et et en fait, quand les gens achètent Lancôme, potentiellement, ils ont pas conscience que c’est pas forcément conscience qu à la fin ils achètent le réel quoi. Enfin en tout cas que Lancôme, à partir de la maison mère, donc c’est des enjeux qu’on a depuis très longtemps, en fait de se dire bah du coup est-ce qu’est-ce qu’en fait dans quelle mesure en fait je peux, enfin Lancôme peut donner ces données à L’Oréal? Pour que le réel fasse de la pub pour d’autres marques L’Oréal, c’est un sujet qu’on a depuis longtemps, quoi et du coup on y fait très attention. Y est très vigilant parce que bah, c’est des aspects éthiques sur lesquels on veut être bah on veut être proactif quoi. C’est le premier truc, je dirais sur vraiment la donnée quand on la gère nous et puis du coup sur aussi un second aspect, c’est sûr, quand on achète de la donnée, quand on est enfin on du coup on est je pense responsable de traitement selon le RGPD mais en fait c’est pas nous qui à la fin générons la donnée, l’appareil est aussi bah obligé de beaucoup plus vigilant quand on va récupérer de la data d’un d’un d’un tiers provider bah dans ce cas-là on va on va. Il faut faire attention à ce que bah, la boîte soit aussi bah bien bien qu’une sur ces aspects-là et par exemple un sujet qu’on peut avoir hein, quand on bosse avec un data provider américain, Bah lui potentiellement a pas les mêmes contraintes en termes de confidentialité de données que nous et donc bah là on doit s’adapter et potentiellement faire des choix difficiles en allant pas bosser avec lui parce qu’en fait on a peur qu’il respecte pas les des des aspects du RGPD D’accord,
– Marc — 24:00 :
Donc vous êtes obligé de faire une sorte de d’audit de vos fournisseurs sur sur ce point là avant d’avant de bosser avec eux.
– Victor — 24:07 :
Ouais bien sûr.
– Marc — 24:07 :
Et l’autre contrainte que ça vous donne, c’est que finalement le RGPD vous oblige à à informer les utilisateurs de ce qui va être fait avec leurs données et comme vous êtes un grand groupe qui possède plein de marques, il y a des doutes finalement sur ce que vous avez le droit de transférer les données du d’usage d’une marque à l’usage d’une autre marque, c’est ça ouais tout à fait. En tout cas, c’est les, c’est les sujets. Enfin, en fait des sur lesquels on est je lisais depuis longtemps et auquel on en fait. C’est plutôt des sujets auxquels on doit faire gaffe par construction parce qu’en fait on est du coup. Enfin c’est une grosse structure avec justement ce côté ouais des des marques, des marques chapeau et puis des marques à l’intérieur de des des enfin des petites marques à l’intérieur quoi donc ouais, c’est en fait, c’est un truc sur lequel on duquel on sur lequel on est sensibilisé depuis longtemps. Mais voilà le le RGPD Bah rend ça encore plus concret quoi, même si en fait c’est déjà des trucs auxquels on doit faire face au jour le jour quoi enfin depuis longtemps.
– Marc — 24:57 :
C’est quoi les limites de la data dans ton quotidien?
– Victor — 25:00 :
Je dirais y a bah y a 2 écueils en fait. On a déjà un peu parlé donc le premier hein c’est vraiment un côté gestion des attentes et le second je pense c’est un c’est un côté difficulté à à voir la data comme vraiment une, un aspect Software engineer comme quelque chose qui est du Software générique. Donc si je creuse en fait donc le premier aspect c’est vraiment la gestion des des attentes, ce qu’on appelle vraiment le l’expectation gap Expectation handling, ça va être de bah bien faire comprendre que c’est pas une baguette magique. Il y a qu’en fait, pour faire de donc déjà bon, déjà l’i a en tant que tel c’est pas un bon terme, il faudrait parler de machine learning, algorithme prédictif, mais en fait pour arriver à faire des algorithmes prédictifs, déjà faut avoir des bases de données qui soient bien faites qui soient bien claires, bien harmonisés, bien rationalisées. Et puis en fait on va devoir maîtriser le problème métier derrière et une fois qu’on maîtrise le problème des métiers derrière, bah peut-être qu’ensuite on va pouvoir envisager de de l’instrumenter par des algos qui vont modéliser ça des algos prédictifs quoi. Et donc le premier sujet c’est vraiment ce côté baguette magique parce qu’en fait parfois ça nous pousse à voilà on peut avoir des demandes qui nous demandent de bah. Qui nous disent de d’aller, d’aller creuser, tel use case en disant Bah voilà y a probablement de l’i a à faire derrière alors qu’en fait bah potentiellement non et en tout cas même s’il y a des y a derrière qui peut s’appliquer on peut pas le savoir au début il va falloir qu’on creuse à bord et et donc c’est pas un truc qu’on peut anticiper quoi donc ça c’est le premier truc, je dis y a un côté vraiment gestion des des attentes, gestion des de la déception des sponsors sur le sujet quoi.
– Marc — 26:24 :
Dans une grosse boîte comme L’Oréal, est-ce que vous avez déjà eu l’occasion de faire des allers-retours, c’est-à-dire que vous voulez développer un produit? Vous vous rendez compte qu’un champ est manquant, qu’il faut collecter un type de données que vous avez pas et arriver à? La remontée jusqu’à. Disons le l’au département qui est capable de la collecter pour pour faire cette évolution et et en définitive créer le l’application que vous vouliez créer.
– Victor — 26:48 :
Ouais en tout cas c’est vraiment un truc qu’on qu’on met en place, qu’on essaie de faire le plus possible. Alors souvent c’est pas forcément que ça se matérialise avec un champ manquant ça souvent le problème ça va être du coup on se rend compte qu’on que la quantité de données est disponible est pas suffisante ou qu’elle est pas en qualité suffisante et donc du coup ça va nous permettre. Bah en fait on va essayer de le repérer le plus vite possible avec des travaux un peu exploratoires et et donc en fait ça va nous permettre direct de bah de baisser un peu les attentes vis-à-vis du succès du use case. Et donc de dire en fait de dans ces cas-là, relation, on commence à bosser sur un cas d’usage, on voit que la donnée est pas en quantité ou en qualité suffisante, donc en fait là on a 2 solutions c’est soit en fait on dit bah on on arrête l’use case et ça en fait plus. On se rend vite compte mieux c’est où souvent ce qu’on fait aussi c’est qu’on se dit bah du coup on va essayer de mettre en qualité un peu plus la donnée, de renforcer et de d’en connecter un peu plus pour avoir une quantité un peu plus importante et donc on va le faire de manière un peu itérative incrémentale en progressant petit à petit et puis du coup bah on va on va avoir des des petits points de passage réguliers donc de manière très Agile incrémentale pour dire ce qu’on continue parce que c’est prometteur. Parce que du coup bah on se dit que ça suffit, ça suffit pour le coup quoi donc ouais, on essaie de le faire, c’est c’est, c’est enfin c’est c’est pas évident en fait sur les sujets data parce que c’est ça s’y prête. Enfin c’est un tout petit peu plus subtil que que dans les approches à outils classiques, mais c’est évidemment que ce qu’on essaie de faire tout à fait.
– Marc — 28:00 :
Votre équipe pour avoir une idée un peu de la composition, c’est combien data scientists, analystes engineer, Product.
– Victor — 28:07 :
Manager alors, du coup du coup je vais parler donc donc ouais, d’abord je vais juste devoir mettre un tout petit peu de contexte sur comment ça fonctionne, hein? Le Latex chez L’Oréal donc en gros on on est, on a une l’oral, on est une boîte quand même qui est très décentralisée dans l’approche. C’est à dire qu’en fait il y a en fait y a pas un gros département ITA un département qui est un peu qu’on appelle IT global. It Group a une sorte de vision un peu transversale périphérique, qui va, qui va, qui va se charger de fonctions un peu. Transversale comme par exemple le stockage, le stockage et l’infra quoi. Mais sinon en fait y a plein de petits îlots, Haïti et tech à différents endroits de l’organisation et et donc du coup donc du coup là je vais parler bah de mon îlot tech donc qui s’appelle tech accélérateur hein qui est au sein de l’i T Group et donc qui développe des applications métiers pour pour les employés de leur quoi mais donc pour parler de mon entité à moi on est à peu près, je dirais une vingtaine de personnes avec du coup à la fois des profils data, Science et Data Science Data ange, des profils X designers problème, designer des profils Project Manager comme moi et des profils plutôt dans des tech TAC LED. Architecte Software, développeur, l’IDE développeurs. Donc, on est structuré à peu près comme ça et après en fait, sur une initiative, un produit donné, donc en général, on a un product manager, un product designer, un data Scientist, et bah en en général donc là le data Scientist joue un peu un rôle de leader et 2-3 data scientists ou data ou développer dans l’équipe produit on va dire.
– Marc — 29:28 :
D’accord et combien de Software ingénieurs dans une équipe comme ça et en général, je dirais 2 ou 3 Paris à peu près, sachant que souvent souvent, nous on peut pas tout internaliser, donc souvent en fait c’est les enfin les gens internes de de de l’équipe de du coup de côté, TAC accélérateur, en fait, sont enfin joue un peu le rôle de leader et du coup on a des presets. Ensuite, côté Software, ange et côté côté Data Scientist.
– Marc — 29:51 :
C’est quoi votre plus grande déconvenue dans ton équipe à L’Oréal? Avec la data et qu’est-ce que éventuellement tu regrettes de pas avoir fait autrement?
– Victor — 29:59 :
Enfin, je dirais l’un, un des sujets. Enfin je sais pas si c’est une décennie mais en tout cas un des sujets sur lequel on bosse beaucoup nous aujourd’hui, c’est tout ce qui va être adopté. On et s’assurer que les utilisateurs perçoivent bien la valeur ajoutée des applications qu’on construit et les utilise correctement et dans le temps quoi y a une forme de rétention aussi de ces applications. En fait, c’est lié aussi du coup à enfin au sujet de l’i a, c’est comme comme je disais. En fait, il y a souvent une une perception de l’IA et du machine learning qui a vu comme une baguette magique. Donc en fait on a envie de se précipiter vers cette solution là, ce qui fait que parfois ça nous aveugle et et en fait on prend pas le temps de se poser la question d’est-ce qu’il y a bien un problème derrière qu’on va vouloir résoudre et est ce que du coup ce problème pour le résoudre? Il faut bien utiliser du machine learning et donc en fait parfois parfois en fait, on on va trop vite à la solution parce qu’aussi y a du sponsoring qui nous pousse à utiliser ce genre de ce genre de technologie. Mais ce qui fait qu’en fait on n’a pas bien caractérisé le problème et on n’a pas bien défini comment bien cadrer la solution pour qu’elle y réponde plus efficacement possible. Ce qui fait qu’en fait, à la fin, l’utilisateur, il peut être un peu déçu ou en tout cas on a du mal à l’engager dans le temps. Et donc c’est voilà, c’est un un de nos gros sujets aujourd’hui sur lequel on essaie de beaucoup bosser en plus. Voilà, et en plus on a un élément de complexité supplémentaire qui fait qu’on est, on est dans un contexte business tout employé. Et un peu parfin qui est compliqué parce que du coup, voilà, c’est toujours des enfin c’est des populations qui sont dites captives, c’est-à-dire qu’elles ont pas forcément le choix d’utiliser mais du coup C’est d’autant plus dur en fait de susciter leur adhésion qu’en fait elles ont enfin elles ont pas forcément le choix donc en gros c’est pas évident paradoxalement.
– Marc — 31:28 :
Plus exigeant comme population?
– Victor — 31:30 :
Ouais tout à fait exactement.
– Marc — 31:31 :
Et un exemple à nous donner de de situation dans laquelle justement, l’il a été attendu comme une baguette magique et il a fallu manager. Les explications.
– Victor — 31:41 :
Bah je dirais de manière générale, en fait, j’ai pas peut-être un projet, ça va être compliqué de de donner un projet en exemple particulier mais en fait de manière générale je dirais que ça arrive souvent en fait y a des grosses attentes vis-à-vis de vis-à-vis de ça côté utilisateur. Et puis côté sponsor et qu’en fait bah soit en fait côté utilisateur à la fin il y a une forme de réceptivité parce qu’en gros on attend beaucoup trop de de l’algorithme machine learning et puis en fait bah quoi qu’il arrive ça reste quand même un produit informatique qui grossit dans le temps qui presse dans le temps. Donc, en fait du coup, l’utilisateur va être un peu bah déçu et du coup ça va le ça va créer de la suspicion vis-à-vis de de vis-à-vis, du produit et du machine learning, c’est à dire qui va être extrêmement exigeant et en fait il va attendre de lui qu’il soit complètement omniscient, ce qui est pas le but quoi. Enfin, voilà souvent aussi l’autre manière dont ça va se matérialiser, c’est qu’en fait, l’utilisateur va en gros être beaucoup trop va trop suivre en fait l’âge, ce que veut dire l’algorithme en fait là en commun sur l’algorithme va avoir du mal à faire preuve de recul et d’esprit critique et donc du coup il va le suivre de manière complètement automatique, ce qui est pas bien non plus parce qu’en fait à la fin on veut garder quand même une analyse humaine dans la boucle.
– Marc — 32:45 :
Oui, c’est des outils qui sont faillibles et qui sont utilisés comme comme vérité. Comment tu gères l’humain dans ce genre de situation avec ton expérience, ce que tu as adapté, comment est-ce que tu gères ces 2 facteurs?
– Victor — 32:57 :
Ben, je dirais l’un, une une manière. Enfin le meilleur conseil. Moi que j’ai là-dessus c’est qu’il faut réussir à anticiper ces éléments le plus possible. Alors c’est, c’est enfin je pense, c’est vraiment le le BA ba en termes de conception de produits informatiques, mais il faut inclure l’utilisateur dans la boucle dès le début, c’est-à-dire que l’en fait il faut pas concevoir un produit, il faut d’abord se demander à pour que je le construis quoi et et donc ça va, ça va forcément nous amener à aller voir les utilisateurs, leur poser des questions, les comprendre. Et et en fait, comprendre leurs problèmes et ensuite construire avec une solution, ça va nous permettre de les mettre dans la boucle dès le début et en fait, ça va faire de la conduite du changement, ça va, ça va justement permettre de bah de commencer à les convaincre du fait que l’application qu’on va essayer de construire, elle va être pertinente donc en fait les inclure dans la boucle dès le début même avant d’écrire la première ligne de code.
– Marc — 33:42 :
Par opposition à écouter ce que dit le sponsor, demander un cahier des charges aux sponsors et l’exécuter finalement.
– Victor — 33:48 :
Ouais, exactement exactement, c’est même pas forcément un sponsor hyper hyper élevé, c’est ça va être le le, le réflexe que qu’on a toujours en fait quand on construit des applications, c’est l’on a toujours l’impression de mieux comprendre l’utilisateur de, de faire, de bien comprendre l’utilisateur et en fait, en fait, on se rend compte toujours empiriquement que c’est pas le cas que dès qu’on va discuter en fait dès qu’on va discuter avec, on va apprendre plein de choses et donc pour éviter ça. Et si un cercle vertueux en fait, faut le l’inclure dans la boucle très très tôt pour être sûr de bien être bien visé en fait ensuite en terme d’application.
– Marc — 34:18 :
Est-ce que tu as une opinion à nous partager sur la data?
– Victor — 34:22 :
Un truc qui me frappe, c’est qu’et ça, ça rejoint un peu ce que je disais avant, c’était, c’est qu’en fait souvent on a tendance. Enfin, je trouve ça assez ironique. On a tendance à un peu sous-estimer tout ce qui va être, business, intelligence et data, analyse un peu basique. Enfin je dis basique parce qu’en fait on a l’impression que c’est moins poussé que du machine learning et et donc on va un peu sous-estimer ces fonctions là. Et puis il y a aussi un côté ou socialement en fait on on va, on a l’impression qu’en fait un data Scientist c’est une superstar et un data analyst et voilà il enfin c’est un boulot un peu moins technique, un peu moins poussé quoi je trouve ça assez ironique parce qu’en fait. Donc la data science marche, que les des algorithmes machine learning marchent. Il faut d’abord qu’on soit capable de faire de la bonne B et de la bonne data, analyse du coup en sous-estimant en sous, investissant sur bah ces fonctions BI data, analyse et aussi data ange, on se tire une balle dans le pied et on fait moins de la moins bonne data science à la fin.
– Marc — 35:10 :
Si t’as un conseil à donner à quelqu’un qui sort d’école en tant que Data Scientist, Data Analyst, Data Engineer, ce serait quoi alors moi j’ai 2 conseils à donner, enfin je vais m’amender 3 du coup donc le premier c’est de pas négliger la partie Software Engineering ça veut dire bah en gros Python c’est le langage le plus courant pour faire la data science mais en fait faire des applications web en Python c’est pas un truc sur lequel on c’est pas un truc qui est hyper, qui est hyper courant courant non plus dans dans le dans l’industrie donc faut enfin voilà faut pas hésiter à aller un peu plus loin à lire des bouquins qui vont un peu plus loin dans le Software Engineering. Souvent sur l’orienter, objet du Java, des choses comme ça quoi donc faut pas négliger ça à mon avis, parce qu’on oublie souvent en fait. Enfin, la partie statistique peut trop nous emmener, enfin peut trop nous attirer. Faut pas oublier qu’à la fin ça reste encore une fois des applications qui tournent en production, donc attention à la Software ange. Le 2ème, 2ème aspect je pense c’est de pas négliger la maîtrise du du sujet métier à chaque fois, donc ça veut dire en fait pour moi le data Scientist c’est aussi un data Scientist qui bosse dans telle industrie. Donc si on bosse dans l’industrie bancaire bah faut maîtriser l’industrie bancaire et et encore une fois maîtriser le problème métier ça va être une manière bah aussi hyper efficace de construire des applications qui fonctionnent bien. Donc le pas sous-estimer ça, même si c’est pas technique, hein, c’est important de le faire et le 3ème truc c’est tout ce qui est soft qu’ils ont à mon avis en fait en en gros entre un data Scientist qui est exceptionnel d’un point de vue technique mais qui est très mauvais communiquant et en scientiste qui est moyen d’un point de vue technique qui est un excellent, qui est un très bon communicant, je préfère largement le 2ème parce qu’en fait ça sera beaucoup plus simple, ça sera beaucoup plus simple en fait, à d’expliquer d’expliquer ce qu’on fait à la derrière et et souvent en fait la difficulté pour nous c’est pas du coup bah d’un point de vue technique de gagner 3, 4 % de performance en algorithme c’est de bien communiquer intelligemment sur ce à quoi sert l’algorithme. Voilà les 3 conseils du coup hein?
– Marc — 36:53 :
Pas besoin de construire des cathédrales, en revanche, il faut bien avoir cerné les enjeux, bien bien communiquer avec toute l’équipe pour que l’utilisateur soit bien servi.
– Victor — 37:01 :
Quoi exactement? Ouais, pragmatisme, je pense. C’est ça le beau.
– Marc — 37:04 :
C’est quoi l’avenir pour L’Oréal dans la data, c’est quoi les les prochains enjeux pour vous?
– Victor — 37:09 :
Et je dirais y a y a toujours un peu enfin, y a plusieurs phases en fait de maturité dans les dans les sujets data je pense. La première phase c’est une forme un peu d’enthousiasme du découverte ou en gros on va tester un peu les trucs à droite à gauche on est pas très très mature et du coup là cette fois je pense qu’on l’a passé à quelques temps. La 2ème phase à mon avis, c’est une phase où un peu plus mature et on commence à rationaliser un peu les choses, à essayer d’être plus organisé et plus industriel dans l’approche et du coup ça je dirais que c’est la phase de laquelle on on est un peu en train de sortir et pour aller vers une 3ème phase qui, à mon avis une une phase en fait où on en gros, on a bien compris la force de la data, du machine learning et puis également ses faiblesses, ses biais et en fait on arrive à avoir une une vision un peu plus je dirais macro peut être un peu holistique en fait de ce qu’on doit faire avec la data et ou en gros bah le machine learning c’est un outil parmi d’autres pour utiliser des bases de données que que des enfin sur lesquelles nos applications informatiques stockent des stocks, des informations quoi. Et et donc du coup je dirais cette 3ème phase, justement qu’on commence à toucher un petit peu à gratuit du doigt mais qui voilà en fait. On y voit un peu plus neutre, un peu plus, plus, plus dédramatisée de de de l’i a et de machine learning. Ou en fait c’est un outil parmi d’autres mais c’est pas la Silver boulette, l’outil qui va, qui va tout résoudre facilement, automatiquement et et sans.
– Marc — 38:27 :
T’as pas mal bossé avec le secteur public dans le passé, est-ce que tu peux nous faire un état des lieux de de la data dans le secteur public? De ce que t’as vu?
– Victor — 38:35 :
Alors que dans le secteur public, une grosse différence c’est que les choses sont beaucoup plus centralisées en général. Par nature, c’est à dire que pour le coup, souvent, c’est dans une structure. Y a une grosse DSI qui va un peu centraliser toutes les décisions d’un point de vue informatique et ça se traduit au niveau au niveau informatique par bah des applications plutôt monolithiques avec une grosse. Enfin voilà des grosses bases de données et qui sont un peu immuables et difficiles à bouger. Donc je dirais que dans le secteur public il y a un enjeu justement à faire bouger un peu ces grosses structures historiques et et les faire aller vers du coup des nouvelles technologies qui soient plus agiles, plus modulaires. Et permet de faire plus d’innovations d’expérimentation. Et à côté du coup le truc c’est que le public aussi. Et bah AA monté quand même a commencé à monter des structures un peu innovantes data là, des choses comme ça quoi pour pousser des use case et donc du coup donc il y a quand même une forme d’ouais de conscience qui commence à se développer sur le sujet de Wireless mais du coup c’est un peu rejoindre les 2 trucs quoi, c’est à dire l’i à l’ancienne en fait, on construit des applications qui sont peut être un petit peu faillites parce que très monolithiques et et pas forcément hyper évolutive et modulaire et faire parler ce monde-là avec le monde du coup un peu l’innovation, on commence à faire des des potes un peu à droite à gauche mais en fait. C’est pas hyper industriel parce qu’en fait bah on parle pas suffisamment avec lait à l’ancienne qui a l’habitude de faire de la prof depuis depuis des années quoi.
– Marc — 39:56 :
Et donc on termine sur un problème d’adoption à la fin de l’époque.
– Victor — 40:01 :
Ouais, exactement d’adoption, je dirais. Et puis également de l’industrialisation, c’est à dire qu’en fait, on n’arrive pas forcément à bien le pousser en prod. Intelligemment, on n’a pas les bonnes compétences, quoi. Et effectivement à la fin, bah c’est l’utilisateur qui souffre de ça et donc bah c’est voilà c’est c’est un problème pour nos, pour nos produits, nos applications.
– Marc — 40:17 :
Merci Victor.
– Victor — 40:18 :
Merci Marc, merci pour l’accueil.
– Victor — 40:21 :
Merci d’avoir écouté data-driven One One si vous avez aimé, n’hésitez pas à vous abonner à la chaîne, à likez et à partager. La semaine prochaine, je recevrai Adrien Fenech, président d’estimé JO, pour nous parler de son expérience avec la data à très vite.