DATA et média spécialisé

Robin Conquet, fondateur de DataGen, qui vise à aider les entreprises à mieux comprendre et utiliser leurs données, est l’invité de l’épisode 30 de Data Driven 101.
Il nous partage son recul sur plus de 2 ans de podcast et nous explique comment il est passé de consultant en data à entrepreneur en évoquant les défis de l’entrepreneuriat dans le domaine de la data.

Robin Coquet : data et média spécialisé

 

– Marc — 00:00 :

 Aujourd’hui, je reçois Robin Coquet après quelques années chez Artefact, cabinet de Conseil spécialisé en data, il est fondateur de Datagen.  d’abord en City Project et aujourd’hui à temps plein Datgen. C’est un média qui permet de comprendre les stratégies data des plus belles boîtes. Un podcast qui a plus de 8500 écoutes mensuelles, une newsletter et une chaîne Youtube. Bonjour Robin. 

– Robin — 00:21 :

 Hello Marc, merci de me recevoir. Je suis ravie d’être là. 

– Marc — 00:23 :

 Et Ben avec grand plaisir. Est-ce que tu peux nous parler de Data Jane pour commencer? Comment tu en es arrivé là? 

– Robin — 00:29 :

 Ouais, bien sûr. Ben effectivement, comme tu l’as dit, moi initialement j’étais donc consultant, donc manager donc qui s’appelle artefact, un cabinet de Conseil spécialisé sur la data et donc en fait ça faisait longtemps que j’avais envie aussi de lancer un projet entrepreneurial. Ça remontait à l’école de commerce et donc à un moment donné, lorsque j’étais chez artefact. J’ai voulu lancer un side-project parce que j’apprenais pas mal de choses chez artefact, j’étais content là où j’étais et donc je voulais pas forcément. Voilà lancer une start-up tout de suite, donc chercher un projet à lancer en parallèle qui soit cohérent et qui me plaise et en fait, à ce moment-là, j’étais un gros fan de Podcast, donc j’ai commencé à avoir l’idée de lancer. Voilà un petit média, donc un podcast notamment. Et après pourquoi j’ai choisi le sujet Data Jane en fait ça se fait assez simplement. Donc chez artefact comme dans beaucoup de cabinets de Conseils, on bosse pour des grosses boîtes. Moi je travaille pour LVMH notamment orange ou des boîtes comme ça qui sont très intéressantes. Il se passe plein de choses mais c’est vrai que c’est des boîtes sur lesquelles on notamment en data, on va travailler sur des projets de transformation. Souvent, c’est des gros projets qui prennent du temps avec beaucoup de monde, et cetera. Et donc j’avais l’impression de pas forcément voir finalement la data sous l’angle le plus moderne dans une certaine mesure. Et donc je voulais concentrer mon podcast un peu là-dessus. Et c’est vrai que lorsqu’on cherchait à voir des retours d’expérience data moderne à l’époque, on se tournait toujours vers les boîtes américaines. Donc les GAFA, on regardait ce qui se passait chez Amazon, chez Google, des boîtes comme ça, mais sauf que là on était à des années-lumière, donc limite en termes de retour d’expérience, c’était inspirant dans une certaine mesure, mais finalement pas très actionnable. Donc c’est pour ça que j’ai voulu regarder un peu ce qui se passait dans nos start-up qui up et surtout Licorne aussi qui sont un peu comme les appelle parfois nos GAFA à nous pour voir si c’était intéressant et en vrai j’ai allé un peu sans savoir quoi. C’était aussi l’idée de du Podcast et donc voilà, ça a commencé comme ça pendant un an et demi. Je l’ai fait en parallèle de mon boulot, donc de manière assez amateure, mais ça me faisait marrer. Je rencontrais des gens, c’était cohérent par rapport à la data, j’apprenais des trucs, et cetera, et là depuis un an j’ai décidé de me lancer à temps plein. Sur ce projet justement? Bah parce que je suis arrivé au point, je voulais accélérer sur cette aventure entrepreneuriale qui me trottait dans la tête depuis longtemps et Data Jane initialement était pas du tout. Enfin voilà, je le je le je l’imaginais. Pas forcément comme le projet qui deviendrait une boîte hein. Je voyais vraiment ça comme le side-project pour patienter, mais finalement au moment de me lancer, j’avais un peu ouais, ce petit bout de ficelle quoi. Je commence à avoir une audience, j’aimais bien ça et la conviction surtout que ça pouvait devenir un projet plus concret quoi. Et donc un an plus tard, j’ai pas mal développé le Podcast, je suis passé à un épisode, voire 2 par semaine comme tu l’as dit je crois en intro. Maintenant, j’ai aussi lancé une newsletter, une chaîne Youtube et l’idée c’est petit à petit de faire émerger un média spécialisé sur la data plus globalement.  

– Marc — 03:26 :

 Alors tu nous a un petit peu parlé de ton métier d’avant, mais est-ce que tu peux nous décrire un peu plus chez artefact que tu faisais? 

– Robin — 03:33 :

 Ouais bien sûr. Alors bah peut-être pour ceux qui sont pas familiers avec le métier du Conseil, c’est assez simple. En fait, c’est des boîtes qui mettent à disposition des consultants pour accompagner des boîtes sur des projets bien spécifiques. Après y a plein de formats différents, ça peut être une équipe de consultants qui vient pour faire un projet innovant que le client ne sait pas faire ou ça peut être des consultants qui sont positionnés un peu plus sur le long terme, parfois même pour remplacer entre guillemets des ressources internes. Parce que ben les boîtes, voilà sont un peu frileuses en fonction de la conjoncture de d’internaliser ou pas, donc nous, chez artefact, on faisait ça, mais spécialisé sur la data, la data au sens assez large de mission très stratégique, à des missions très opérationnelles. Et donc moi plus concrètement. J’ai commencé par exemple sur une mission avec Samsung où là j’ai fait. Des projets très opérationnels qu’on appelle data marketing, donc en 2 mots, j’accompagnais toute la coordination des campagnes marketing augmentées par la data pour Samson. Donc on a fait des campagnes, des galaxies S 8, 9, 10. Enfin, je me souviens plus des noms exacts, et là l’idée c’était des choses qu’on retrouve souvent dans la data, donc d’augmenter les campagnes grâce à des segmentations très précises. Et donc on allait faire pour une campagne plein de petites segmentations pour personnaliser les interactions entre Samsung et ses clients. Enfin, et les gens touchés par les campagnes? Donc j’ai fait ça pendant à peu près un an et donc bon à l’intérieur de ça il y a pas mal de choses. Je mettais en place aussi des outils, ça m’a permis de comprendre un peu. Voilà la manière dont fonctionnait la data de ce côté-là. Puis ensuite j’ai voulu faire de la stratégie, donc là je suis parti pendant 6 mois à Dubaï et sur une mission strate, c’était un peu différent. J’étais plutôt, on était en équipe, on était 4 ou 5, mais un peu plus le bras droit du Chief Data Officer, donc du patron de la data, d’une fin tech au Moyen-Orient qui est un peu l’équivalent du n 26 ou du de notre conto à nous en fait. Et là, l’idée c’était vraiment structurer toute la stratégie data. Avec le Chief Data Officer donc c’était je sais pas, sa vision du département, son organisation, les profils qu’on allait recruter sur les prochaines années, les use case qu’on allait faire, ça allait de je sais pas, trucs simples à la business, intelligence, à des trucs plus avancés. Mais même si c’était un peu plus loin sur la feuille de route à le design de l’architecture data donc vraiment on a tout découpé en morceaux. On a tout mis sur une feuille de route donc au final nous après on a posé les premières briques donc je sais pas trop où ça en est aujourd’hui mais donc ça c’est des missions qui sont intéressantes intellectuellement mais c’est vrai que quand on a envie d’être dans l’action, en revanche ça peut être un peu frustrant parce qu’on reste beaucoup à l’étape de la slide. Ou sinon bah après faut rester pour l’implémentation ce qui n’était pas Mon cas, donc voilà pour donner quelques exemples et pour te passer plus rapidement les autres éléments sans rentrer dans le détail. Après j’ai voulu pousser un peu plus longtemps la strate donc j’ai refait la même chose grosso modo chez Sodexo où là on a fait la refonte d’un data Lab. Donc pareil, le lorga, les skates et cetera. Et là j’ai eu ma dose de strate et j’ai décidé de repasser sur des sujets beaucoup plus opérationnels. C’est là que je me suis spécialisé sur un rôle qu’on appellerait aujourd’hui dans le milieu plutôt Product Manager data et là grosso modo, je déployais des stages data, donc des architectures data. Et souvent plutôt des projets de business intelligent, donc des tableaux de bord avec des Data Engineers et des data analystes en équipe.  

– Marc — 06:40 :

 Si tu dois résumer ce que t’as appris de tes années artefacts en quelques points. 

– Robin — 06:44 :

 Alors il y a un premier point qui est assez basique et qui bon maintenant commence à remonter un petit peu, mais qui était assez crucial parce que je pense que je manquais beaucoup de ces éléments là, c’était tous les skills. Un peu de base en fait, du type WACOM écrite, le sliding, la gestion de projet et ça, c’est vraiment des choses moi bon après je suis biaisé mais je trouve que c’est vraiment bien de passer par le Conseil un an ou 2 parce que ça c’est des choses qu’on va prendre très vite dans le Conseil. Et en un an et après, ça représente quand même un socle qui est selon moi important dans n’importe quel job qu’on va ensuite faire par la suite, genre juste faire des mails concis. Enfin c’est des trucs de base hein. Mais finalement on je pense qu’on on voit vite quand quelqu’un les a développés ou pas. Ensuite il y a plutôt l’aspect data. Je trouve que le Conseil c’est ça que la spécificité, ce qui a été très intéressant. Bah c’est justement d’avoir pu un peu boucler plein de sujets et qui en l’espace du coup de 4 5 ans. À donner une vision globale alors je dis pas que j’ai tout vu, loin de là hein, mais m’a donné une vision globale pour bien comprendre en fait les enjeux de la data à des niveaux très opérationnels ou à des niveaux si levels, et donc de mieux comprendre les besoins des entreprises, les besoins des différents profils anticipés, les risques sur des missions, mieux anticiper le temps qu’allait prendre la mise en place de différents chantiers, et cetera, et cetera. Donc ça, je trouvais ça vachement cool quoi. 

– Marc — 08:10 :

 Ok, donc après artefact tu t’es lancé donc dans data gène qui est un média hein que comme tu le dis à quoi ça ressemble maintenant tes journées? 

– Robin — 08:18 :

 Alors mes journées au Today, en fait je les composerai un peu en 3 grandes parties qui sont un petit peu les je dirais les 3 sous métiers en tout cas du Podcast tel que moi je les imagine, y a la partie production où là ça va être l’organisation. Bah de tous mes enregistrements et donc là je vais passer pas mal de temps, je sais pas, ça représente tête. Quelque chose comme 20 % de mon temps à retrouver des invités, les rencontrer, imaginer un petit peu les sujets dont on va parler avec eux et ensuite enregistrer et ensuite y a une autre partie qui est. La diffusion, donc là ça va être le setup dans les plateformes. Le fait d’écrire des post LinkedIn sur le sujet, de découper des extraits vidéos pour les réseaux  sociaux, le fait de voilà de diffuser tout ça. Donc ça va quand même me prendre je pense. Aujourd’hui encore un bon 50 % Je pense que c’est trop, ça prend grosso modo 50 sur mon parce que j’ai rédigé aussi une newsletter, ça me prend quand même pas mal de temps. Donc ouais l’idée c’est comment je pars sur la diffusion. 

– Robin — 09:22 :

 Ouais, grosso modo, l’idée c’est comment je pars de ce de ce podcast. Qui du coup, lui est un petit peu en l’état, il y a du montage, mais en l’état diffusé en version audio et en version vidéo sur Youtube. Comment ensuite il va se découper en quelques posts LinkedIn dans les semaines qui suivent quelques extraits vidéos pour des shorts ou des Tiktok. Comment il va ensuite se transformer en newsletter? Donc voilà, chaque semaine une newsletter qui est un peu associé au podcast, et cetera, et cetera. Donc ça 50 % et de plus en plus. Maintenant, je passe du temps sur la monétisation, donc là j’ai dit 35 ans donc grosso modo il reste 20. L’idée c’est petit à petit de passer de plus en plus de temps sur la monétisation.   donc je le fais déjà avec quelques acteurs notamment par exemple Data Board sur qui est un institut de formation data et donc on a une synergie qui est assez évidente mais aussi avec des éditeurs de logiciels par exemple qui essaient de parler à la communauté data et avec lesquels je vais créer du contenu tout en étant sélectif pour voilà pour faire des recommandations qui sont pertinentes à la Communauté et donc là bah c’est un mix de les rencontrer leur pitché l’idée, échanger. Structurer peut-être des formats parce que je suis encore aussi un peu en train de tâtonner sur la forme que ça prend quoi alors en 2 ans là de podcast un peu plus recevoir des of data, entre autres ce que tu vois en commun dans toutes les pratiques de toutes ces boîtes. 

– Robin — 10:42 :

 Ouais bah effectivement il y a pas mal de sujets et ça c’est intéressant parce que tu vois quand je bossais dans des grosses boîtes pour le coup. Et je pense aussi parce que j’étais encore jeune par rapport et puis je le reste hein. Mais par rapport à on va dire ma journée avec la data mais je trouvais quand même que ça restait très complexe. Il y avait beaucoup de sujets différents qui étaient pris différemment en des gros sujets de transformation des enjeux humains, des usca différents. Enfin, c’était difficile de créer un peu une pattern globale sur ce qu’il faut faire en data dans une grosse boîte, même si bien sûr on fait. C’est ce que les cabinets de Conseil font. Mais du coup, quand j’ai commencé à parler avec des boîtes sur des environnements un petit peu plus restreints, un peu plus jeunes, je vois même une Licorne. Il y a 10 ans, en fait, elle est un peu plus jeune dans sa journée data. C’est là que j’ai commencé à avoir finalement un peu plus clairement les chantiers et les étapes dans on va dire le cycle de vie d’un département data ou d’une boîte qui essaie de devenir data-driven comme on dit. Et donc en général, les éléments qui vont revenir toujours, c’est le premier, ça va être la constitution de la Stag Data donc c’est quels sont les outils qu’il faut mettre en place déjà pour efficacement collecter la donnée, être capable de la transformer et pour ensuite la mettre à disposition. Le 2ème élément du coup, qui est bah un peu en association directe avec le premier, c’est le département Analytics donc moi je parle beaucoup à des start-up, en tout cas sur les premières années, je parlais beaucoup des start-up. C’est en train de changer. Maintenant je change de plus en plus avec des grosses boîtes également. Mais initialement, du coup, la première étape c’était en général devenir data-driven, faire en sorte que tout le monde dans l’entreprise prenne des décisions centrées sur la donnée, c’est à dire Bah soit en mesure chaque semaine ou chaque jour de vérifier. Les équipes sont en mesure chaque jour de vérifier. Ils en sont par rapport à leurs objectifs et donc ça passe par tout simplement des tableaux de bord. Donc ça paraît simple, mais faire ça à l’échelle de toutes les entreprises en général, c’est un premier gros chantier pour les of data et souvent c’est la prio quoi. C’est bah il faut qu’on ait tous les cas PI dont ont besoin les différentes équipes. Il faut que ce soit sur des tableaux de bord et il faut que ça fonctionne et que tous les jours ce soit fiable et donc ça c’est en général le premier gros chantier. Donc là on va retrouver des profils data analyst notamment et ensuite en général. On va avoir un Proof of concept qui va être fait au bout d’un moment sur un sujet de data science ou dia parce que les boîtes peuvent pas s’en empêcher et donc là soit c’est une boîte pour laquelle c’est pertinent et donc ça peut se développer assez fort et y a des plein de start-up qui ont commencé assez tôt hein, ça arrive mais quand même pour la majorité des boîtes en général, la data Science ça arrive beaucoup plus tard tu vois? Et je parle de start-up pour lesquelles l’i a et la data science n’est pas dans le corps produit hein tu vois c’est start-up business, genre des SAS tu vois à la base leurs produits c’est pas un algorithme. Et donc pour ces boîtes là, c’est vrai qu’en général la Data Science ça arrive en un petit peu plus tard. 

– Marc — 13:29 :

 Et alors qu’est ce que c’est donc il y a un mot qui revient souvent dans ton podcast, surtout au début, c’est moderne data stack cette expression qu’est-ce que c’est exactement? Comment tu définis une moderne data stack? 

– Robin — 13:42 :

 Alors une moderne data stack en fait, c’est tout simplement une suite d’outils qui sont bah reliés entre eux et qui forment une architecture data comme il en existe depuis longtemps. Mais c’est un petit peu une nouvelle manière de lancer l’architecture data et surtout les constituer d’outils un peu plus modernes et en fait, on va dire cette mouvance comme on l’appelle parfois, elle est arrivée notamment pour faire face à plusieurs points de douleur que rencontrent les équipes data en lien avec les architectures qu’elles utilisaient dans le passé et donc en fait les 3 points de douleur qu’on retrouve assez souvent qui remontent en tout cas quand je pose cette question parce que je me suis posé la même question quand j’ai découvert ce terme au début et qu’on commençait à m’en parler à tous les podcasts. Mais c’est quoi cette Modern data? Et donc en fait le premier. Souvent, c’est un problème de fiabilité des données et donc je vais t’expliquer après un peu comment le voilà la moderne data qui il fait face. Mais voilà, sur les anciennes solutions en fait les boîtes utilisées par exemple, notamment des outils comme Hull, je sais pas si ça te parle ces espèces de grosses data plateforme un peu tout en un qui vont te faire la collecte, la transformation, le truc, et cetera. Mais du coup c’est un peu boîte noire et donc je suis pas expert. Mais grosso modo ce qui remonte c’est que t’as donnée n’était pas fiable, t’avais pas assez de contrôles, tu pouvais pas faire de tests et bien segmenter les différentes parties entre ton ingestion, ta transfo et cetera, et donc tu te retrouves avec un truc. Très difficile à maîtriser. Le 2ème élément, c’est et peut-être le plus évident au départ, c’est les performances techniques. Donc tu te retrouves avec des requêtes qui prennent du temps à tourner parce que t’as une architecture un peu vieillissante et donc là par exemple semble un peu évident, mais en mettant en place un warehouse moderne, bah tu vas tout de suite avoir une amélioration sur tes perfs techniques et le 3ème point qui est peut-être le plus important, le plus souvent mis en avant, c’est le fait de scaler ton équipe data ou de décupler son impact grâce à une stack qui te permet de mettre en place du self-service. Et donc ça intervient à plusieurs niveaux. C’est un premier niveau du self-service sur les sur la transformation et l’ingestion de données, donc ce qui était initialement à la charge du data Engineer. Eh Ben la moderne data stack grâce à des outils d’ingestion moderne comme five Tran Stitch, tu vas pouvoir faire ton ingestion en clic bouton, ce qui fait que des data analyses vont être capables de le faire. Et ensuite pareil sur la transformation grâce à un outil qui revient tous les 4 matins et que maintenant l’ensemble de l’écosystème est quand même en train d’adopter largement des BT Et Ben tu vas pouvoir faire aussi tes transformations, donc tes pipelines de données en SQL donc pareil les data analyses être capable de les reprendre donc ce qui initialement l’équipe data engineer représentée parfois un gros goulot d’étranglement sur ces sujets d’ingestion et transformation. Et Ben maintenant t’es capable. Finalement on se service un peu de décentraliser au data analyst et ils vont être autonomes en principe sur toute la chaîne bien sûr, parfois ils ont besoin d’aide, et cetera. Et donc ça te permet de décupler ton impact parce que Bah t’as besoin de moins de data engineer qui sont les profils les plus durs à recruter, et cetera. Et après t’as le même principe avec les data analysts qui du coup eux, grâce aux nouveaux outils de Business Intelligence moderne, sont capables de créer un petit peu des stats Analytics en self-service pour que les équipes business moins techniques soient autonomes. Donc ils vont pouvoir petit à petit faire eux-mêmes leur tableau de bord, les faire évoluer, et cetera pour qu’eux se concentrent finalement. Bah sur. Finalement, ce que faisait avant les data Engineers, tu vois donc l’ingestion et la transformation mais sur des outils qui se rapprochent presque du no code mais no code version data n, c’est-à-dire SQL et aussi en parallèle bien sûr ils vont pouvoir se concentrer sur des analyses à plus forte valeur ajoutée et des choses comme ça. C’est une nouvelle manière de penser la data et surtout L Analytics. En tout cas c’est quand même souvent comme ça que c’est présenté dans les boîtes quoi. 

– Marc — 17:21 :

 Du coup, dans toutes les boîtes que t’as vu, tu nous as parlé un peu de ce qu’il y avait en commun et qui au contraire change énormément d’une boîte à l’autre. 

– Robin — 17:30 :

 Sur ce point là côté orga, parce qu’effectivement sur la stack on est quand même en train d’avoir une homogénéisation,  alors après les outils vont changer sur une même brique, et cetera hein, mais on a un peu une homogénéisation des pratiques. En revanche sur la aspect organisation je trouve ça vachement intéressant à étudier parce que Ben on voit plein de cas de figures différents de choix différents dans les entreprises. Donc en fait c’est vrai qu’initialement on a quand même l’impression de retrouver un peu un pattern où une boîte lorsqu’elle veut commencer à faire de la data, elle va commencer par un département centraliser, puis ensuite petit à petit, donc centraliser. J’entends dire t’as un manager data et tu vas avoir les Data Engineers qui s’occupent de l’ingestion de la transformation, les datas analyses qui font les analyses et les data scientists parle qui font des modèles ou des algos sous le même chapeau. Et puis au bout d’un moment de maturité ça fonctionnera plus justement il va avoir ses enjeux de d’étranglement, et cetera, et donc il va y avoir une décentralisation, surtout des data analystes dans un premier temps qui vont être un petit peu plus reliés aux équipes business. Et parfois aussi même des data scientists qui se retrouvent embarqués dans l’équipe produit pour créer directement les algos au plus près des fonctionnalités, et cetera. Mais on voit en fait plein de contre-exemples et plein de cas de figure un peu différents ou t’as des boîtes qui se décentralisent à des moments donnés ou qui se décentralisent et donc finalement la conclusion que j’en ai un peu tiré là-dessus et j’en ai parlé avec pas mal d’of data, c’est qu’il y a pas de bonne organisation, il y a vraiment une bonne organisation par rapport à aux enjeux de la boîte à un moment t par exemple, je te donne une illustration, tu vois, c’est encore Store qui est une Licorne qui a connu une croissance assez folle assez dernières années. Eux ils avaient commencé alors je sais pas s’ils ont commencé comme ça mais en tout cas quand j’avais changé avec eux ils étaient décentralisés. Donc c’est à dire qu’ils avaient un manager data qui lui centralisé par exemple les data Engineer et peut-être les data scientists. Mais les data analysts étaient rattachés au business et donc ils répondaient directement à un profil. Je crois que c’était le si au quelque chose comme ça, mais du coup, comme ils avaient fait ce choix organisationnel, le problème qu’ils ont commencé à avoir, c’est des problèmes de collaboration entre les équipes techniques de la data et les équipes business de la data sur les data analystes et donc par exemple, ils avaient du mal à collaborer ensemble pour avoir les bons modèles de données. La bonne mise à disposition des données et donc finalement le time to Market des projets data a commencé à s’allonger et donc c’est devenu un pain tel qui se sont dits OK, il faut qu’on recentralise et ça peut passer par plein d’éléments, mais enfin, on va dire un facteur fort de la décentralisation, c’est déjà dire. En fait, on va remettre un manager commun pour toute cette communauté là pour qu’en fait bah ils reparticipe au même TEAM Meeting qui commence à plus rebosser ensemble et qu’ils se remettent à s’asseoir un peu plus souvent à côté des choses comme ça. Et donc ils cherchaient un wipe data pour recentraliser. Mais à l’inverse, tu vas avoir sur une boîte de la même maturité. Typiquement, il y a quelques années d’Ortoli Ben avaient fait le phénomène inverse. Eux ils étaient centralisés, mais ils avaient du coup bah sûrement une super collaboration entre les data analystes et les data Angers mais le problème qu’ils avaient c’était un manque de collaboration entre les datas analystes et les équipes business et donc c’est là que les frictions commencent à émerger, à tel point qu’à un moment ils se sont dit bah OK ça fonctionne plus. Alors oui en fait on a un time to Market rapide, des projets data mais en fait ils sont pas adoptés par les équipes business parce qu’on est tombé un peu à côté de la plaque. Ouais, donc ce qu’on fait, c’est que maintenant les data analystes, leur responsable c’est directement le chef Product Officer ou l’ou le CO Je sais plus ce qu’ils avaient choisi mais vraiment on pouvait le business. Ils vont aller s’asseoir à côté des équipes qui sont leur clients internes et comme ça bah au moins on va killer. Toutes ces frictions qui a entre ces 2 éléments là et probablement que ça a fait émerger une complexité de collaboration. Après entre l’équipe technique ça donc c’est très difficile de trouver l’organe parfaite, mais une organisation va venir tacler un problème que t’as un moment t. Et je pense qu’il faut accepter, en tout cas c’est le cas pour les départements data et sûrement pour plein de départements aussi voilà d’opérer des réorganisations assez fréquentes pour venir répondre à des problèmes que t’as à un moment t et à des priorités que t’as un moment t. 

– Marc — 21:32 :

 Oui, selon le niveau de centralisation qu’on décide, on déplace le curseur de la friction, soit du côté Engineering, soit du côté business adoption. 

– Robin — 21:42 :

 Quoi, c’est ça, c’est ça exactement. Et après du coup, t’as des organisations qui se mettent en place, qui sont un peu hybrides ou t’essaies de trouver le juste milieu entre les 2 et t’as pas mal de boîtes qui ensuite font un choix un peu intermédiaire ou par exemple, soit tu vas avoir un Manon. Du commun, mais en revanche, les datas analystes, ils sont quand même dédiés à des équipes business et c’est les équipes business qui choisissent les sujets sur lesquels ils travaillent. Enfin tu vois, ils s’accordent ensemble et en fait ils bossent très peu sur des sujets transverses. Mais au moins t’as quand même un peu cette appartenance à une communauté data. Du coup voilà une émulation qui se crée. Et puis surtout les datage son pote avec les data analyses donc ils s’entraident tu vois, parce qu’à la fin finalement ça revient toujours un petit peu à ça quoi. C’est juste bah dès que tu t’écartes un petit peu sur l’organigramme. Et Ben potentiellement, tu te retrouves à avoir un peu moins de fluidité dans le quotidien et dans le delivery des projets quoi. 

– Marc — 22:35 :

 Alors depuis que t’as commencé à faire des podcasts, ce que t’as vu des changements de soit de mentalité, soit d’on va dire d’environnement avec les différents invités que t’as eu. 

– Robin — 22:45 :

 Ouais, y a un premier truc et on en a déjà parlé après bah tu vois, finalement ça fait enfin si tu me diras ça fait quand même 3 ans que je fais des podcasts donc oui ça peut faire sens. Mais j’ai vraiment vu émerger ce sujet de Modern data Stack dont tu parlais un petit peu plus tôt. Et ça c’est intéressant parce qu’alors peut-être que c’est aussi qu’entre temps. Mais j’ai rencontré de plus en plus de Head of data donc j’avais une vision moins globale mais j’ai vraiment eu l’impression que voilà, il y a eu une émulation autour de ce sujet, une adoption un peu massive en tout cas de la part de l’écosystème. Scalp, et cetera, mais même de plus en plus des grands groupes, tu vois, au début, je me disais, les grands groupes vont mettre du temps à suivre, probablement parce qu’ils sont peuvent être un peu frileux sur les nouveaux outils de choses comme ça. Et puis en fait non, tu vois, entre-temps j’ai entendu parler pas mal de gros groupes qui sont déjà en train de mettre en place des BT ou qui utilisent les outils d’ingestion modernes qui permettent d’ingérer de la donnée super vite, et cetera, et cetera. Donc ça c’est un premier élément, je trouve que j’ai observé et après l’autre élément, en fait c’est vraiment le dynamisme de l’écosystème. Donc pareil je pense, j’étais un peu moins investi avant donc j’ai du mal à savoir si c’était déjà le cas. Peut-être que toi tu pourras. Tu pourras me dire ce que t’en penses, mais notamment avec par exemple la Communauté moderne Data Network qui a été créée, puis quelques années et plus. Je sais pas, une espèce d’émulation de l’écosystème global. J’ai vraiment l’impression qu’il y a une accélération du partage de connaissances du nombre de meetup, du nombre d’événements et ça c’est super intéressant parce que je trouve que le fait d’avoir une clairvoyance de l’écosystème et de permettre aux différentes équipes data ou aux différents profils. De savoir un peu ce qui se passe dans les autres boîtes, de se comparer, mais de manière saine, d’identifier une boîte qui peut être un petit peu plus mature, une qui est au même niveau, une un peu moins mature d’échanger régulièrement. Et Ben en fait ça crée vraiment un dynamisme de l’écosystème qui tire tout le monde vers le haut. C’est un peu comme en sport, on dit toujours si tu veux progresser dans un domaine, faut que t’aies quelqu’un un petit peu plus fort que toi. Tu vois pour tout le temps te challenger quelqu’un du même niveau avec quitter tout le temps en train de d’essayer d’un coup de gagner un coup de l’achat et quelqu’un d’un peu moins bon que tu vas coacher tu vois et c’est la meilleure manière de progresser. Je trouve que c’est un peu en train de ce finalement, c’est un peu ça qui se profile au sein de l’écosystème data et je pense qu’au-delà de ça, bah vous savez que les gens sont de plus en plus fiers de faire partie de cet écosystème là, de faire partie de ce métier parce que Bah t’es pas un peu tout seul dans ton coin en train de faire ton truc. Et c’est vrai quand t’es un profil data dans une boîte, bah enfin c’est pas que t’es moins valorisé. Mais voilà les autres départements font leurs trucs, ils savent pas forcément ce que toi tu fais au quotidien et donc ça je sais pas, tu peux être un peu moins fier ou de sentir moins valorisé alors que le fait vraiment là de commencer à créer une communauté autour de ce sujet-là je trouve que c’est hyper vertueux. 

– Marc — 25:28 :

 Alors si tu devais condenser tous tes podcasts en une poignée de conseils, ça donnerait quoi. 

– Robin — 25:34 :

 Alors ça dépend un petit peu à qui je m’adresse, mais tu vois, je pose souvent cette question d’ouais of data que je reçois sur le podcast de savoir Ben Quel est le meilleur conseil qu’eux donneraient? Quel est le meilleur conseil qu’on leur a donné? Et il y a un élément qui revient souvent et qui est en lien avec ce qu’on vient juste de se dire qui est vraiment d’aller rencontrer leur père. Et parfois je trouve ça assez marrant parce que ça paraît assez basique et assez même intangible. Mais tu vois, pour que la plupart finissent par me dire Bah moi ce qui m’a le plus fait progresser. C’est d’échanger avec des gens qui font le même job, c’est vraiment de sortir un peu la tête du guidon du quotidien et d’aller discuter avec les gens. Je trouve que ça démontre que c’est vraiment un effort qu’il faut faire et je pense que bon, quand on est très junior, parfois on a pas forcément la confiance ou l’envie de tu vois d’aller sur les meetups, sur les trucs. Mais je pense qu’il faut commencer à le faire assez tôt et ça souvent exposé à beaucoup de vocabulaire, très technique et souvent un petit peu en enfumage quoi au vocabulaire qui est là pour pouvoir enfumer. Et qui dit pas grand chose de très intéressant qui dont on aurait pu se passer quoi. Et c’est vrai que parler avec plein de gens, Bah ça permet aussi de très vite intégrer tous ces mots et rentrer dans la compréhension, prendre un peu de recul sur la situation, quoi. 

– Robin — 26:49 :

 Ouais, c’est ça permet aussi de se rassurer sur on en est. Même se faire des potes au sein de la Communauté. Enfin ouais, c’est je suis d’accord. 

– Marc — 26:58 :

 C’est quoi les tendances actuelles que tu vois émerger que tu as vu émerger? 

– Robin — 27:04 :

 Bah là-dessus c’est intéressant alors je pense que parfois c’est peut-être très biaisé la manière dont on analyse ce sujet-là Mais j’ai l’impression que tu vois, on a vraiment vu. Bah justement un peu sur 2022 cette grosse tendance de la moderne data stack dont on a beaucoup parlé, un peu, peut-être plus récemment, une tendance qui émerge beaucoup, c’est le Data mesh peut-être? Je dois en 2022 début 2023 on en parle depuis longtemps, mais j’ai l’impression que maintenant on en parle de manière un peu plus concrète, on commence à de plus en plus de boîtes, ont des vrais retours d’expérience qui sont en train de tester, qui disent bah nous on a essayé. Voilà comment s’est passé et c’est toujours, tu vois, d’une manière un petit peu subjective du data, mais c’est pas by the book. 

– Marc — 27:43 :

 Mais damage, c’est la décentralisation de la data qui s’oppose un peu au data warehouse. On met tout dans une pièce centrale, comment tu dirais? 

– Robin — 27:50 :

 Ouais, alors je me souviens plus dans le détail la femme elle s’appelle Zamak qui a inventé le terme et qui a écrit à la base d’un article carrément un livre sur le sujet. Elle définit je crois 4 grands piliers mais dans les grands piliers. Ouais t’as vraiment un sujet de décentralisation de la responsabilisation de la data. Donc c’est en gros que les équipes qui produisent la donnée soient responsables de la qualité de la donnée. T’as par exemple un gros pilier autour du fait de considérer la donnée comme un produit et donc de faire attention à sa qualité à faire en sorte qu’elle soit facilement trouvable et un certain nombre de principes qui en émergent. Enfin voilà. Après t’as d’autres éléments mais je dirais les 2 principaux, c’est vraiment ces 2 concepts là? Ouais, la décentralisation et aussi de côté data, the Product et là un peu plus récemment bien entendu. Bah il y a un gros sujet autour des IA génératives, mais là qui est un petit peu plus la tendance de demain. De savoir alors c’est un sujet pour tout le monde, hein? Moi j’en parle plutôt de manière. Enfin, comment spécifiquement il va impacter les métiers de la data? Et là c’est un peu. Bah voilà comment demain finalement potentiellement le bah le métier des gens qui font de la data va évoluer parce qu’ils auront tout le temps. Un petit copilote, tu vois dans tous les outils qu’ils utilisent, qui va les aider à coder, à corriger leur code, et cetera, et donc ça peut quand même changer de manière assez tangible leur quotidien. Mais ça peut être aussi peut-être un accélérateur pour des objectifs. Tu vois qu’on se trimballe justement depuis des années, des années comme celui du cep service et donc là l’idée c’est ce que finalement c’est les idées générales qui vont nous permettre demain de permettre à des équipes métiers qui codent pas du tout en SQL de faire une requête directement dans leur messagerie instantanée pour récupérer des données un peu du quotidien quoi. Quel est le chiffre d’affaires sur tel? Tel moi versus tel moi, des choses comme ça, donc ça remet un petit peu sur la table ce sujet-là aussi qui est intéressant et donc je pense que t’as pas mal de boîtes qui vont lancer des Proof of concept en ce sens dans les mois qui viennent et après y en a d’autres. Mais j’ai pas forcément de faire 1-1-1 listing de tout mais tu vois j’ai invité Christophe Blue Fari qui écrit une newsletter assez connue dans le dans la data et notamment le data Engineering justement pour parler des grandes tendances du moment. Donc après il m’a cité aussi quelques autres tendances qui peuvent paraître un petit peu plus techniques, mais je trouve qu’ils sont intéressants de la commande. Par exemple t’as celle des data contract. En fait, c’est un peu une conceptualisation de comment on doit contractualiser des transferts de données au sein d’une entreprise, donc ça peut être par exemple d’un outil source vers un data warehouse ou à l’intérieur d’un data warehouse entre une table de données et une autre pour s’assurer que la donnée soit toujours de qualité. Et donc il y a pas mal de gens influents d’avoir aux États-Unis qui bossent sur ces sujets. Et donc voilà, pour faire simple, l’objectif des datas contrats, c’est attaquer ce problème de la fiabilité et de la qualité des données. Par un contrat qui spécifie exactement quelle est la donnée, par exemple lorsqu’elle est dans son État à un point a à quoi elle doit ressembler à un point B et tous les jours, tu vas vérifier que le contrat fonctionne bien et qu’il manque pas acheter n’importe quoi. Moi des colonnes des champs, et cetera, et bah je suppose qu’après et là c’est là que ça se complexifie. Mais t’as un système d’alerte King ou peut être des choses comme ça qui vont permettre de s’assurer que ça fonctionne bien quoi. 

– Marc — 31:07 : 

 C’est vraiment la répartition des responsabilités. S’il y a un problème, il est tout de suite relié à un responsable. 

– Robin — 31:14 :

 Quoi ouais, exactement. Et en fait, c’est l’idée de base je pense. C’est responsabiliser encore une fois les gens qui envoient la donnée parce que c’est vrai qu’aujourd’hui dans la manière dont fonctionnent les transferts de l’entreprise, tu as beaucoup ce côté ou voilà t’as besoin d’une donnée, par exemple de la part d’un acteur, tu vas mettre en place une manière de collecter ces données là et donc par exemple c’est eux qui vont le pousser un fichier tous les jours. Du coup sur ton warehouse. Mais dans les faits, c’est pas qu’ils en sont pas responsables, mais ils vont pas vérifier que ce qu’ils ont envoyé fonctionnent bien, et cetera, comme c’est pas eux qui utilisent la donnée. En tout cas lorsque c’est pas eux qui disent la donnée, bah ils voilà ils vont pas avoir d’incendie, va le faire et alors que c’est eux qui ont tout le contexte qui pourraient impacter des changements sur cette donnée. C’est à dire que c’est eux qui sont responsables de l’outil et qu’y a des changements de champ ou de d’administration de l’outil, et cetera. C’est eux qui sont en première loge pour savoir ce qui va changer sur la donnée qui partage, qui va peut-être avoir un impact après sur plein d’use case dans la boîte. Un tableau de bord de la prise de décision, des choses comme ça, mais si tu les as pas une scène IV ou responsabilisée via un contrat à un moment donné pour qu’e pro activement disent on a changé ça. Selon le contrat on est obligé d’aller prévenir l’équipe. Par exemple Data Platform ou je sais pas quoi qui maintient la donnée et Ben ça peut créer plein de problèmes dans le futur. 

– Marc — 32:29 :

 Alors pour toi ou est-ce qu’il y a des points de douleur et donc peut-être des opportunités pour des nouveaux business? Dans le monde de la data en général. 

– Robin — 32:38 :

 Les points de douleurs qui reviennent le plus souvent. Moi dans les discussions que j’ai finalement elles sont pas forcément techniques. Ils sont souvent humains tu vois sur bah l’adoption, le fait d’accompagner les équipes métiers dans leur usage de la donnée des choses comme ça bien sûr t’as toujours des gros problèmes de data quality mais donc là-dessus tu vois je sais pas si enfin si l’angle de ta question c’est un petit peu si tu voulais lancer un projet autour de la data un peu entrepreneuriale, qu’est-ce que ce serait? Je sais pas trop ce que je ferais avec cette réponse là. Mais donc moi, je me concentrerai peut être plutôt sur les tendances qui sont en train d’émerger, sur lesquelles y a encore beaucoup de bah, de lacunes, mais de questionnement. Tu vois sur le marché donc ça après ça dépend de son appétence plus ou moins technique. Mais tu vois sur ce sujet des data contracts? Moi je pense que c’est un sujet-là sur les quelques prochaines années qui va être d’une manière ou d’une autre sur beaucoup de feuilles de route, de beaucoup de boîtes lorsqu’ils commencent à avoir des volumes de transactions de données assez lourds. Et donc il va y avoir pas mal de besoins, je suis pas assez expert pour te dire, il faut créer un éditeur de logiciel qui fait ça mais je pense que si tu commences déjà à te spécialiser sur le sujet, à devenir une brute sur ce sujet, peut-être d’un point de vue coaching, tu vois service que tu le comprends bien. Demain il y aura sûrement des boîtes sous un format plutôt logiciel qui vont attaquer ce sujet-là Et après? Bah t’as bien sur le gros Buzz du moment sur les ia génératives c’est pareil et là t’as pas mal d’éditeurs de logiciels qui se mettent sur le coup en lien un petit peu avec ce que je te disais quoi c’est ce que demain cette chimère un peu de dire Bah ouais, peut être que dans les boîtes tu pourras demander directement dans slack. Les données dont tu as besoin, et Boum, t’auras la réponse en 2 secondes et la donnée sera Cali. Tout fonctionnera bien parce que bon le sujet c’est pas juste avoir une réponse, c’est que la donnée derrière soit bonne. Bah là-dessus aussi je pense que c’est quelqu’un par exemple en envie d’essayer de trouver des opportunités sur le marché. C’est pas mal d’aller creuser ce sujet-là parce qu’aujourd’hui Bah tu vois les boîtes elles vont être ouvertes je pense à faire des Proof of concept sur ces sujets donc tu peux te positionner sur du coaching, sur du service et peut être sinon si au bout d’un moment bah vraiment techniquement t’es en capacité de faire quelque chose qui fonctionne potentiellement. Tu vas quoi mais bon là après y a une grosse complexité technique derrière je également. 

– Marc — 34:50 :

 Peut-être qu’on aurait dû séparer question en les opportunités business, les points de douleur. Tu nous disais du côté des points de douleur pour toi c’est au niveau de la data quality qu’y avait sans doute le plus de douleur. Est-ce que tu peux nous en parler un peu plus exactement que le problème? 

– Robin — 35:06 :

 Je dis ça parce que le point de douleur central, j’ai l’impression qu’il fait émerger un besoin fort en termes d’outils, en termes d’équipe dans la data. C’est souvent un problème de fiabilité des données, c’est à dire que si tu veux au début dans le cycle de vie d’un département data un peu classique, bah les gens ils ont besoin de données, ils ont besoin de tableau de bord. Les patrons veulent que les gens prennent des décisions sur la base de la donnée, donc ça part comme ça. Mais ça part un peu. Voilà potentiellement t’as pas de patron de la data, tu commences à faire de la Data, t’as des data analystes qui naissent un petit peu dans les différents départements des choses comme ça un peu importe quoi ou au bout d’un moment t’as une équipe data mais on lui donne pas de budget pour bosser sur des sujets transverses en lien avec la fiabilité donc elle est juste, elle dépote des analyses des tableaux de bord, et cetera, mais elle réfléchit pas trop à comment les choses En fait, tu vois sous le capot et au bout d’un moment t’as un problème qui émerge qui est que t’as plein de KPI Enfin plein de projets qui ont été faits en silo par des data analystes qui communiquent pas forcément entre eux ou des gens qui manipulent la data, qui communiquent pas forcément entre eux. Et du coup qui ont recréé parfois un petit peu. Bah des KPI à leur manière qui ont codé les choses à leur manière, qui ont récupéré la donnée même à leur manière. Enfin tu vois tous ces fermes dit peu comme ça et quand tu analyses ça à l’échelle de dizaines et de dizaines de projets d’analyse. Et Ben il commence à y avoir simplement des écarts dans les chiffres qui émergent et donc des analyses contradictoires. Et c’est là qu’un problème de fiabilité des données. Mais c’est assez tangible. Mais c’est difficile à mesurer de manière très précise. Mais c’est quand tu commences à avoir une accumulation de meetings où les gens passent plus de temps à regarder les écarts dans la donnée, à essayer de comprendre pourquoi lui il a tel chiffre versus la tête chiffre et cetera, plutôt que de prendre des décisions. Et en général, quand on arrive à ce point-là, c’est ça qui va convaincre au bout d’un moment t’arrives grâce à ces problèmes de fiabilité, à structurer un département data. Un petit peu plus conséquent où là bah tu vas devoir recentraliser un certain nombre d’éléments, faire une stack qui est clean sur laquelle t’as du contrôle avec des outils de monitoring, d’observabilité et cetera. Tu vas avoir une équipe avec des data analystes qui se parlent plus souvent alors peu importe qui soient rattachés aux différentes équipes business mais ils vont se parler entre eux, et cetera, et cetera. Pour conclure, s’il y a un pain un peu central qui est récurrent dans la data, c’est celui-là parce que c’est celui-là qui fait finalement émerger un petit peu toute la feuille de route data dans beaucoup de boîtes quoi. Donc je trouve qu’il est particulièrement intéressant. 

– Marc — 37:26 :

 Ouais, clairement. Est-ce que tu as une anecdote à nous partager? 

– Robin — 37:29 :

 Alors j’ai pas forcément une anecdote très spécifique data là comme ça, mais je vais plutôt vous partager une anecdote sur moi justement sur mon projet qui rejoint du coup bah une réflexion que j’ai maintenant et c’est qu’en gros j’ai trouvé ça vachement intéressant. La manière dont un petit side-project lancé un peu sur un coin de table au départ de manière assez spontanée a pu bah finalement m’ouvrir des portes et devenir un projet à temps plein. Et ça, je trouve ça intéressant parce que je l’avais pas du tout anticipé. Tu vois, je me souviens au moment où j’ai lancé data jambon. Déjà j’y suis allé en tête baissée. Tu vois, j’ai appelé un pote qui était un ancien artefact qui s’appelle David qui est situé au chez tester et je lui ai dit vas-y, je lance un podcast sur la data des choses avec mon premier invité et emprunter un micro et je suis allé yolo. Et si tu regardes la qualité de mes premiers épisodes c’est désastreux mais bon fallait bien y aller pour valider que j’avais envie, et cetera, et en fait tu vois pendant un an et demi c’était un projet très amateur. On s’en rend pas forcément compte. Après Non pas que maintenant ce soit méga professionnel mais genre juste était vraiment très amateur. Je publie à mon rythme une fois par mois. Je fais très peu de com sur LinkedIn comme je te dis sur les 10 premiers épisodes, la qualité moyenne et cetera. Et pourtant au bout d’une vingtaine d’épisodes, j’ai commencé à avoir des opportunités vachement intéressantes juste parce que j’ai accepté de dire Bah OK je balance ça sur LinkedIn, je m’en fiche que ce soit un peu que ça manque de qualité, et cetera, et tu vois et je commence à me faire remarquer au début tout simplement en interne chez artefact, je pense que ça m’a permis de monter plus vite parce qu’ils sont dits putain oui. Vraiment passionné par son sujet, et cetera. Enfin, en tout cas, ça a pu jouer. Tu vois, je dis pas que j’aurais pas réussi à ne pas passer manager sans ça, mais et au moment où tu vois, j’ai commencé à échanger avec mon ancien Boss de quitter artefact. On t’aime ma boîte. Il m’a dit Bah attends moi je trouve ça cool ce que tu fais si tu veux-je continue à te payer ton salaire et tu le fais en interne et la boum première opportunité assez intéressante ou en 2 secondes. Alors je dis pas que c’est pertinent pour tout le monde, mais moi j’avais envie de faire évoluer mon travail. Finalement vers plus de communication parce que c’est ce qui me plaisait et j’ai trouvé ça dingue. Comment on fait? C’était assez long à dire, ça faisait déjà un an et demi que je le faisais, mais comme je le dis à la fin, j’avais 15 épisodes sur une plateforme enregistrée comme ça, avec 2 micros dans mon salon, tu vois? Et puis je vais dessus, mais derrière j’ai une autre opportunité intéressante. Je vais pas forcément citer mais une start-up dans la data qui est connue maintenant mais qui était pas quand ils sont lancés il y a environ un an et demi. Pareil qu’ils sont venus me contacter et qui m’ont dit Ouais Bah nous on vient de lever, on cherche quelqu’un justement pour monter notre média interne dans la start-up, est-ce que t’es chaude nous rejoindre un peu en live cofonder avec des parts, et cetera. C’était une opportunité vraiment stylée. Il se trouve que moi je j’avais vraiment envie de pour l’instant de rester indépendant et de faire mon truc dans mon coin, et cetera. Donc j’y suis pas allé mais juste 2 opportunités qui sont tombées pour un side-project qui tu vois qui ressemblait pas à grand chose. Donc voilà juste l’anecdote comme ça je dis pas qu’il faut faire des sides projects à tout prix, mais que toi t’as des gens parfois qui ont peur d’y aller. Puis ils ont peur que ça ressemble à rien et en fait même avec un truc qui ressemble à rien, ça peut quand même, ça peut quand même voilà ouvrir des pertes ou inspirer quoi. 

– Marc — 40:32 :

 Et alors du coup, maintenant que Tata Diane n’est plus un 7 Project mais ton occupation à temps plein, qu’est-ce que c’est le futur? 

– Robin — 40:41 :

 Qu’est-ce que c’est le futur en fait la mission entre guillemets ou l’objectif reste sensiblement le même donc tu vois, je l’avais annoncé. Alors ça c’est scolaire comme exercice, mais je l’avais fait au départ pour avoir une directrice et la manière dont je le présentais, c’était favoriser le partage de connaissances et l’adoption de stratégie efficace. Donc c’était cette notion dont on a parlé un petit peu. Tu vois de partage au sein de l’écosystème que je trouve vachement intéressante. Mais donc ça va rester tu vois? Bah bien entendu dans le contenu mais l’objectif c’est diversifier de plus en plus. Finalement la ligne éditoriale, tu vois ça a commencé vraiment très spécifique. Retour d’expérience data avec des start-up et des SCALE UPS. Maintenant je fais de plus en plus d’épisodes aussi avec des grosses boîtes et j’ai lancé un petit peu des formats annexes. Tu vois des masterclass avec par exemple des experts issus de cabinets de conseils. Je fais des épisodes aussi avec des éditeurs de logiciels parce que bah. Notamment, ils font partie de l’écosystème. C’est intéressant de comprendre et de suivre un peu les outils qui se lancent des épisodes en collaboration avec data for good qui une asso? Voilà plus en plus d’épisodes en fait un peu aussi différents et donc les l’objectif ça va devenir trouver un équilibre là-dessus peut-être également des épisodes en anglais, commencer à couvrir des sujets avec des boîtes en Allemagne et en Angleterre, ça je trouverais ça cool. Et puis bah continuer à développer les canaux tu vois sur lesquels je me suis mis, je te disais Youtube, la newsletter, et cetera. Et monétiser quoi donc tu vois, je me rends compte en te le disant que finalement bien sûr ça va évoluer. Il y a des sujets annexes mais en fait c’est surtout continuer à pédaler tu vois? Et à répéter la même chose, l’impression que finalement c’est ça le secret, c’est juste pas se lasser de faire la même chose chaque semaine et continuer comme ça. Donc voilà et après on parallèle peut-être j’explore quand même des sujets aussi parce qu’en plus des partenariats de type un peu sponsoring, l’objectif ça va être de lancer des services sur le plus long terme data. Qui vont venir les vraies? Bah finalement la réputation et l’audience data gène et donc tu vois j’explore en ce moment le fait de mettre en relation des tops freelances issus de ma communauté avec des boîtes. Parce que bah c’est un besoin que j’ai identifié des boîtes qui me disent ce que tu connais, un top freelance et c’est arrivé une fois deux fois trois fois donc je me suis dit Bah pourquoi pas commencer à voir si en fait il y a pas quelque chose à faire là-dessus et donc peut être qu’après y aura d’autres idées tu vois comment? 

– Marc — 43:06 :

 Cabinet de recrutement, mais plutôt pour le freelance. 

– Robin — 43:08 :

 Quoi ouais bah c’est plus dans l’air du temps actuellement. Effectivement, avec la conjoncture et puis voilà qu’aujourd’hui, c’est plutôt ça qu’on m’a demandé, donc tout simplement. 

– Marc — 43:17 :

 Ok Bah bon courage. Merci Robin. Hésitez pas à aller écouter le podcast data Gen si c’est pas déjà fait. Super podcast. 

– Robin — 43:25 :

 Merci Marc à très vite. 

– Robin — 43:27 :

 Vous venez d’entendre Robin Coquet, fondateur de Data Jane sur Data-driven One One.