LES PANNEAUX D'AFFICHAGES FACE À LA DATA

Victor Azria , Global Data Director chez JCDecaux est l’invité de l’épisode 18 de Data driven 101.

Il nous parle de l’utilisation des données chez JCDecaux notamment pour les panneaux d’affichage face à la data. IL nous explique comment la division data a été créée pour répondre aux défis posés par la transformation de l’écosystème des médias et l’arrivée d’acteurs émergents dans le domaine du marketing digital.

Victor Azria : Les panneaux d'affichage face à la data

 

– MARC — 00:00 :

 Aujourd’hui, je reçois Victor Azria, Global Data Director chez JC Decaux . Avant de rejoindre JC Decaux, Victor a passé plusieurs années chez Capgemini en charge de l’offre data Science Analytics, il est aujourd’hui responsable de l’équipe data Center avec séance au sein de la division Data, chargée de délivrer des produits data chez JC Decaux. 

 

– VICTOR — 00:17 :

 Bonjour Victor, Bonjour Marc. 

 

– MARC — 00:18 :

 Alors, Victor, est-ce que tu peux nous présenter JC Decaux rapidement. 

 

– VICTOR — 00:22 :

 Oui, bien sûr, donc JC Decaux et le numéro un mondial de la communication extérieure. On va réaliser en 2022 un chiffre d’affaires d’un peu plus de 3,3 millions d’euros. On a une audience journalière d’un peu plus de 850000000 de personnes, avec environ 1000000 de panneaux publicitaires dans le monde. Le modèle économique du groupe Decaux est assez simple. Dès les années 60, le fondateur, Jean-Claude Decaux Hein? Imaginez un nouveau type d’espace publicitaire. Il met à disposition et il entretient des abris, l’occurrence, c’était des abribus, en le finançant par de la publicité pour les usagers qui attendent donc leur bus. 

 

– MARC — 01:00 :

 Et alors le data chez JC Decaux commence à s’en remettre. 

 

– VICTOR — 01:03 :

 Alors on a monté une une équipe data’atha, une division data en 2018 pour répondre à plusieurs enjeux. Les, les premiers enjeux, c’est évidemment la transformation de l’écosystème des médias, avec des acteurs émergents qui ont émergé bien avant 2018 qui ont transformé à la fois l’environnement du marketing. Et je pense évidemment à des acteurs du digital. Les affamés, les Criteo et autres qui ont amené évidemment le groupe JC Decaux qui est sur un média différent en sur un un média extérieur à imaginer sa transformation à travers les, les mêmes outils et les mêmes technologies. Donc évidemment, ça va passer par la digitalisation des inventaires, mais également par une une utilisation beaucoup plus forte de la data, que ce soit sur des problématiques de mesure, de performance de campagne, que ce soit sur des problématiques d’optimisation, de planification de campagne ou voire même sur des problématiques différentes du sujet des médias de manière classique comme des sujets d’opération. On va pouvoir faire de la maintenance prédictive l’optimisation des parcours d’entretien de nos panneaux ou autres. 

 

– MARC — 02:05 :

la division data vous allez finalement avoir comme sorte de client un peu les autres divisions de du? 

 

– VICTOR — 02:13 :

 Groupe exactement. En fait j’ai pas précisé, mais on a plus de quatre-vingts filiales dans le groupe JCDecauxco partout dans le monde, hein? On a travaillé pour la plupart des pays en Europe, Amérique latine, Australie et Nouvelle-Zélande, et cetera, et aujourd’hui, c’est eux nos principaux utilisateurs, hein? C’est eux les principaux demandeurs de data au sein de cette division bad data. J’ai oublié de le préciser, on a 4-5 équipes, une première équipe qui est chargée de développer les produits data et de développer les analyses, les algos, les outils et les interfaces qui est le data Center avec selon ce que je dirige, on a une équipe qui est en charge de la stratégie des produits qu’on va développer. Une équipe de producteurs managers et qui a en plus une charge de partenariat, de monter des partenariats. Donc aujourd’hui des partenariats à la fois technologiques sur des solutions de marché qu’on va réutiliser en interne mais aussi des partenariats data et donc on va travailler avec des entités externes qui revendent. De la donnée, que ce soit des elco ou des données, par exemple sur des vols en aéroport, on peut en reparler plus tard. On a une équipe qui est chargée des opérations, donc avec à la fois une partie KPI Analytics et aussi une partie Q pour s’assurer des bons déploiements de nos produits. Une équipe qui est en charge de la communication avec les marchés, donc product marketing, récupération des besoins auprès de différentes filiales et promotion de tout ce qu’on fait dans la division data et une équipe de communication plus pour la communication extérieure. 

 

– MARC — 03:44 :

 La taille du département data de JC Decaux c’est quoi aujourd’hui, 

 

– VICTOR — 03:47 :

 On est un peu plus de 60 personnes quand on a commencé, y a un peu plus de 4 ans, il y avait 6 personnes, donc évidemment y a une forte croissance pour plein de raisons. La première, c’est qu’on a un sponsorship interne qui est suffisamment fort pour qu’on ait de la visibilité au sein du groupe JCDecauxG de CO et que du coup les demandes viennent de plus en plus fortement et de plus en plus naturellement dans cette division qui est un peu originale dans le groupe JC Decaux, parce qu’on a une division corps donc on travaille pour toutes nos filiales pour nos 85 filiales donc évidemment nos nos clients aujourd’hui c’est pas du tout que la France, même si on est basé à Neuilly. C’est le Japon, les États-Unis, le Royaume-Uni et donc sur ces 60 personnes qu’on a, on va dire qu’on a à peu près la moitié qui une équipe tech donc qui est composée principalement de Data Scientist, Data Engineer, des développeurs web full stack, des devops pour travailler sur nos infra cloud et des product Owner. 

 

– MARC — 04:35 :

 Alors pour rentrer dans le vif du sujet, est-ce que tu peux nous partager une ou plusieurs décisions business que vous avez pris en regardant la data? 

 

– VICTOR — 04:43 :

 Ouais, on a un exemple assez sympa sur lequel on communique beaucoup, alors on a plusieurs produits qu’on développe pour nos filiales, un des produits sur lesquels on communique beaucoup et qu’on pousse énormément à nos marchés. Ça nous dit qu’on appelle créative heatmap, qui permet de simuler les analyses d’attention sur le visuel publicitaire à base d’un algo de Deep learning qu’on a développé en interne. L’idée, c’est remplacer les études qui sont faites avec des caméras sur les lunettes pour savoir où l’œil se place sur un visuel publicitaire et pouvoir le sortir en en quelques secondes juste en envoyant sur notre interface un visuel ou une photo d’un abribus. Avec la campagne pour voir comment ce que les gens réagiraient ou quels sont les messages de la publicité qui sont vus en premier ou plus ou moins visibles entre le logo, le produit, le visage d’un mannequin ou c’est une sorte de solution de qualité pour de la publicité. 

 

Marc

En voici la, la publicité est bien. En analysant en fait comment elle a été regardée. 

 

– VICTOR — 05:38 :

 Ouais, exactement en fait, alors on va pas forcément aller sur et ce que la publicité est bien ou non parce que évidemment ça c’est le travail d’agence ou de spécialistes là-dessus. Par contre on va pouvoir donner quelques insights sur quelles sont les parties de la publicité qui sont vues ou pas en fonction de l’objectif de campagne. Est-ce que t’as envie que ce soit ton produit qui soit hyper visible, ou est-ce que t’as envie que ce soit ton message texte qui soit hyper visible? Là on va pouvoir retravailler parfois avec des agences ou des annonceurs pour soit modifier, soit faire passer le bon message qu’ils veulent. Leur campagne donc on a un exemple hyper concret sur lequel on communique beaucoup. C’était pour une campagne Uber au Guatemala et en l’occurrence le lancement de leurs produits Uber moto sur lequel, sur la campagne sur le visuel de campagne, il voulait mettre en avant évidemment ce Uber moto à travers un un code promotionnel que tu rentrais pour pouvoir des promotions et donc en gros ils avaient une dizaine de visuels différents sur lequel on a passé notre outil et on a, on essaie de regarder à quel point le code Uber Moto ressortait plus que d’autres parties de visuel et donc uber a choisi son visuel de campagne à partir de ces analyses là parce qu’on a vu que sur une de ces campagnes là, sur un individuel justement, le code ressortait vachement par rapport à tout le reste de l’image et c’était vraiment l’objectif de leur campagne. C’était pas de passer leur marque Uber, mais vraiment le code promotionnel que les gens repèrent rapidement et puis se réutiliser. 

 

– MARC — 06:56 :

 D’accord, et alors pour en arriver là, vous avez donc dû prendre tous les candidats, les mettre sur quelques abribus et faire tourner pendant quelques semaines. 

 

– VICTOR — 07:06 :

 Pas forcément, en fait, on est même pas obligé d’en arriver là parce que forcément ça demande beaucoup de moyens. Nous, on est, on est bien en amont par rapport à ça. En fait, au début tu récupères juste 1PDF ou un jpeg ou peu importe tes images, tu les mets sur nos interfaces et on va te calculer uniquement cette carte de chaleur de l’attention sur ton visuel. Voilà. Après on a développé des nouvelles fonctionnalités dans l’outil et notamment maintenant on est capable aussi de tester ça sur des panneaux publicitaires, donc sur des abribus. Sur les 2 m² de 8 m² peu importe dans leur environnement. Et là, t’es même pas obligé d’aller tester ta campagne et de l’afficher et de prendre une photo pour voir comment ça fonctionne. On a un outil qui va faire l’incrustation automatique. Donc t’as juste à prendre la photo de ton panneau, ça marche très bien dans à peu près tous nos environnements qui soient aéroport, rue, métro ou autre. Tu vas sur l’outil, tu fais ton détourage une fois et derrière tu peux tester. Avec 4-5-6 campagnes qui s’incrustent automatiquement et tu peux aussi voir du coup nous on appelle ça in situ et tu vois ta campagne dans la situation, dans l’environnement dans lequel il va être et évidemment en fonction de tes différentes campagnes, que tu sois en bord de route, que tu sois au milieu de l’esplanade, de la défense ou ailleurs, ça pas forcément avoir le même impact visuellement parce que t’as des environnements autour qui bougent, surtout quand t’as des campagnes qui sont des campagnes digitales en vidéo, qui elles-mêmes bougent dans un environnement autour qui bouge, et cetera l’attention. Les passants sera pas forcément la même et

 

Marc

 alors, d’où vient la data avec laquelle vous travaillez? Sur quel genre de data vous travaillez? 

 

– VICTOR — 08:29 :

 Alors ça va dépendre évidemment des sujets sur lesquels on travaille. Aujourd’hui, on a, elle est plus de 80 % de nos projets qui sont vraiment dédiés à des sujets médias marketing, donc c’est lié aux campagnes de nos clients. Et as-tu une des premières données? Évidemment, c’est inhérent au monde des médias de manière générale, c’est la donnée d’audience, donc la donnée d’audience historiquement, c’est de la donnée qui est assez simple parce qu’on est dans un monde qui est assez difficile à mesurer, hein, qui est le monde extérieur, on n’est pas du tout digital où en fait. Bah tu peux savoir exactement qui a eu ta pub, à quel moment est ce que derrière il a cliqué sur le lien, et cetera, ou tout est tracé. Qu’en fait, tout est digital donc c’est très facile. Nous on n’est pas du tout dans ce monde là. Parce que quand quand t’arrives à l’aéroport, que tu croises une pub derrière, tu passes le pass de sécurité que t’arrives dans ta porte d’embarquement. On peut pas forcément savoir. Marc se trouve à tel endroit, et cetera a vu la pub donc y a un des premiers enjeux, c’est de savoir quelle est la bonne donnée pour pouvoir améliorer évidemment la connaissance de nos audiences. Donc évidemment on va travailler avec des données sociaux démos qui sont des données qui sont accessibles par tout le monde. Après exactement hein, c’est pour la France mais après vu qu’on travaille aussi pour plein d’autres pays, on va travailler avec les équivalents aux États-Unis et les équivalents en Australie ou ailleurs. Après on va aussi travailler avec des données de talco qui vont nous donner. Un peu plus d’informations, notamment sur des volumes de trafic. Ce qui vous intéresse, c’est pas l’individu, hein? La la personne même de ce qui va nous intéresser, c’est plus le trafic général autour de d’une de nos campagnes, hein, on est un média One to many donc en fait ce qu’on veut savoir c’est combien de personnes ont vu la campagne et sur toutes ces personnes là par exemple, est ce qu’on a remarqué des augmentations de trafic en magasin suite à une campagne sans forcément savoir si c’est tel individu qui a vu la campagne et qui derrière elle est dans le magasin derrière? Non donc les données qu’on achète. Ça va être bah des données de telles co par exemple, ça peut être des données de vol pour savoir par exemple bah combien de personnes décollent de tel terminale de telle aéroport pour derrière, retracer les parcours pure simulation, hein? Derrière retracer les parcours pour avoir des chiffres d’impression, c’est-à-dire le nombre de vues de nos campagnes au sein même de l’aéroport sans avoir à traquer les personnes sur leur téléphone ou avec des capteurs. 

 

– MARC — 10:45 :

 D’accord, et alors, comment on achète de la donnée, est ce que c’est facile? 

 

– VICTOR — 10:48 :

 Alors, c’est une question. Évidemment, ça dépend des types de données. Plus aujourd’hui très proche de la donnée personnelle, plus c’est compliqué à pas, pas forcément simplement à acheter mais mais à à utiliser. De manière générale aujourd’hui, une tendance de marché qui est la disparition progressive de la collecte et de l’usage des données personnelles. Donc évidemment, c’est presque une bonne nouvelle pour nous parce que nous, on a forcément, on travaille pas en One to One comme le monde digital, mais en One to many. Donc on va, on va travailler plutôtplus tôt avec des données un peu plus génériques, un peu plus globales de trafic, donc évidemment, ces données là peuvent être un peu complexes à acheter ou à utiliser ou à certifier derrière ou à justifier que l’usage est conforme au RGPD ou autre. Sur le reste, la problématique principale c’est pas forcément la, la contractualisation ou l’achat. C’est la vérification de la qualité de la donnée, la vérification de la constance dans le temps, c’est à dire que si nous demain, par exemple, on achète de la donnée à un opérateur Télécom dans un pays, comment est ce qu’on s’assure que dans un an, 2 ans, 10 ans et en fait on va avoir toujours les mêmes volumes de données avec la même représentativité des données et un minimum de conscience comme ça ou au moins juste qu’on aura la donnée qui est nécessaire pour derrière faire tourner nos algos? Donc en fait on est plus à chaque fois qu’on contacte des opérateurs ou à chaque fois qu’on contacte des technos externes, des boîtes qui revendent la donnée, on fait souvent des études pour savoir est-ce que cette donnée elle suffit? Est-ce qu’elle est de bonne qualité? Et ce que Ben on est prêt à mettre ce prix-là c’est qu’il y a un certain ROI quand même à l’achat de données pour derrière l’usage, la réutiliser pour la vente de campagne, et cetera. Donc on est plus sur des problématiques d’études chez nous que sur des problématiques de contractualisation. Trouver les bonnes, les bonnes données. 

 

– MARC — 12:30 :

 D’accord, et vous posez la question, Regardez des échantillons, peut-être est-ce que ça vaut le coup ou pas d’acheter cette donnée de façon durable? 

 

– VICTOR — 12:37 :

 C’est exactement ça. D’ailleurs, la plupart des entreprises qui revendent de la donnée proposent des échantillons ou proposent des accès à des API Pendant un ou 2 mois, nous ça nous permet, on met un ou 2 data scientists, un data analyst sur le sujet. Il collecte de la donnée, il teste, il tord un peu le truc et puis à la fin on voit si ça permet de répondre au problème ou pas. Et puis dans ce cas-là à ce moment-là on rentre dans des process plutôt de de contractualisation d’achat et puis y a une nouvelle tendance de marché aussi qui émerge et ça j’y crois quand même pas mal, c’est les datas marketplace. Alors on a une équipe qui est dédiée pour ça, qui est partnership avec des des personnes du coup qui vont bah étudier. Différents data provider pour savoir lequel fonctionne pour tel ou tel cas d’usage. Sur des Market places en fait, comme son nom l’indique, hein, tu cherches la donnée que tu veux dans un catalogue de données qui est déjà mis en service, ou tu peux déjà avoir des extraits. Tu peux déjà voir même te mettre en contact avec la boîte, voire même avec d’autres utilisateurs pour savoir comment ce qu’il utilise. Et c’est un accélérateur énorme dans dans la recherche de jeux de données, et cetera pour les personnes qui en produisent pas eux-mêmes directement. Et en plus de l’accélérateur, moi, Ce que j’aime bien, c’est que ça te permet même d’avoir des idées, d’avoir un catalogue énorme, tu vas dire Ah mais oui, tiens, telle donnée, j’avais pas forcément pensé parce que bah j’ai pas forcément eu l’idée, ou alors personne en a parlé avant et puis en fait finalement je me rends compte que tiens, acheter de la donnée sur la porte d’embarquement d’un certain vol peut être hyper intéressant parce qu’il y a un cas d’usage qui me vient en tête et du coup je vais tester et ce côté un petit peu. Je teste, je regarde, je fouille, j’imagine et quand même pas mal avec ces Market places. 

 

– MARC — 14:14 : 

 Et tu connais quoi comme marketplace qui soit, on va dire suffisamment fourni? 

 

– VICTOR — 14:18 :

 Aujourd’hui, le problème, c’est qu’il y en a pas forcément qui émergent sur le marché français, européen ou même occidental. De manière générale, Amazon a sorti sa marketplace. Mais bon, forcément ça concerne que les clients WS Je sais que snowflake c’est dans les premiers aussi à sortir leur marketplace, mais qui est accessible aux utilisateurs slowly donc forcément ça restreint et en fait je me demande si il faudrait pas soit une une impulsion gouvernementale ou de l’Europe de se dire Bah on va investir massivement dans une boîte, une techno. En nous-mêmes en tant que producteur de données, parce qu’y a énormément d’Open data, énormément de données gouvernementales, déjà rien que ça. Ça alimenterait très largement et ça permettrait d’avoir de l’attrait. Et puis derrière, enfin, les financements publics permettraient même de faire grossir le truc, je pense à ça parce qu’en Chine, ils ont monté quelque chose de similaire qui s’appelle le data Stock Exchange, qui est poussé par le gouvernement là-bas et qui est une data marketplace qui aujourd’hui représente j’ai plus le chiffre en tête, c’est plusieurs milliers de jeux de données et en fait leur objectif c’est de faire fois 10 en 2 ans. De couvrir en fait la plupart des data provider en Chine, qui plus de 60 % ou plus de 80 % des data Providers qui soit au moins inscrits sur cette marketplace. 

 

– MARC — 15:30 :

 Et en terme de charge de travail de temps, cherchez les nouvelles données, les analyser, voir si c’est qualitatif et cetera dans ton équipe, ça représente quelle proportion? Combien de jours par mois, combien de jours par personne? 

 

– VICTOR — 15:42 :

 Je dirais sur un cas d’usage classique, on va avoir une étude qui peut prendre un mois à peu près avec 2ETP donc 2 data scientists ou un data Scientist en analyse. On va prendre un mois pour faire une étude complète sur cette étude. Il y en a bien la moitié qui est dédiée à la data Quality donc s’assurer que la donnée est représentative, et cetera. Et ça nous est déjà arrivé évidemment, mais je pense que c’est arrivé à tout le monde hein de se lancer sur un projet, de dire c’est bon, ça va marcher et puis en fait on regarde la donnée, on teste et puis une fois qu’on a testé on se rend compte que ça va pas et puis on est obligé de repartir sur autre chose. Puis on trouve un autre donnée. Et puis heureusement qu’en fait, on s’est rendu compte avant d’être trop engagé derrière dans le processus de développement ou dans le processus de vente. Donc en fait c’est vraiment cette phase d’étude, de faisabilité et ce que la donnée est bonne et que la donnée de qualité. Est-ce qu’y a pas un autre provider derrière auquel on n’a pas forcément pensé, voire même qu’on va repenser notre método notre algo en fonction de bah juste utiliser un autre type de données. Tu vois au lieu d’utiliser de la donnée? Ça qui vient de Wifi. On va essayer d’amener qui vient d’un opérateur Télécom complètement différent. 

 

– MARC — 16:46 :

 Tiens, sur 10 études de faisabilité, que tu fais comme ça, combien y en a qui deviennent un produit? 

 

– VICTOR — 16:52 :

 Ah, c’est quand même, c’est quand même très majoritaire, c’est majoritaire parce que l’intuition en général est plutôt la bonne, donc je dirais 90 % des cas, d’accord, 90 % des cas c’est des produits. En fait le cutch il est pas uniquement sur la qualité de la donnée ou sur est ce qu’on a réussi à avoir la donnée pour le faire ou ce qu’on arrive à développer? L’outil de la techno, le cut. Et aussi sur l’usage, c’est on a fait un nouvel outil, y a un pays qui nous le pousse à fond, qui est persuadé que ça va révolutionner aujourd’hui la vente programmatique en aéroport? On est à fond, on y va et en fait on se rend compte que derrière l’usage marche très bien pour cet aéroport, là ou pour ce pays. Et puis en fait finalement y a pas y a pas forcément de d’ATTAC à l’extérieur. Je pense qu’il est plutôt là derrière le le cut entre un produit qui fonctionne, un produit qui fonctionne pas plutôt que sur une data qui est pas forcément de qualité, et cetera. C’est aussi l’avantage d’acheter de la donnée à l’externe plutôt que de la produire soi-même. Alors la produire soi-même, évidemment, il y a plein d’avantages sur la possession, tu vois derrière, tu peux la monétiser, tu peux faire énormément de choses avec et puis y a quand même une sorte d’exclusivité, si t’es le seul à produire ta donnée sur ton marché. Quand même, hyper intéressant après l’avantage de la chaîne externe c’est que t’as quand même moins de chances d’avoir une donnée de faible qualité. En général tu payes un service en parallèle de mise en qualité de ta donnée d’assurance, de constance dans le temps, et cetera. Il y a moins de problématiques de flux ou autres à gérer quoi 

 

Marc

que vous faites du machine learning, quels sont les usages? On va dire du machine learning que tu peux nous raconter. 

 

– VICTOR — 18:15 :

 Alors on en fait de plus en plus, mais à l’origine, c’était pas forcément le cœur de nos sujets. Aujourd’hui, je te dirais en fait. 20 % de nos projets qui ont du machine learning dans nos développements, il y a des produits qui sont purs ML comme ceux dont je parlais tout à l’heure d’analyse de l’attention. Là pour le coup derrière. C’est des réseaux de neurones, on les a entraînés sur des images publicitaires, et cetera. On a plusieurs cas d’usage là-dessus. On va, je parlais de mesures d’endroit qui attirent l’attention, donc les zones publicitaires qui attirent le le regard. On a développé une nouvelle feature récemment là qu’on a sorti en début d’année, qu’on va plutôt analyser la séquence de vision en fait de ton visuel publicitaire. Donc est ce que tu commences par regarder le logo, la marque? Le texte le produit, donc ça, on est en train de doubler et ça, pour le coup, c’est vraiment des produits purs et Mel, on a d’autres sujets sur lesquels on commence à refaire entre guillemets. On travaille sur des sujets de forecast, que ce soit des forts financés forts de revenus, qu’on fait en interne pour pour différentes filiales. On a aussi des projets sur lesquels on va faire la main dans ce live, on a lancé vraiment? Une étude de faisabilité là, pendant un peu plus d’un an, on a on a collecté de la donnée de terrain sur l’encrassement de nos panneaux. L’objectif est de comprendre de manière prédictive et ce que des événements extérieurs comme la pollution, la météo, le trafic routier qui va avoir un impact sur l’encrassement de ton panneau, est ce que tu peux prédire à l’avance le fait que ce panneau là attention il faut nettoyer tous les 3 jours parce qu’en fait on est au printemps on est sous un arbre et donc y a quand même plus de chances que le taux de se salisse plus de chances que le panneau Salisse plutôt qu’un autre qui se trouve en bord de route. À un moment où il a plu et du coup il peut y avoir des éclaboussures, et cetera et cetera. Donc on arrive comme ça, plus ou moins à essayer de comprendre quels sont les facteurs externes qui ont une influence sur l’encrassement derrière, à prédire plus ou moins des cycles optimaux de nettoyage, et derrière à optimiser des tournées de nos personals hein. Donc il y a un peu de machine learning? Évidemment, il y a pas mal de recherches opérationnelles derrière aussi. Moi je suis convaincu que les 2 vont ensemble parce que c’est très bien de de prédire ce qui va se passer. Et d’ailleurs, si si ça te permet pas d’optimiser tes opérations ou autre, c’est quand même un peu dommage parce que tu rates quelque chose. Et donc là le mélange des 2 est assez bon donc on est évidemment encore en étude préliminaire. On a pas encore les résultats concrets là-dessus, mais voilà, donc on a des sujets comme ça, très opérationnels, contraintes et en parallèle aussi on relance des sujets, notamment sur la mesure d’audience. Alors quand on vend des campagnes qui vont arriver dans 3 mois, dans 6 mois, on est obligé de donner les audiences qui vont arriver dans 3 mois ou 6 mois. Donc là on est obligé de prédire nos audiences donc là évidemment soit tu pars sur pure ML les séries temporelles ou autres et dans ce cas tu vas faire des prévisions de trafic et d’audience. Soit tu fais des modèles un peu plus simples. En fait, on va répliquer, on va dire bon, voilà un mois de novembre classique pour une année. 2022 ressemble plus ou moins à un mois de novembre classique, 2023 On est en train de de transformer plus ou moins. On est en train de pousser de plus en plus de machine learning sur nos forecast. Pour une raison, c’est qu’en fait, au moment où on a vraiment accéléré sur la mesure d’audience, comme on le fait aujourd’hui, c’est à dire 2018 2019 on avait pas suffisamment d’historique de données qui a été complètement. Enfin, on parlait de data Quality, on allait les pires données de trafic sur 2022 1021 en 2022 parce qu’en fait nous donner, bah c’est le trafic dans la rue, le trafic dans les aéroports donc évidemment en période de COVID Ben nous on a un creux de 2 ans dans nos données et là maintenant qu’on commence à avoir à nouveau un trafic qui est équivalent au pré COVID, que ce soit dans la rue, dans les centres commerciaux, dans les métros ou autres, là on est en train de récupérer à nouveau des données qui sont suffisamment viables pour pouvoir et entraîner nos albums. Mais évidemment on n’a rien rien entraîné sur 2022 et les solutions d’i a? Générative, texte, images. Voilà les choses très récentes. Tgpt Dali et compagnie. Est-ce que c’est quelque chose qui est utile pour vous ou plutôt gadget? 

 

– VICTOR — 22:17 :

 Comme tout le monde, on regarde de très près, on regarde avec l’équipe. Là en ce moment même. Bon, on est convaincu qu’il y a des sujets sur lesquels ça a forcément nous aider au quotidien, accompagnement à la productivité. Moi, j’ai l’équipe qui commence déjà à développer avec des JPT donc ça leur permet derrière d’optimiser des requêtes SQL d’écrire automatiquement des tests unitaires sur genre de choses en plus. Il y a déjà des IA génératifs qui sont intégrés à pas mal d’outils sur intellij. Y a déjà des choses, donc en fait on on les utilise et puis on voit très bien les effets très court terme. Voilà en tout cas sur la partie développement. Et puis on c’est derrière tous les impacts que ça aura quand par exemple, ça intégrera la suite Office ou autre. Nous y a 2 sujets qu’on regarde aussi d’assez près là, hein, qui vont nous permettre d’améliorer la manière dont on travaille avec nos utilisateurs. La première, C’est alors, moi j’ai toute ma vie. J’étais contre le chatbot, j’ai toujours trouvé ça hyper inutile. Enfin, je sais pas si toi déjà été sur le chat de la SNCF pour prendre un billet de train, mais j’ai trouvé ça beaucoup plus long, beaucoup plus approximatif que l’utilisation de l’intelligence, quoi c’est ça manquait d’intelligence et Ben là, pour la première fois, je suis prêt à me dire Bah je vais être investir du temps et investir un petit peu d’argent aussi dans un outil qui va permettre de répondre à des questions beaucoup plus poussées d’utilisateur. Parce qu’en fait vu qu’on est sur des IA génératives et pas des juste des IA de je repousse un texte que j’ai appris par cœur tel quel qui répond pas forcément à la question exacte. On peut avoir une finesse dans la réponse qu’on avait pas forcément avant et notamment nous dans les produits qu’on propose, de mesure de performance de campagne ou autre, voire même dans la mesure d’attention. Il y a des interprétations qui peuvent être un peu complexes ou même des utilisations qui peuvent être un peu complexes et pouvoir poser une question du type BAH je je comprends pas, mon inventaire n’est pas forcément un jour. Comment ce que je fais pour le là on peut avoir des réponses qui sont beaucoup plus fines donc ça j’y crois. Un espèce de renouveau du support client grâce au GPT et le 2ème, c’est pouvoir apporter des compétences techniques à des personnes qui n’ont pas et je pense notamment, nous, on a tout un réseau de data analystes au niveau global dans nos filiales et enfin la plupart de nos filiales ont un ou 2 data analystes. Qui ont pas forcément accès à toutes nos bases de données, à tous nos townhouses qui sont pas forcément des produits QL mais qui ont des besoins en général, ils nous envoient un mail en disant Bah j’aimerais bien avoir un extract des données de trafic des supermarchés ou de centres commercial dans telle ville, et cetera. Nous, on est obligé de le faire demain. T’as un outil de texte ou SQL qui est directement pluggé sur ton data, warehouse ou autre, mais en fait tu gagnes un temps fou toi en tant qu’intermédiaire, plus de requête quoi. Et puis même du confort énorme pour les utilisateurs. Ta réponse automatiquement. 

 

– MARC — 24:58 :

 Ouais, t’enlève l’intermédiaire et surtout l’intermédiaire qu’il a un autre métier en l’occurrence. 

 

– VICTOR — 25:02 :

 Bah ouais et on est complètement libère quoi. Il a un autre métier et puis c’est enfin je vais pas dire que c’est aliénant de faire du code toute la journée parce que c’est pas le cas mais enfin juste répondre faire des requêtes actuelles je c’est pas le truc le plus fun non plus à faire donc rien que retirer cette partie là j’y crois aussi énormément donc tu vois ces 2 sujets. On les regarde aujourd’hui mais évidemment il y en aura d’autres derrière. 

 

– MARC — 25:22 :

 Alors justement, c’est quoi les défis actuels en termes de données? 

 

– VICTOR — 25:25 :

 Pour votre équipe en termes de données? Bon, je parlais tout à l’heure de la disparition progressive des données de cookies ou des données de cookies mobiles qui arrivent, qui ont été initiées avec le passage à iOS 14. Côté Apple qui arrive côté Google un peu plus tard, mais qui va arriver aussi à un moment. Et en fait, c’est plus des problématiques de marché de manière générale, plutôt que nous, j’essaie Decaux en fait qu’elle va être la prochaine étape. Toutes ces boîtes qui misaient intégralement leurs ventes de publicité dans le digital ou ailleurs grâce à de la donnée personnelle. Quel va être le prochain mouvement? Voilà donc nous, évidemment, on n’est pas là, nous, on travaille pas sur la donnée, vont pas de la campagne One to One donc on a pas ces problématiques là et en même temps du coup est-ce qu’on se dit? Nous travaillons plutôt sur la donnée, plus de masse et ce qu’on a un coup d’avance. Quelles sont demain les jeux de données qui seront à la fois beaucoup plus accessibles? Beaucoup plus stable. Tu vois, je parlais de la Noé Talco qui est pas aussi granulaire, qui est pas aussi précise que la donnée cookie par exemple. Pas du tout d’information personnelle. 

 

– MARC — 26:31 :

 Dessus, quel cause? C’est les opérateurs mobiles. 

 

– MARC — 26:33 :

 Exactement. 

 

– VICTOR — 26:34 :

 Le nombre de connexions d’ouais, ça va être le nombre de connexions, nous ce qu’on peut récupérer par exemple, t’as un tronçon de rue, on va dire bah voilà combien de personnes se sont trouvées sur ce tronçon de rue tel jour entre telle heure et telle heure, ce qui nous permet d’avoir un trafic autour de nos panneaux anonymes évidemment, et ce qui va derrière nous permettre. On a des infos qui vont nous permettre de transformer le trafic en impression trafic. C’est le nombre de personnes qui passent à côté. Une impression, c’est une vue sur nos panneaux et derrière ça va nous permettre. Bah du coup de savoir combien de personnes ont vu la publicité qui est en gros l’aujourd’hui, c’est l’unité de vente pour j de locaux en partie sur du mobilier. En fait, il va vendre des vues exactement comme sur téléphone, on vend des vues. 

 

– MARC — 27:14 :

 Des vues? 

 

– VICTOR — 27:16 :

 Après donc y a un enjeu sur la collecte des données et après évidemment un enjeu qui est très fort pour nous, c’est comment est-ce qu’on va réussir? Soit à produire plus de données, soit à acheter de la donnée qui est très pertinente à l’externe. Donc aujourd’hui, c’est sûr qu’on explore et après y a un 2ème enjeu, c’est comment est-ce qu’on arrive à faire en sorte que ces données soient accessibles au groupe? Nous, on est la division data, on est basé à Neuilly, on a évidemment accès et on a les et les compétences et les personnes pour pouvoir accéder à nos data, les transformer, en faire ce qu’on veut, et cetera. Mais une autre personne qui est au Brésil, qui a envie d’avoir accès à sa donnée, qui a envie d’avoir accès ça. Moi je dis à à de la donnée météo qu’on collecte. Dans la division d’atteint qu’on stocke chez nous mais qu’eux n’ont pas forcément parce que soit ils ont pas le contrat, soit ils ont pas les bonnes personnes non plus pour recruter les AP parce que tout le monde a pas forcément non plus c’est compétences. Là, dans les équipes métiers, en fait, l’enjeu pour nous il est plus là, c’est comment est-ce qu’on va réussir à décentraliser l’accès aux données qu’on collecte? Nous, hein? On a passé. De 3 ans à à fonder un socle. On va dire technologique. On a monté une plateforme, on a monté une équipe, on a des compétences aujourd’hui qui sont largement suffisantes et qui sont quand même assez fortes dans l’équipe tech. Mais on arrive à un moment où est nos marchés, donc nos filiales, les équipes métiers et les équipes IT savent ce qu’on peut faire avec la data. Voilà, ils sont formés, ils utilisent nos outils au quotidien, ils ont même des idées, évidemment de leur côté plus que nous, ça vient de de leur côté la plupart du temps. Et donc y a quand même des envies à chaque fois d’aller plus loin et nous en fait petit à petit, c’est pas qu’on devient un bouton mec mais mais presque c’est qu’en fait à la fin, si nous on a trop de demandes, il faudrait qu’on double ou qu’on triple encore de taille pour pouvoir y répondre et c’est pas l’objectif, c’est à dire qu’on a pas forcément non plus cet organe central qui fait que répondre aux besoins en fait ce qu’on veut commencer à décentraliser c’est à dire Bah vous êtes-vous aussi autonome tout à l’heure, je parlais de pouvoir faire du texte ou SQL pour qu’une filiale juste à partir d’un mail ou d’un d’un porte. Quelle prompte puisse collecter de la donnée depuis un warehouse. Bah on aimerait bien donner accès en fait à n’importe quelle donnée de cette manière-là ou des dashboard ou peu importe. Voilà donc c’est un peu l’idée qu’il y a derrière ce partenariat qu’on a monté avec pernod-ricard. On a signé une alliance il y a un peu moins d’un an, c’était en septembre dernier entre les 2 entreprises où l’objectif c’est de partager une techno. Cette techno, c’est un data portail qui permet justement de donner accès à n’importe quelle personne de l’entreprise, que ça coûtait sales côté marketing, côté finance, côté RH et peu importe un bah des dashboard. De la donnée brute, peu importe, sans aucune compétence technique, voilà en fait tu te connectes à un catalogue tout à l’heure. On parlait de catalogue sur des Market places. C’est exactement pareil hein, mais là c’est un data catalogue en fait à plein de sources de données qui sont listées, une source de données, ça peut être un rapport de vente d’une de nos filiales sur un trimestre, comme ça peut être de la donnée météo à Johannesburg, comme ça peut être des kpi et d’utilisation d’un outil qu’on peut utiliser chez nous donc vraiment? 

 

– MARC — 30:14 :

 Comment on la consomme? Du coup c’est pas avec des requêtes, c’est avec quoi du coup? 

 

– VICTOR — 30:16 :

 Des des du clic, c’est une tâche, c’est du clic, c’est une page web, tu te connectes toutes les personnes en interne, JCDecaux j’essaie d’auront accès, donc nous on est encore en train de le déployer. Évidemment, ça prend du temps, donc on est en train de l’alimenter, on va le lancer là assez prochainement, toutes les personnes auront accès. Tu te connectes, t’as un data, catalogue, t’as une liste d’on espère bientôt 102 103 cents, peut-être d’être la source qui sont classés par type de données, est ce que c’est les données qui ont un lien avec la finance, avec le marketing ou autre, ça peut être classé par filiale. Comme tu dis, Bah tiens j’ai envie, moi je suis en Belgique, j’ai envie de savoir exactement les données que j’ai chez moi ou ça peut être juste. Tu fais ta recherche, tu as une barre de recherche, et cetera. 

 

– MARC — 30:56 :

 Avec Pernod-Ricard, vous développez ensemble la technologie data portable. Vous partagez pas la donnée qui sera. 

 

– VICTOR — 31:02 :

 Dessus, on a c’est vraiment 2 instances complètement séparées. L’idée, c’est pas du tout de partager, de la donner parce que de toute façon on a des des métiers qui sont très différents aujourd’hui. L’objectif c’est juste de partager et des idées et des coûts évidemment de maintenance, d’évolution. On a un comité de de produits pour l’évolution de du data Portal et puis on commence déjà à avoir pas mal d’idées qui émergent, à savoir comment est-ce que bah ensemble on va pouvoir construire une nouvelle feature qui va être très pertinente pour les utilisateurs. En fait, une des raisons pour lesquelles on a monté cette alliance, c’est aussi que nos groupes sont assez similaires. Ces 2 grands groupes français, avec des filiales globales évidemment, donc perdre car ils ont des marques, ils ont des filiales, des des marchés, c’est nous, on a des marchés, on travaille pour plus de 80 pays et donc cette relation là, dans la manière dont le corps d’un côté donc eux, que ce soit le, la data, la DSI et il paraît chez de travail avec les filiales. En fait, c’est exactement, c’est très similaire. Donc la manière dont il donne accès au marché à la donnée brute nous correspond exactement. Donc en fait, c’est vraiment reconnu dans la même stratégie, la même trajectoire. Eux aussi se sont reconnus chez nous, donc on s’est dit bah très bien partageons les idées, partageons le le produit. 

 

– MARC — 32:19 :

 Et si ça fonctionne, l’ambition, c’est de éventuellement la partager cette technologie, la vendre en faire quelque chose ou ça a vraiment vocation à rester quelque chose d’interne. Dans ces 2 sociétés. 

 

– VICTOR — 32:30 :

 La vente? Peut-être pas parce qu’en fait, on n’est pas non plus des éditeurs de logiciels donc c’est quand même assez compliqué derrière de vendre un soft. On a pas forcément envie d’avoir des SLA ou autre quand on le vend. Par contre, derrière avoir d’autres membres de l’Alliance, d’autres grands groupes qui veulent rejoindre cette aventure et dire Bah nous aussi en fait on partage vraiment votre vision sur comment est-ce qu’on décentralise l’accès à la data, comment est ce que derrière le data catalogue et tous les outils y a autour parce qu’en fait y a plein d’autres outils derrière qui permettent de faciliter la construction d’un poc, faciliter le scripting. Si derrière tu veux faire un algo de ML sur de la donnée, que tu trouves un endroit qui a été catalogué. Bah il y a plein d’outils hyper pertinents. Si demain on a un autre acteur du marché qui lève la main, qui dit en fait, je me vois dans le truc, ça m’intéresse j’ai envie d’y avoir accès pour accélérer ma transfo. Exactement comme on l’a fait et qui sont prêts du coup à s’engager parce que forcément ça demande un petit peu d’engagement, ça demande du temps, ça demande de l’investissement de la part des équipes. Enfin, nous, on est ouvert, hein? Évidemment et d’ailleurs, l’objectif c’est qu’on reste pas 2 dans cette alliance, donc là on est en discussion avec quelques entreprises, ce sera peut-être 3 d’ici la fin de l’année 4-5 On verra jusqu’où, jusqu’où ça nous mène. 

 

– MARC — 33:38 :

 T’as une anecdote à nous partager? 

 

– VICTOR — 33:40 :

 Bah justement, je trouvais ça intéressant. On y a toujours cru à cette alliance. Et puis on a vu les premiers résultats de 2 ans après les débuts des discussions, on savait qu’on allait forcément joindre les idées, joindre et tous les 2 des idées, être un petit peu séparées et qu’on allait se dire tiens tel trajectoire, ni toi ni moi. On y a pensé. C’est peut-être une bonne idée pour nos utilisateurs, donc ça c’était un peu la théorie derrière l’Alliance de dire on a tous des idées, on partage. En fait, un jour, on s’est rendu compte qu’on avait tous les 2 dans notre coin depuis 2 ans, travaillé sur un produit qui était exactement le même produit. C’est un produit de data Quality. Tu mets un fichier en entrée, on te check que télé colonnes. Elles ont bien le bon nom que quand t’as une colonne qui s’appelle date, Bah en fait à l’intérieur de ta colonne t’as bien des dates, et cetera. Il y a pas mal d’outils de marché qui le font, mais nous on voulait un truc avec une interface un petit peu différente qui était directement pluggée chez nous, et cetera. Pernod Ricard du coup la développer chez eux? Un produit avec une interface utilisateur incroyable truc hyper simple d’utilisation, tu peux modifier ton fichier directement sur l’interface y a un tableur qui pop-up qui te tes cellules avec des erreurs potentielles qui s’affichent en rouge, et cetera. Et de l’autre côté en fait, on avait développé un outil qui faisait exactement la même chose, c’est-à-dire tu mets un fichier en entrée, pareil en teck tes colonnes, on vérifie la différence, c’est que nous, notre interface utilisateur a été quand même un petit peu moins joli, simple tout ce que tu veux. On avait beaucoup plus travaillé derrière le moteur de check. Par contre, quand tu mettais un fichier, tu pouvais programmer à l’avance évidemment des checks avec d’autres fichiers et des systèmes de vérification de qualité assez poussés. En fait entre fichiers entre 4-5 fichiers, des Onglets Excel et cetera, et cetera. Donc on avait d’un côté le monde Père Noël et quart avec un outil qui était très beau, très simple d’utilisation, avec un moteur qui fonctionnait. Et côté J 2 co, un outil qui était quand même assez moche avec un moteur qui était très poussé dans les capacités de vérification de qualité entre fichiers, et cetera. Et en fait, on s’en est rendu compte 6 mois après la signature du contrat. Quasiment quoi donc en fait? On s’est dit Bah c’est parfait en fait et en plus ça nous fait une histoire excellente à raconter sur pourquoi rentrer dans l’alliance parce qu’en fait on a tous des idées qui sont différentes, on a le même projet, on a la même envie mais on le traite de manière différente parce qu’on a peut être des cultures différentes. On a peut-être des équipes différentes, on a nous, on a peut-être des équipes qui étaient plus orientées data Engineering, ils aient des équipes qui étaient plus orientées web. Peu importe, on est en train de retravailler sur un outil qui prend le meilleur des 2 mondes. On est en train de travailler dessus pendant ce trimestre et donc ça va être notre premier projet commun qui du coup, va quand même pas mal changer la manière dont on gère la data quality des 2 côtés. 

 

– MARC — 36:13 :

 Parce que t’as une opinion de partager? 

 

– VICTOR — 36:14 :

 C’est un peu lié à l’anecdote que je viens de raconter et à d’autres sujets qu’on traite aussi en interne. Je suis persuadé que t’as beau avoir le meilleur algo de machine learning. T’as beau avoir la meilleure équipe de data science et les plus seniors et avec le le plus de pied d possible au monde. Derrière ton algo a d’autant plus de valeur qu’il est lui-même mis en valeur par la simplicité d’utilisation et je pense que penser une équipe data TAC, j’entends en ne voyant que la partie data Science maintenant la partie data Engineering. Ça y est ça fait 4 ans qu’on en parle donc c’est très positif mais ne pas forcément voir l’implication derrière du web ou du Dashboard Bing ou juste de la Dataviz je trouve que c’est une énorme erreur. Voilà parce que derrière en fait ton algo il y a forcément des utilisateurs derrière soit ton algo est simplement utilisé pour feeder ou pour intégrer d’autres outils? En fait, à la fin, la finalité, ça reste des user. Et comment est ce que derrière ils vont interagir avec ton outil, interagir avec ton dashboard et c’est un truc qui est pas hyper clean, hyper lisse, qui est ultra compréhensible ça va pas forcément servir tu vois, je te donne un exemple, on a pas arrêté de parler de notre outil de mesure de l’attention. Si t’arrives à voir dessus un petit peu les ficelles de lien avec des chiffres dans tous les sens où en fait on va te donner en dessous un pourcentage de crédibilité du résultat que tu vas avoir en fait tu vas complexifier. Intégralement l’interprétation de tes résultats si tu donnes un chiffre en disant en fait finalement ou une une visualisation en disant Ben en fait le résultat, c’est celui-là, c’est ultra simple, tout le monde va y croire. De toute façon, la plupart du temps, il y a pas forcément de challenge sur le résultat ou non. Est-ce que le résultat est est bon ou pas? Et en fait, c’est ça qui va driver ton usage hein, mais est ce que ton algo il est bon à 98 ou à 99,5 % L’enjeu est pas forcément là, sauf évidemment si tu travailles sur des sujets de médecine ou autre où là pour le coup. La précision est évidemment ultra pertinente, mais que ce soit sur des sujets d’industrie, sur des sujets de médias ou autres. C’est pas le virgule un virgule zéro zéro zéro un pour cent % faire la différence hein, ce qui va faire la différence c’est l’usage et l’usage, c’est principalement l’interface. 

 

– MARC — 38:25 :

 Quel Conseil t’aurais pour quelqu’un qui doit monter une équipe data dans un grand groupe? 

 

– VICTOR — 38:29 :

 Gérer, ne pas forcément penser la data comme uniquement un sujet tech. La manière dont on a monté la division data chez Cco, c’est évidemment. Il y avait une équipe de départ parce que tu peux pas forcément faire de la data sans personne qui vont développer ou sans personnes qui vont juste rassembler la donnée, la collecter, la mettre en base. Ça, c’est évidemment obligé d’en avoir. Mais ne serait-ce que collecter le besoin de tes utilisateurs, ne serait-ce que comprendre le métier obligé de l’avoir et t’es obligé de l’intégrer à ton équipe data aujourd’hui, voilà le séparer. Pour moi c’est une erreur. C’est bah avoir la possibilité de créer un gap entre ce que tu vas développer. Ce qui va être utilisé derrière donc c’est pour ça que nous, on a absolument tenu depuis le début à avoir une équipe customer success. Qui est en lien avec l’équipe tech, qui est en lien avec les marchés et qui fait le pont entre les 2 hein? Donc nous en fait aujourd’hui, l’équipe de développement, le Center avec séance ne développe pas de projets sans derrière avoir le lien direct avec avec le business et ce lien, il fait partie de l’équipe data. Aujourd’hui, c’est pas une équipe séparée qui fait de la MOA ou autre. On est vraiment intégré le 2ème, C’est ne pas forcément penser pareil. L’équipe data sont l’écosystème, y a autour et l’écosystème, ça peut être des partenaires externes donc c’est pour ça aussi qu’on a monté une équipe partenariat dès l’origine de la division data. En disant Bah c’est très bien, on va développer plein de truc chez nous et en fait y a aussi un écosystème autour de nous avec des start-ups, des grands groupes, des grosses boites tech ou pas forcément et eux aussi ont leur rôle à jouer dans la transformation du groupe G de Go. Donc on va pas forcément tout développer maison. Il y a des outils aujourd’hui qui existent, qui fonctionnent hyper bien. Et mieux que ce que nous on aurait pu développer. Et même si nous, on avait voulu développer, ça nous aurait pris 5 ans. Bon finalement, y a des exagérateurs externes et il faut pas se couper non plus de de ce monde-là. 

 

– MARC — 40:16 :

 Alors, quelle est la suite pour la data chez h 2O en interne là, 

 

Victor-

Notrenotre objectif très court terme, ça va être bah de mettre à disposition ce fameux portail data dont on a parlé et du coup d’accélérer la décentralisation de nos compétences data hein? Avoir accès à la donnée brute à du Dashboard, à tout le groupe demain ça va être un vecteur de transformation énorme et et d’accélération. Vers plus de décisions data driven évidemment, et puis en externe, ça va être pouvoir accompagner à la fois les agences et les annonceurs mais aussi les mandants hein, c’est à dire des vigiles, les aéroports, les centres commerciaux sur leurs besoins data, hein, nous-mêmes êtes non pas provider de solution pour JCDecayx 2 co mais aussi pour tout l’écosystème autour de nous. 

 

– MARC — 41:01 :

 Et Ben Bon courage. 

 

– VICTOR — 41:02 :

 Merci. 

 

– VICTOR — 41:02 :

 Marc, merci Victor, vous venez d’entendre Victoria global Data Director chez JC Decaux dans data driven One One. Si vous avez aimé que vous venez nous soutenir, n’hésitez pas à vous abonner à la chaîne, à liker et à partager à très vite. 



Antoine Sauvage , CTO de Ovrsea , est le premier invité de Data Driven 101. Il réponds aux questions suivantes: 

  • Comment une bonne structuration data permet-elle de prioriser les problèmes à résoudre ?

  • Comment le Machine Learning « tactique » peut-il débrider la création de valeur ?

  • Comment choisit-on les Data Scientists dans une startup tech au parcours aussi fulgurant ?