Data et Stratégie publicitaire

Pierre Guio, Head of data chez Ads Up, est l’invité de l’épisode 31 de Data Driven 101.

Il nous parle de l’utilisation de la data dans la stratégie publicitaire pour améliorer les résultats des clients, ainsi que des obstacles rencontrés par l’équipe data pour y arriver. 

Pierre Guio : Data et Stratégie Publicitaire

– Marc — 00:00 :

 Aujourd’hui je reçois Pierre Guio , Head of data chez Adsup, ingénieur en mathématiques appliquées, il commence en tant que Data Scientist chez Dentsu pendant 3 ans et demi avant de rejoindre Adsup il y a 2 ans pour y créer le pôle data et le développer Adsup. C’est un cabinet de conseil en performance digitale spécialisé en paid Media avec 400 clients en France et International. Plus de 140 experts et consultants et 14000000 de chiffre d’affaires en 2022 Bonjour Pierre, Bonjour, alors Pierre, est-ce que tu peux nous parler un petit peu plus de Adsup que ce que vous faites exactement? 

– Pierre — 00:29 :

 Comme tu l’as dit Marc, effectivement, c’est un cabinet de Conseil en performance digitale. Spécialisé à la base sur le SEA qui est le levier historique qui est la base finalement de heads-up en 2011 et après Hands Up a étendu d’année en année son expertise en allant chercher d’autres leviers, notamment le SEO le social Media, le display programmatique. Et il y a 2 ans, la data parce que Zup souhaite prendre ce virage, conscient que c’est un enjeu d’aujourd’hui mais aussi potentiellement de demain, du coups up crée ce pôle à travers moi notamment et il mise sur ma personne pour développer ce pôle. La grande échelle. 

– Marc — 01:04 :

 Alors à quoi ça sert la data chez up? Quels sont les usages? 

– Pierre — 01:08 :

 Alors y a plusieurs usagés de la data chez IT up. Le premier usage, c’est d’aider nos clients à optimiser ce qu’ils font aujourd’hui sur leur campagne pays de Media. Donc on leur fournit un certain nombre de solutions d’activation, de compréhension et d’analyses de leur business générés par ce mix Media. Et ça sert également à automatiser en interne, mais potentiellement aussi en externe un certain nombre de tâches récurrentes pour faciliter. Et augmenter pardon, la capacité de production de nos équipes et des équipes de nos clients. 

– Marc — 01:40 :

 Comment c’est géré en termes humains, ces activités data? 

– Pierre — 01:43 :

 En termes humains sur la partie purement technique, développement des outils, accompagnement des clients, c’est géré par moi directement et ensuite il y a 2 personnes qui gravitent autour de la data. C’est Benjamin Hoffnung qui est le directeur général de Zup et Théo Bensoussan, le directeur développement commercial qui m’aide et qui m’accompagne sur le développement stratégique et financier de la BU. 

– Marc — 02:06 :

 Comment tu décrirais votre niveau de maturité aujourd’hui? L’entre la taille, le. Ce que vous avez mis en place, ce qui reste à faire. 

– Pierre — 02:14 :

 Aujourd’hui, la BU data a 2 ans, elle est composée d’une dizaine de talents qui correspond à l’ensemble de l’écosystème data. C’est-à-dire que l’on va avoir des data analystes, des data Scientists, des Data ingénieurs aussi un rôle hyper important dans ce qu’on peut faire au quotidien. On a même recruté récemment un full stack développeur afin de concevoir un produit data by ZEP. Et au final, on a vraiment l’écosystème de la chaîne de transformation de la data. Ce qui nous permet aujourd’hui de répondre à pas mal de problématiques. Après, on a 2 ans, on n’est pas plus gros du marché, mais on a quand même une ambition d’aller assez loin sur cette partie. 

– Marc — 02:50 :

 Là, votre travail vous, c’est plus de construire des sortes d’outils au service des employés de WhatsApp ou éventuellement au service des clients, directement accessibles comme des sortes de produits, ou bien c’est mission par mission, vous suivez les missions du cabinet de Conseil pour chaque une d’entre elles, vous allez développer une infrastructure data, tout ce qui peut aller avec en fait, c’est adaptable à la base pour commencer à se faire connaître et à attaquer les clients qu’on avait déjà en interne, on a voulu développer des solutions répondant aux problématiques qui sont constatées soit par notre client, soit par les consultants qui gèrent ces clients là donc on a développé un certain nombre d’outils, une dizaine, mais aujourd’hui on a développé un peu notre activité en faisant également du consulting data, c’est-à-dire qu’on est capable d’accompagner from scratch, un client sur la structuration de base de données, sur la mise en place de corps modèles. Donc aujourd’hui on est vraiment adaptable sur cette partie là sur l’accompagnement. On peut faire à nos clients et après tu l’as dit Marc, il y a aussi la partie interne. La data doit servir à up, pas uniquement pour optimiser ce qu’on fait en termes de gestion des campagnes médias, mais également pour optimiser le travail au quotidien et la capacité de production de nos consultants. 

– Marc — 04:00 :

 À quoi ressemble tes journées en tant que Love data? 

– Pierre — 04:03 :

 Je la zup alors moi, mes journées commencent tôt. J’ai cette habitude de venir assez tôt au Bureau, ça commence toujours par vérifier la performance de nos outils qui sont activés aujourd’hui chez nos clients. Vérifiez pourquoi. Parce que certes, il y a toujours un consultant média derrière, mais on a ce regard d’attaque qui nous permet d’aller apporter des optimisations s’il y a besoin. Ensuite y a vérification de ma boîte mail parce qu’on on prône chup le 0 une box et après mes équipes arrivent, j’ai à peu près 50 à 60 % de mon temps. Qui est alloué à les accompagner sur le développement des produits, sur les vérifications des données qui sortent, sur les prises de décision Quant aux insights qu’on va présenter au client et après le reste du temps, c’est 20 % d’appel d’offres. Répondre à des nouveaux besoins clients, des briefs, concevoir des outils pour répondre à ces briefs là et également la partie veille technologique et concurrentielle. Parce qu’aujourd’hui, on a 2 ans et si on veut continuer à être un acteur important sur le marché de la data marketing. Il est fondamental qu’on soit fait des évolutions technologiques du marché global de la data, mais surtout du marché de la data marketing. 

– Marc — 05:12 :

 Alors la nature de la data que vous traitez, disons les différentes sources de données. Concrètement, c’est quoi. 

– Pierre — 05:20 :

 La donnée principale qu’on traite tous les jours, c’est la donnée de performance média, donc ça va être des impressions, des clics, des coûts, des ROI Donc ça c’est vraiment la donnée principale qu’on traite tous les jours et après avec le développement de notre activité sur finalement l’accompagnement ultra personnalisé en consulting de nos clients, on peut être amené à traiter de la donnée CRM pour réconcilier justement la partie CRM et la partie immédiat. On peut être amené finalement à traiter tout type de données qui permettent d’augmenter la valeur du business de notre client. 

– Marc — 05:51 :

 Est-ce que vous avez des usages de machine learning? Si oui lesquels? 

– Pierre — 05:55 :

 Tout à fait on utilise le machine learning pour faire des prédictions notamment je parlais de données de performance média. On va aller projeter des clics qui sont générés selon des investissements, on va les projeter des tendances de recherche sur certains mots-clés, on utilise surtout le machine learning à dans cette vocation là, puisque ça permet de faire des prédictions qui sont très entraînées et très optimisées. Après pour être très transparent, je pense qu’aujourd’hui le marketing souffre d’un manque de maturité côté annonceur, mais aussi côté agence. Et les sujets de machine learning les sujets d’i a, c’est des sujets qui sont fondamentaux mais sur lesquels il y a besoin de beaucoup de pédagogie. Donc on aime bien commencer par les basiques et d’ailleurs c’est un peu l’erreur qu’on avait fait au début dans la BU data, c’est à dire qu’on avait commencé par développer des outils assez complexes, assez précis mais qui sont mal compris généralement par les clients qu’on avait et donc là on a recentré notre activité sur 2 gros dashboard, un dashboard pour les personnes qui souhaitent générer du lead gen et les personnes qui sont des E-commerçants, les retailers pour leur permettre de comprendre l’entièreté de leur business. 

– Marc — 06:56 :

 D’accord, alors c’est intéressant ça quelle est la différence? Je pense à cet objectif. Le génération ou augmentation des ventes ou bien compréhension globale, et cetera. Pourquoi c’est des objectifs différents? Comment est ce qu’on l’on le caractérise, le fait de pousser plutôt la ligne génération ou bien la vente? 

– Pierre — 07:16 :

 Après, ça dépend vraiment du business du client. Aujourd’hui, on va travailler avec un assureur. Son but c’est de générer du lead, c’est à dire que quelqu’un souscrive à un formulaire pour qu’il puisse après être recontacté. Un CONSEILLER DE VENTE et la grosse différence entre un retailer et un leader, c’est que le gagner, il va avoir beaucoup de difficultés à associer 1ROI à son média parce qu’après le formulaire, il peut y avoir 15 étapes avant la transformation finale et pour travailler avec un très gros lit Jenner sur la partie formation en ligne. Et Ben ça a beau être un très gros aujourd’hui est incapable de me dire s’ils sont s il est héroïque de temps, il ne parlent qu’au CPL un coup par l’aide. À contrario, un retailer ces problématiques. Sont pas plus simples parce qu’en en réalité, il y a beaucoup plus d’interactions avec un retailer qu’un leader, c’est-à-dire qu’un retailer, il va avoir un premier achat de son consommateur. Son consommateur va potentiellement revenir refaire des achats. Combien de temps? Quelle fréquence il faut relancer ce client là et donc ce sont des problématiques qui sont bien séparées par l’impact que peut avoir le média sur le business. Et c’est pour ça qu’on a souhaité scinder en 2 gros dashboard l’ijen et retail

– Marc — 08:23 :

 Comment on fait? Ben justement sur ce problème de génération pour nettoyer les folies de qu’est ce qu’on fait face au fait que. Il y a plein de prises de contacts qui vont être des gens qui veulent te vendre un truc ou des passants qui se renseignent sur le voilà qui sont pas vraiment des clients potentiels et pour pas qu’on les comptabilise dans nos algos comme des leds d’après. 

– Pierre — 08:46 :

 Sur le média, y a toujours un sujet d’audience dans un premier temps quand on va paramétrer une campagne média, on va paramétrer une audience et au fur à mesure, un peu comme le machine learning, on va faire de l’apprentissage et affiner au fur et à mesure les audiences qu’on va mettre en place. Et ça c’est possible aujourd’hui par la mise en relation de ce qui se passe côté marketing avec la mise en relation. De ce qui se passe par rapport au commercial, nous on parle plus avec l’acteur de la formation en ligne, on parle plus de coût par lead mais on va parler de coût par lead qui sont inscrits et donc c’est on a vraiment le héro I Media de chacun des leviers et ça va nous permettre d’affiner ce que ce formulaire a plus de capacité à transformer ce que ce mot-clé a plus de capacité à transformer et tout ça va nous permettre de finalement réduire l’audience aux prospects qui ont le plus de capacités à convertir derrière. 

– Marc — 09:34 :

 Alors, quelles ont été les principaux verrous, obstacles que vous avez eu dans l’équipe data? Comment vous les avez résolus? 

– Pierre — 09:40 :

 Moi je vois 2 obstacles principaux sur la data marketing et donc sur notre activité chez it up. Le premier c’est j’en ai déjà un petit peu parlé, c’est la maturité et la confiance des annonceurs. Mais je reviendrai dessus après. Et le 2ème gros sujet dans le marketing lié à la data, Bah c’est justement la qualité de la donnée. Je vais aller assez vite sur cet aspect-là il y a une notion qui s’appelle le Tracking aujourd’hui et quelque chose qui est souvent assez mal maîtrisé par les annonceurs. Et quand on fait un mauvais tracking, on collecte de la mauvaise donnée et potentiellement que derrière on prend de mauvaises décisions. C’est pour ça que pour pallier à cette problématique chez up on est sur le point de développer un pôle Tracking. On vient de finaliser potentiellement le recrutement de notre Tracking Leader et donc c’est sur cet aspect-là qu’on va se diriger parce qu’on veut comme je le disais tout à l’heure, on a toute la chaîne de transformation de la donnée. Mais avant de transformer la donnée. De la collecter correctement et donc il faut qu’on ait une expertise là-dessus sur le sujet de la maturité et de la confiance pour donner un exemple très simple. Moi je suis arrivé chez Dentsu en tant que Data Scientist pour travailler sur 2 sujets principaux, le mix marketing modelling et l’attribution contribution. Qui sont les 2 solutions? Un peu phare sur la mesure du mix Media. Et cette activité existait depuis une dizaine d’années déjà chez denso. Et pourtant, j’étais le seul data Scientist, le seul ingénieur. Je dis pas qu’il faut être absolument ingénieur pour traiter de la donnée mais il y a des problématiques que les modèles imposent qui doivent être traités et comprises par des personnes qui ont travaillé sur ces sujets là pendant des années. Et tout ça amène en fait à ce que des sociétés qui utilisent potentiellement des outils tels que celui qui était mis à disposition à l’époque sensu soit potentiellement déçu. Des résultats comprennent pas les optimisations qui peut y avoir derrière et donc y a une perte de confiance de la part des annonceurs. Qui aujourd’hui du coup, ne croit plus en la data et ne veulent plus investir dans la data alors que je pense que tout le monde en a entendu parler. Mais la data est quand même un sujet qui devient de plus en plus prépondérant. Il y a pas un jour où j’entends pas parler d’intelligence artificielle, de machine learning. Donc je pense que c’est quand même un sujet sur lesquels les annonceurs doivent se projeter même si à la base ils peuvent avoir des réticences. Et je pense que c’est logique. 

– Marc — 11:53 :

 Il y a une forte opacité aussi, hein, de ce qui se passe une fois qu’on publie l’annonce, c’est quand même pas évident de. Il faut faire confiance à Bah Google Earth à Facebook, falloir faire confiance que ça a été bien diffusé comme ils disent en optimisant comme ils veulent. 

– Pierre — 12:09 :

 Justement, il y a des opacités plurielles, y a l’opacité des plateformes, donc tu vas citer Google Haze, Méta Ads? Effectivement, au fur à mesure ces plateformes deviennent de plus en plus opaques. On a entendu parler du Google marketing live qui annonce que l’i a va tout chambouler à nouveau avec l’arrivée de barde. Les consultants n’auront même plus besoin d’aller chercher les bons mots clés, chercher les bonnes images. Google va tout faire pour eux. Après, je crois que nous en tant qu’Agence et là je parle pas forcément de la partie data mais je parle plutôt du de l’aspect CONSULTING. On doit avoir cette capacité à être arbitre et c’est à dire il faut accompagner nos clients à dire non à Google, à dire non à metha parce qu’effectivement je pense que Google et Méta ont leurs propres objectifs et ils vont faire en sorte que derrière tout ça y a quand même un bénéfice pour eux et donc nous on se doit d’être arbitre par rapport à ça. Et côté data? De la même manière, on doit avoir un travail très pédagogique parce que tout à l’heure, on parlait d’une machine learning, mais pour moi, la phase numéro un pour chaque annonceur, c’est de comprendre et donc on doit alors mettre à disposition tout ce qui leur permet de comprendre comment ça fonctionne. Ok c’est automatisé. Ok c’est I aisé, mais derrière qu’est-ce qu’il y a vraiment? Comme on remonte mes données? Comment est-ce que moi je peux optimiser, faire des efforts d’optimisation sur mes campagnes? Donc on a vraiment tout ce travail là et nos métiers changent et grâce à ces optimisations. 

– Marc — 13:30 :

 Ouais, je pense typiquement à le l’optimisation. Sur Google Ads à un moment donné, propose quelle est la politique hein de prix des enchères automatiques et il propose d’optimiser à notre place le prix. Alors c’est un peu bizarre parce qu’ils sont Ben juges et parties quoi dans l’histoire? Est-ce qu’une entreprise spécialisée dans le domaine comme Zup a les moyens? Bah pas cocher cette case et de faire soi-même? 

– Pierre — 13:55 :

 Tout à fait. On a dans les équipes d’adopter des team leaders, des consultants qui sont des fervents opposants à ces pratiques d’enchères automatisées. Il y a toujours cette notion de CPC manuelle. Qui peut exister après côté data, nous on va surfer sur ce que fait Google, mais en redonnant un peu de contrôle aux annonces, je donne un exemple, aujourd’hui les campagnes shopping de nos clients, elles sont passées des Smart shopping au P Max P Max étant un nouvel univers parce qu’avant on diffusait que sur shopping, maintenant on va diffuser sur toutes les plateformes de Google. Mais avec une très grosse opacité, on sait pas comment les budgets sont dépensés, on sait pas quels sont les produits qui sont poussés et donc nous côté data on a permis de développer des scripts qui décomposent le budget qui est consenti sur les différentes plateformes et qui permet de fixer des limites d’investissement sur les plateformes qui ont le moins de potentiel sur l’aspect produit. Et c’est notre premier produit, c’est le produit scoring, on va scorer chacun des produits d’un flux pour ensuite scinder des campagnes selon le potentiel des produits et donc ce qui va permettre d’adapter les objectifs qu’on va mettre sur ces campagnes et donc de tirer le plein potentiel de chacun des produits. Un produit avec un faible potentiel, ça veut pas dire qu’il faut le supprimer, ça veut dire qu’il faut le Challenger et donc nous on accompagne les annonceurs sur cet aspect. 

– Marc — 15:12 :

 Là, d’accord, est-ce que tu peux nous parler d’erreur que tu vous aurez fait à un moment donné pour nous éviter de la faire et nous faire gagner du temps? 

– Pierre — 15:20 :

 En tant qu’elle of data, j’ai déjà un peu parlé de l’erreur d’avoir voulu développer des solutions très spécifiques, très complexes, alors qu’en réalité la première nécessité c’est de comprendre et donc on a un gros travail pédagogique de mise à disposition de la donnée et d’inside. Qui permettent simplement de comprendre le business, hein? Ça paraît bête. Pourtant c’est la base d’un point de vue des annonceurs. Je dirais que l’erreur à ne pas faire, c’est de négliger la collecte de la donnée et donc tout l’aspect Tracking. Alors je sais que c’est des surcoûts, potentiellement parce que c’est des profils qui sont un peu spécifiques à aller chercher sur le marché. Mais il y a des boîtes qui font ça très bien pour pas très cher et donc je pense que c’est un aspect fondamental à mettre en place dès lors qu’on collecte énormément de données et un dernier petit conseil, mais ça c’est pour les personnes qui vont arriver sur le marché de la data marketing. Vous savez, moi, quand je place une annonce pour recruter une personne, j’ai 100 152 cents candidatures et il n’y a qu’un mot qui sort à la bouche des candidats, c’est data Science, Data Science, intelligence artificielle, machine learning. Je pense qu’il y a des aspects avant tout ça qu’il faut pas négliger la data Engineering, savoir comment collecter, formater, prétraiter la donnée et à la phase de data analyse qui est fondamentale pour moi, un data Scientist n’est qu’un data analyste très expérimenté, donc ne pas négliger cet aspect-là

Marc

 qu’est-ce que tu préfères dans ce métier? 

– Pierre — 16:40 :

 Moi, ce que je préfère dans mon métier de Head of data chez Hands Up, c’est le management de mes équipes parce que j’ai une équipe avec des profils qui sont très variés. Tout à l’heure je parlais de data analyse, Data Scientist, Data Engineer, full Stack Developer. C’est des compétences qui sont totalement différentes, potentiellement des langages de programmation qui sont différentes des méthodes de pensée qui seront différentes et donc c’est passionnant au quotidien parce qu’on a des échanges assez importants sur comment enfin traiter ces données là, comment on va la transformer et la 2ème la 2ème chose qui me passionne dans la data marketing. C’est tout à l’heure, on a parlé de retailer, on a parlé de le gagner, mais en réalité, derrière, y a des boîtes avec des objectifs qui sont potentiellement différents, des problématiques qui sont différentes et donc tous les jours, on a des nouvelles problématiques tous les jours, y a des nouvelles idées qui apparaissent sur la table et qu’on doit traiter. 

– Marc — 17:25 :

 Et à contrario, quels sont les points de douleurs les plus forts de bah les métiers, les points de douleur les plus forts, c’est qu’aujourd’hui. À cause du manque de maturité et à cause de la perte de confiance potentiellement des annonceurs, il y a un manque de valorisation de ce qu’on peut faire en tant que data dans une agence média, ce qui est pleinement compréhensible. Et du coup il est toujours un peu compliqué de dire bah effectivement il va y avoir un surcoût pour cette analyse, il va y avoir un surcoût pour cette solution. Toutes les solutions n’ont pas forcément à 1ROI derrière quand on prend une solution d’analyse. Sa volonté c’est d’analyser et ce n’est pas d’aller générer de la performance. Par contre effectivement quand on met une solution d’activation comme l’est le produit scoring. On attend potentiellement héroïque derrière et on doit s’assurer de ça côté data. 

– Pierre — 18:09 :

 D’accord. 

– Marc — 18:09 :

 Nous la solution qu’on est en train de mettre en place aujourd’hui chez it up, c’est le développement de formation donc on mes équipes demain seront des formateurs pour nos clients et on en fait on peut faire ça assez facilement chez up parce qu’on a un pôle dédié à la formation à la base digitale hein, c’est-à-dire s i e s i o s m a avec une formation qui est certifiée donc c’est le pôle s’appelle ad up campus et on souhaite intégrer là dans les prochains mois dans les prochaines semaines. Une formation spécifique liée à la date et alors tout le monde parle de la disparition des cookies à venir euh. 

– Marc — 18:42 :

 Est-ce, que tu peux nous déjà nous expliquer un peu de quoi on parle? Ce qui va se passer et comment ça impacte les boîtes qui tournent autour des zad et du marketing? 

Pierre

Alors déjà, il y a plusieurs typologies de cookies, tous les cookies ne disparaissent pas, ce sont les cookies sur Party qui disparaissent. Qu’est-ce qu’un cookie? Déjà un cookie, c’est un traceur, c’est ce qui va permettre de suivre le parcours d’un consommateur dans l’écosystème digital. Et une fois aussi qu’il est arrivé ensuite sur le site du client, c’est vous qui là vont disparaître parce que, en réalité, ils sont récupérés par des plateformes tierces telles que Google Analytics telles qu’Eliane, tels que n’importe quel outil d’analyse et avec les nouvelles règles RGPD En réalité, on ne sait pas vraiment où sont stockés ces données. Elles sont stockées potentiellement aux États-Unis, potentiellement ailleurs, mais en tout cas elles ne respectent pas les normes RGPD européennes et donc ces cookies vont disparaître. En revanche, les cookies. First Party, donc ça c’est les cookies que placent les clients eux-mêmes sur leur site vont toujours exister. Il y a finalement juste l’émergence de ce qu’on va appeler le serveur suicide, c’est-à-dire que les cookies First Party vont collecter la donnée qui vont transiter dans un serveur qui va anonymiser cette donnée là et la renvoyer ensuite aux outils Analytics, c’est-à-dire que Google Analytics par exemple, ne pourra plus dire c’est telle ou telle personne qui a fait tel achat. Mais il aura une donnée qui est totalement anonymisée et il va pouvoir faire des agrégations. De performance de canaux des performances de produits, mais sans attribuer cette performance à une personne physique. 

– Marc — 20:15 :

 D’accord, donc on devrait, je dirais après un terme développement, retrouver à peu près le même quantité d’informations qu’on a aujourd’hui. 

– Pierre — 20:23 :

 Ouais, tout à fait. Sauf qu’effectivement, ce sera fait autrement, ça nécessite encore beaucoup de pédagogie parce qu’on vient rajouter une brique qui s’appelle Server-Side. Aujourd’hui, je pense qu’on en parle à plein d’annonceurs, y en a beaucoup qui ne savent pas du tout ce que c’est et donc à nouveau on est, on est sur toute une phase de pédagogie. Mais effectivement, une fois que le serveur suicide sera répandu, on devrait à peu près retomber sur la même donnée. Sauf qu’on sera exactement où la donnée collectée où elle est stockée. Donc au niveau de la RGPD on sera beaucoup plus compliqué. 

– Marc — 20:53 :

 Comment l’i a fait évoluer votre activité aujourd’hui? 

– Pierre — 20:56 :

 Je pense que l’i a fait évoluer l’activité par le fait déjà qu’on entend beaucoup parler, ça recentre un peu le débat sur nos métiers. L’i a permet d’accélérer pas mal de choses en réalité mais fait évoluer les métiers de tout un chacun sur la partie média. Aujourd’hui, les consultants, on va avoir des facilités à générer un certain nombre de choses qui devaient faire plus ou moins manuellement avant sur la partie data. Je pense qu’au fur et à mesure, les data Analyst, Data Scientists auront moins besoin d’être techniques qu’aujourd’hui. Parce qu’aujourd’hui TGPT va être capable par exemple, directement de d’écrire un pré code, de documenter ce code de potentiellement nous expliquer comment le faire tourner, et cetera. Donc c’est une facilité pour nous. Après moi, je suis assez persuadé que ça ne remplacera pas le caractère humain parce que les méthodologies évoluent en permanence. Les problématiques évoluent en permanence et donc on devra être en permanence en capacité de s’adapter. Après sur l’i a, il y a un vrai sujet, c’est qu’aujourd’hui l’i a le problème des riches, c’est à dire que les gros annonceurs vont avoir beaucoup de facilité à faire cette transition vers l’i a. Par contre quand on attaque le MID Market ou le Market il va y avoir encore et je le je répète peut-être beaucoup mais beaucoup de pédagogie à avoir vis-à-vis de nos clients, les accompagner sur cette transition là parce que je pense qu’effectivement ça peut avoir un impact positif pour eux. Mais par contre de pas tout jeter dans l’i a ne pas mettre tous les œufs dans le même panier et être assez vigilant là-dessus. 

– Marc — 22:21 :

 Et dans le je dirais la partie non data de Heads-up. Est-ce que c’est quelque chose qui va évoluer, notamment tout ce qui est de parler de cette GP tout ce qui est écriture de description, de publicité, voilà, est-ce que c’est dans la conception même des ads? C’est quelque chose qui arrive. 

– Pierre — 22:37 :

 De toute façon sur Google Ads, donc sur la partie SEA ça va être obligatoire parce que c’est déjà en cours en fait c’est en bêta mais je pense que dans 6 mois un an les AD se généreront par elles-mêmes sur la partie SEO On a déjà développé un certain nombre de scripts. Effectivement pour rédiger des articles de blog, pour rédiger un certain nombre de choses. Effectivement, on va pas se le cacher, il y a beaucoup de tâches aujourd’hui qui vont pouvoir être automatisées par l’i a, notamment dans tout ce qui est génération de contenu, et cetera. 

– Marc — 23:06 :

 Est-ce que t’as une anecdote à nous partager? 

– Pierre — 23:08 :

 J’ai une anecdote à partager parce qu’on a parlé de maturité et de confiance. Moi je veux que les gens aient confiance en la data qui est liée au marketing en 2020 donc en pleine année COVID avec un annonceur avec lequel j’ai travaillé pendant plus de 3 ans et avec lequel on a construit un outil spécifique pour eux, on a projeté sur l’année 2021 le business généré par le média et on est tombé à 2 % d’erreur, donc 2 % d’erreur sur des millions de chiffre d’affaires, c’est quand même assez intéressant. L’idée, c’était qu’il pouvait tester un certain nombre de scénarios et une fois qu’il avait atteint le scénario qu’il considérait comme optimal, il l’appliquait réellement parce qu’effectivement, si vous faites des optimisations mais qu’on ne les applique pas, ça n’a pas d’intérêt et du coup il les a vraiment appliqués à la lettre sur l’année 2021 et on est tombé à 2 % près d’erreurs. 

– Marc — 23:57 :

 Malgré le fait d’avoir utilisé des données du COVID bien particulière. 

– Pierre — 24:01 :

 Pour l’entraînement, en fait, le mix marketing modelling, c’est un outil qui intègre toute la partie médias mais aussi le contexte. A autour. Donc en 2020 on a déjà de la donnée COVID qui était intégrée dans son modèle et donc on a projeté que potentiellement on a prochaine. Il allait encore avoir de la donnée COVID, ça faisait partie des scénarios qu’on a testé et il a souhaité appliquer ce scénario là et effectivement même avec cette donnée qui était très particulière pour tout le monde, ça a bien fonctionné. 

– Marc — 24:26 :

 Alors ce qu’était un conseil à donner pour ceux qui veulent utiliser. Leur data pour le marketing qui sont pas forcément des clients de heads-up ou qui sont pas forcément des grosses structures. 

– Pierre — 24:36 :

 Je pense que simplement la data est un levier d’optimisation, ça l’est aujourd’hui, ça le sera encore plus demain parce que tout va finir par transiter un jour par la data. Et donc il faut prendre le pas. Je sais qu’il y a des gens qui sont très réfractaires, mais la data ça va devenir de plus en plus fondamental. Et le second point, parce que pour moi, c’est un point fondamental et ça rebondit sur l’exemple que j’ai présenté juste avant. Si on a réussi à faire ce qu’on a fait avec mon ancien client, c’est parce qu’on a collaboré ensemble, lui a apporté son expertise. Métier en tant qu’assureur et moi j’ai apporté mon expertise technique et je pense que l’un ne peut pas aller sans l’autre et donc mon conseil que je donnerais aux annonceurs qui souscrivent à des solutions data qui croient en la data, c’est de participer au développement de ces solutions parce qu’un très bon technicien ne peut pas connaître spécifiquement les problématiques précises et définies d’un annonceur. Et donc il doit y avoir une phase d’accompagnement perpétuel dans la construction de l’outil. 

– Marc — 25:35 :

 À une collaboration entre le métier et l’expertise data. 

– Pierre — 25:40 :

 Je dis ça parce qu’on a parlé de l’expérience positive que j’ai eue, mais il y a aussi des expériences très négatives avec un intermédiaire entre la data et le média, un pôle intermédiaire avec qui on a collaboré longtemps pour une très grosse marque dans l’aérien. Et en fait, on se rend compte que si on discute mal entre nous sur le montage d’une solution, les résultats, il y a derrière sont presque inutilisables et donc c’est dommage d’investir des centaines de milliers d’euros dans une solution qui n’a pas vocation à être exploitée derrière. 

– Marc — 26:09 :

 Oui, ça ajoute de la friction de mettre un intermédiaire et de la communication passe pas aussi bien. 

– Pierre — 26:14 :

 Ouais exact travail, ouais. 

– Marc — 26:17 :

 Avec l’expérience que t’as quoi comme astuce on va dire comme réflexe, qu’est-ce que t’as tiré comme leçon pour que ce message passe vite? Quoi il y a besoin d’une collaboration, on a besoin de l’expertise métier nous expert data, on n’a pas toutes les cartes en main pour arriver à la solution, 

– Pierre — 26:32 :

 Je pense que ça se déroule directement dans les phases d’appel d’offres ou de kick off où il faut qu’on ait la bonne personne au bon moment. Parfois, les annonceurs vont mettre 2 3 personnes pour gérer les appels d’offres pour gérer les TIC off, mais c’est parfois pas forcément les bonnes personnes. Donc je pense qu’il est important dans c’est aussi notre rôle d’agence de dire OK, si vous voulez qu’on fasse les choses bien, il faut qu’on ait les bonnes personnes autour de la table et je pense que c’est un peu ce type. Ce qui est important, c’est de dire d’être capable en tant qu’Agence de dire moi je veux cette personne là autour de la table parce que je sais que ça vous sera bénéfique et ça sera bénéfique à notre collaboration. 

– Marc — 27:05 :

 Alors, c’est quoi le futur de la data chez IT up? 

– Pierre — 27:08 :

 Le futur de la data SET Up, c’est demain, tout à l’heure j’ai parlé du Tracking Leader qui arrive chez nous. Là c’est le développement à la fois en interne par ses créations de pôles autour de la data. Mais c’est également le développement externe. On est potentiellement en train de racheter un certain nombre de sociétés sur la data à l’échelle Adobe, mais à l’échelle du groupe dans lequel ADP est inscrit European Digital Group. Donc on a dû voir passer pas mal de communication sur le l’incorporation de Data Venture, l’incorporation de Quincy. Donc c’est vraiment un sujet qui est au cœur aujourd’hui de l’activité de la job au cœur de l’activité 2G et qui le sera encore plus demain. On a posé des belles fondations aujourd’hui chez it up et le tout, c’est de continuer à les développer. 

– Marc — 27:49 :

 D’accord. Merci Pierre. 

– Pierre — 27:52 :

 Merci à vous venez d’entendre Pierre Guyot, All of data chez Ads up sur data driven One One. Merci d’avoir écouté.