Faut-il sortir du cloud ? Réflexions sur la souveraineté numérique - Laurent Delaisse
Directeur Tech & Sales Lead EMEA
@Hitachi Vantara
Laurent Delaisse Directeur Tech & Sales Lead EMEA at Hitachi Vantara est l’invité de l’épisode 89 du podcast Data Driven 101.
Dans ce nouvel épisode, il nous partage une vision concrète et engagée de la gestion des données à l’ère de l’IA.
💡 On parle de :
Migration depuis les hyperscalers & souveraineté des données
Infrastructure intelligente & sobriété numérique
Agentique, IA générative & optimisation des GPU
Cas concrets : maintenance prédictive, gouvernance documentaire, conformité légale
Un échange riche en conseils, anecdotes terrain et convictions fortes.
📺 Youtube :https://youtu.be/K3L6g9tbIq8
#DataDriven #Infrastructure #CloudSouverain #IAgénérative #DataGovernance #CloudMigration #SécuritéDesDonnées #DigitalTransformation #PodcastTech #HitachiVantara #DataIsGold

Marc Sanselme 00:00:01 – 00:00:35 : Bonjour et bienvenue sur Data Driven 101. Je suis Marc Sanselme, l’hôte de ce podcast qui s’intéresse aux applications concrètes et variées de l’intelligence artificielle et de la data. Dans Data Driven 101, je reçois chaque semaine des professionnels pour qu’ils nous partagent leurs expériences et leurs visions sans filtre. Aujourd’hui, je reçois Laurent Delès, directeur of Technical Sales EMEA France et Benelux chez Hitachi Vantara, filiale technologique de Hitachi, spécialisé dans les infrastructures intelligentes, la gestion des données et les solutions durables. Bonjour Laurent.
Laurent Delaisse 00:00:35 – 00:00:36 : Bonjour Marc.
Marc Sanselme 00:00:36 – 00:00:40 : Alors Laurent, est-ce que tu peux nous dire avec tes mots, qu’est-ce que vous faites exactement ?
Laurent Delaisse00:00:40 – 00:01:07 : Alors en fait, c’est relativement simple. Le rôle de mon équipe et de moi-même, c’est de trouver des solutions techniques pour des problèmes clients ou partenaires, avec trouver des valeurs, des approches, des héroïdes ou des terminologies que l’ensemble des gens qui tuent le podcast connaissent. Et donc de trouver des bonnes solutions par rapport effectivement aux pains, aux souffrances en tout cas que le client peut avoir sur ce sujet de la data et sur ce sujet de l’infrastructure. Et comme tu l’as dit en introduction, sur ces données intelligentes qui sont de plus en plus présentes au sein des entreprises.
Marc Sanselme 00:01:07 – 00:01:10 : D’accord. Donc on peut dire c’est du conseil ?
Laurent Delaisse00:01:10 – 00:01:27 : Alors, c’est plus que du conseil, parce que le conseil, c’est une approche qui est plutôt de type service. Là, on va dire que c’est du conseil qui est plutôt une forme de gratuité, qui s’inscrit dans une démarche d’acquisition par la suite de l’ensemble des équipements qu’on va fournir. Donc, c’est vraiment ça. Donc, c’est du conseil gratuit, mais dans un cadre bien défini sur le problématique de nos clients et nos partenaires.
Marc Sanselme 00:01:28 – 00:01:32 : D’accord. Et donc, le vrai business, c’est de la vente de hardware ?
Laurent Delaisse00:01:32 – 00:01:47 : Alors, c’est trois axes, on va dire. Si on prend les thèmes classiques, c’est du matériel, du logiciel et du service. Notre rôle, effectivement, c’est à partir du moment où on vend une solution, donc matériel et logiciel, il y a une partie qui est de mise en place. Et là, effectivement, ça passe par nos entités de service au sein de l’entité Itachi Vantara.
Marc Sanselme 00:01:48 – 00:01:54 : Ok, et alors du coup sur cet angle de données, la solution en question, en quoi elle consiste ?
Laurent Delaisse00:01:54 – 00:03:07 : Elle est diverse, c’est ça qui est plutôt intéressant. C’est qu’en fait la demande de nos clients aujourd’hui. sur la partie data, on la trouve de différentes formes. On va dire historiquement les gens qui, quand on parle de leur propre data à titre niveau personnel, c’est leur laptop. On va dire je stocke de la donnée, je la range un peu comme je veux. Nous, ce qu’on va fournir, c’est un peu ce qu’on trouve dans les grands data centers. C’est cette forme de données qui est stockée pour être le plus résilient possible avec une continuité de service qui est plutôt de l’ordre de 100% et qui se présente sous trois formes. On trouve trois formes dans le marché de l’infrastructure. Ce qu’on appelle le bloc, donc l’infrastructure qu’on a dans le disque, par exemple, de ce qu’il y a dans un laptop. mais dans des grosses baies de stockage cette fois. La partie fichier, donc tout ce que tout le monde connaît par des synologies, des QNAP chez soi, prenez cette image-là, mais mettez-la dans un data center, c’est des gros QNAP, des gros synologies qu’on met avec de la résilience dedans. Et le dernier qui est très en vogue, surtout sur l’HUG de l’ATA, c’est ce qu’on appelle l’objet ou le protocole qu’Amazon a lancé qui s’appelle le S3. qui est vraiment la partie de données non structurées qu’on va stocker de manière massive. Quand je dis massive, c’est qu’on parle d’exa-bikes de données. On est au-delà du giga, du tera, on est au-dessus. Et c’est un peu l’objectif de prendre tous ces grands protocoles, les associer et d’être capable de manipuler cette data de manière intelligente.
Marc Sanselme 00:03:08 – 00:03:36 : Ok. Donc l’alternative, ce serait les grands providers cloud, les solutions… On va dire, pour des boîtes tech, ça serait des AWS et compagnie, et puis pour l’aspect plutôt bureautique et gestion des données, ça serait SharePoint de Microsoft et Google Drive, ce genre de choses. Est-ce que c’est correct de dire que vous faites une version on-premise de ça ?
Laurent Delaisse00:03:36 – 00:04:15 : On va dire que c’est un excellent résumé sur une partie de l’historique de l’entreprise, puisque tout ce que tu viens de citer dans le mode de fin, dans la partie on-premise, qu’il soit chez les data centers de nos clients partenaires ou chez des hosted services providers comme Equinix, par exemple, que tout le monde connaît sur la place parisienne, puisqu’ils sont tous à Saint-Denis la plus basse. Nous, c’est vraiment notre ADN, c’est fournir ce type d’infrastructure. Mais la demande évoluant, ça revient sur ton premier point, c’est que ces hyperscalers, donc ADOLE-ES, GCP, Azure, ont besoin de consommer un usage qui est similaire au on-premise. Donc, on fournit de plus en plus aussi nos solutions en mode software-defined, qu’en fait, on le pose en logiciel dans une infrastructure d’hyperscalers et les gens vont pouvoir le même usage que s’ils l’avaient on-premise.
Marc Sanselme 00:04:16 – 00:04:23 : D’accord, oui. Mais avec, j’imagine, des intérêts peut-être de sûreté.
Laurent Delaisse00:04:23 – 00:05:17 : Alors, tout grand débat, c’est la souveraineté. C’est le sujet d’actualité sur la data. Alors, on va dire que merci à ce qui se passe aux États-Unis, parce que ça a ouvert beaucoup de portes. à est-ce que ma data, elle est souveraine ? Est-ce que je garantis le fait que la donnée ne sort pas ? de la France, par exemple, pour donner des contextes de souveraineté. Et c’est vrai qu’on voit de plus en plus apparaître des demandes de clients qui veulent ce qu’on appelle rapatrier. Le terme en anglais, c’est rapatriation, mais on trouve le même terme en français. C’est que j’ai des workloads qui vont tourner chez ces hyperscalers américains, parce qu’ils sont tous américains, et je dois être capable de les rapatrier dans du franco-français. Et alors, la question que tu pourrais me poser, c’est est-ce qu’on a un équivalent d’un AWS, GCP, Azure ? La réponse est non. Est-ce qu’on a des services qui se rapprochent de ça ? Oui, on en a chez OVH, par exemple. C’est l’acteur qui les pousse beaucoup parce qu’ils ont beaucoup de data centers et qui posent des services un peu similaires au marketplace que j’ai cité précédemment.
Marc Sanselme 00:05:18 – 00:05:40 : D’accord, ok. Et si quelqu’un prend la solution d’Editachi et l’héberge chez un hyperscaler, comme tu dis, quelles sont ses garanties du point de vue de souveraineté ? On sait ou on ne sait pas qu’elle est sortie ou pas.
Laurent Delaisse00:05:40 – 00:06:27 : Alors, dans le principe des hyperscalers, ils ont créé ce qu’on appelle des régions. Je pense que ça doit parler peut-être à certains et peut-être pas à d’autres. Mais c’est les terminologies, c’est-à-dire garantir le fait qu’on est en Europe, par exemple. Alors, on se rapproche de la législation européenne. On n’est pas dans le souverain local. Comment on le garantit ? En fait, quand vous prenez une subscription chez un hyperscaler… Quand vous êtes dans un périmètre européen, vous adaptez le loi aux actes entre guillemets européens. Maintenant, si un client vient vers nous en disant je veux être 100% sûr que ma donnée ne sortira jamais de l’infrastructure France, à ce moment-là, il faut choisir effectivement un Hosted Services français qui lui garantit le fait qu’il n’y a aucune interconnection en dehors de ce data center ou ces data centers en France. Donc nous, on peut le garantir à partir du moment où on choisit ce type d’approche-là.
Marc Sanselme 00:06:28 – 00:06:35 : Ok, ok. Même chez AWS et compagnie ?
Laurent Delaisse00:06:35 – 00:07:20 : Alors, je pense que tu le connais, mais les gens qui suivent aussi doivent le savoir, c’est qu’à partir du moment où vous prenez un service chez un hyperscaler, rien n’empêche aux États-Unis, par exemple pour faire une enquête, d’aller chercher de l’information… dans le cadre d’une enquête. Je ne parle pas de simplement y aller comme ça. Ce qui sous-entend le fait que quand c’est des données qui sont vraiment sensibles, on parle de données de défense, nucléaire, énergie, transport, il y a plein de sujets très sensibles en France, il est clair que ces gens-là, en général, n’ont pas ce type d’usage pour des données sensibles. C’est-à-dire que sur 100% de leurs données, ils vont héberger une partie non sensible chez les hyperscalers et des parties sensibles qui sont plutôt, entre guillemets, en France ou en Europe, pour garantir le fait qu’il n’y ait pas de risque d’analyse de données qui sont traitées dans ces data centers-là. Donc c’est ça la souveraineté, en fait.
Marc Sanselme 00:07:21 – 00:07:39 : Et si quelqu’un est déjà chez un de ces services-là et veut migrer, je m’imagine que ça doit être pas mal. le sujet aussi, grâce aux États-Unis encore une fois, quelle est la démarche ? Quels sont les points de friction ?
Laurent Delaisse00:07:39 – 00:09:24 : Alors ce qu’on voit, toujours pareil, on en parlait dans l’introduction, c’est toujours un peu effectivement de donner une petite illustration. On prend un exemple qui est VMware. Je pense que tout le monde le sait, VMware a changé, a été racheté par Broadcom, a effectivement initié une transformation de ses acquisitions de licences. Et il y a eu un frein, alors qu’on n’est pas dans la souveraineté, mais je donne un exemple pour donner le sujet de rapatriation. Un client qui a mis toute son infrastructure en environnement VMware a eu un changement de 300% d’augmentation des prix. au niveau de quelqu’un de la finance, la première réaction, c’est est-ce qu’on peut faire autrement ? Ce qui est plutôt humain, c’est un peu comme nous, on l’appliquerait à titre personnel. Et le retour d’expérience que je peux vous donner sur ça, c’est que le passé d’une infrastructure de ce type-là à une infrastructure qui n’est pas VMware, donc un autre, entre guillemets, hyperviseur, pour porter le nom du système, ça prend en l’occurrence entre 12 et 18 mois. C’est-à-dire qu’un client qui fait vraiment un lift and shift, c’est-à-dire que je prends et je bouge à un autre endroit, sur une autre plaque, ça prend 18 mois. Maintenant, je vais répondre à ta question, c’est qu’un client qui est chez, je ne vais pas citer tout le temps WS, mais chez GCP par exemple, pour parler d’un autre hyperscaler, et qui se dit à un instant T, je veux prendre tous mes workloads que j’ai chez Google, et je veux les mettre par exemple chez OVH. Pour prendre un exemple que je donnais précédemment, Si les données sont virtualisées ou containerisées, globalement, ça prend quelques mois. Avec des procédures de mise en place, on peut effectivement bouger de manière rapide, entre guillemets, d’un point A à un point B. Mais ça ne se fait pas en one shot, ça se fait de manière progressive puisque, comme vous le savez tous, Les applications parlent toutes entre elles et si vous bougez une partie, il faut que l’autre parte avec. Donc on ne peut pas dire je prends ça et je le fais comme ça. Non, on fait une étude et on va pouvoir migrer. Donc ça prend entre 3 et 6 mois, suivant la taille, bien sûr, du nombre de machines virtuelles que le client a.
Marc Sanselme 00:09:24 – 00:09:30 : Oui, j’imagine que tu parles de gros clients, là, on n’est pas sur la startup.
Laurent Delaisse00:09:30 – 00:09:55 : Oui, il y a des PME qui viennent nous appeler pour dire j’étais chez un hyperscaler et je veux rapatrier l’infrastructure. En fait, à partir du moment où ils ont ces deux points clés, c’est virtualisation ou containerisation, Globalement, en quelques mois, on peut vraiment bouger un workload complet au niveau de la data en elle-même. Après, sur la partie sécurité, c’est encore d’autres sujets, mais on peut vraiment bouger parce que la structure en elle-même, elle est naturellement conçue pour être transposable d’un point A à un point B.
Marc Sanselme 00:09:55 – 00:10:01 : C’est quoi qui est compliqué ? Là, tu donnes des exemples de ce qui est simple, de ce qui est compliqué ?
Laurent Delaisse00:10:01 – 00:11:13 : Le plus compliqué, ça rejoint ton podcast, c’est la valeur de la data pour les entreprises. Je prends toujours un exemple le plus concret. Si je prends mon laptop, et je pourrais poser la même question, je pense que tu me répondras assez facilement, c’est mes données. Je suis un peu comme une lectureuse, j’aime bien garder l’infrastructure et je garde tout, y compris des choses que peut-être je n’aurais pas gardées. La plus grande complexité, quand on veut… envisager un mouvement de données, c’est savoir qu’est-ce qu’il faut bouger. Je n’ai pas d’intérêt à bouger les données qui sont inutiles pour mon entreprise. Mais par défaut, la première approche d’un DSI, c’est de dire j’ai ça, donc ça c’est bon, donc je veux tout bouger. Mais ça, ça prendra peut-être 9 mois, 12 mois pour le faire. Alors que si on fait une bonne analyse au début de dire je prends ton laptop, je prends toujours l’exemple, je fais une analyse, je regarde ce qui touche à l’entreprise. Et ce qui ne touche pas l’entreprise, je peux grandement réduire cette fenêtre de mouvement de données. Et c’est la plus grande complexité, c’est ce qu’on appelle le data management ou le data discovery. C’est d’être capable, effectivement, d’analyser ce qui est vraiment important, ce qui est clé, l’isoler et après définir un mouvement ou une destination. en disant ça, c’est ma priorité. Le reste, entre guillemets, ce n’est pas grave. Ça n’a pas d’impact si je ne l’ai pas.
Marc Sanselme 00:11:14 – 00:11:29 : C’est toujours un peu compliqué de parler de clients, mais est-ce que tu as un exemple concret ? Un état des lieux, voilà toutes les données, ça sert, ça ne sert pas, et on décide de migrer avec une partie ?
Laurent Delaisse00:11:29 – 00:12:59 : Je vais prendre un exemple de client. Bien sûr, sans citer son nom, parce que je n’ai pas le droit de citer son nom, mais on a effectivement des clients qui ont fait un choix de mix, ce qu’on appelle d’hybridation. J’ai mes data centers et puis j’ai les hyperscalers. Un client qui a 30% de croissance de stockage de données sur l’infrastructure, et je parle d’un client qui est global. Ce n’est pas le plus grand client du monde, mais c’est quand même un client qui est assez connu. Et ce client, il a effectivement ce postulé-là, c’est que ses coûts de subscription chez les hyperscalers sont en croissance perpétuelle. Je parle de 30% de croissance. Donc, l’action qu’il y a eu, c’est de dire, avant de décider, je veux savoir ce que j’ai. Donc, pour donner un exemple concret, en fait, on a mis en place ce qu’on appelle un data management as a service, c’est-à-dire une gestion de bout en bout de l’ensemble des sources de données de ce client afin de définir est-ce que ces données sont dupliquées. Petit retour que je partage, dans toutes les entreprises, on trouve 13 fois la même information au sein de toute l’entreprise. Alors je ne parle pas que de sociétés internationales. Si vous prenez, pensez d’ailleurs quand je pose ce débat-là, si vous avez par exemple des protections, des types, je back-up, je sauvegarde mes infrastructures, je les réplique, je crée des snapshots, donc je crée des clichés de l’infrastructure, on retrouve très soit cette info. Très soit. Donc prenez… 1 tera, 1 giga, pour une donnée qui fait 1 giga, vous avez 13 gigas. Donc la première action de ce client, c’est de dire, est-ce que je peux passer à 1 ? Puisque si je veux 1, je maîtrise cette croissance. 13, c’est 13 fois plus 30.
Marc Sanselme 00:12:59 – 00:13:02 : Mais ce n’est pas très cher le stockage pur ?
Laurent Delaisse00:13:02 – 00:14:21 : Alors, ça dépend de la taille que vous avez. Alors, ça dépend de deux choses. Merci déjà pour la question. Ça dépend effectivement de la volumétrie que vous voulez acquérir et ça dépend du niveau de protection que vous voulez avoir. Par défaut, effectivement, si vous avez votre carte de crédit, vous allez consommer un usage chez n’importe quel hyperscaler à un coût relativement attractif parce que globalement, il est mutualisé, il est consolidé avec d’autres clients. Donc, ce n’est pas une machine que vous achetez, c’est un espace que vous achetez qui est déjà mutualisé. Donc, le coût n’est pas cher. Sauf que quand vous commencez, et je prends un exemple qu’il y a eu quand OVH a eu malheureusement le petit dégât des data centers, il y a des PME qui se sont retrouvés à n’avoir pas vu dans leur contrat que leurs données n’étaient pas protégées. Donc, ils ont tout perdu d’un coup. Donc c’est pour ça qu’il faut lire ces contrats, ça c’est la première remarque que je ferai, c’est lisez bien vos contrats. Et je sais que c’est pas simple, c’est pour ça qu’il y a des gens dédiés pour ça, c’est des contrats qui peuvent être assez compliqués, mais ne prenez pas une sécurité à un seul niveau, parce que malheureusement ça arrive rarement, mais c’est déjà arrivé, et il vaut mieux effectivement avoir au minimum de copies, c’est-à-dire avoir deux endroits, et pas forcément au même endroit, parce que le feu quand ça part, ça prend tous les bâtiments autour. Le Gartner recommande 30 km de distance entre deux bâtiments de stockage de données, parce que si jamais il y en a un qui brûle ou qu’il y a un dégât, la probabilité que le deuxième l’ait à 30 km est quand même assez faible, même si la tendance actuelle c’est 100 km, là ça commence à être compliqué. 100 km de distance entre les deux.
Marc Sanselme 00:14:21 – 00:14:36 : Ok, donc le risque, le coût il vient du fait qu’on gère soi-même la machine qui contient le disque dur, etc. Ce qui n’est pas cher c’est S3 ?
Laurent Delaisse00:14:36 – 00:15:31 : Alors, le moins cher du moins cher, ça s’appelle Glacier, pour prendre la terminologie de AWS. Alors, la raison pourquoi le stockage le moins cher, c’est Glacier, c’est parce qu’en fait, vous achetez un stockage qui n’est pas performant, mais qui est principalement basé sur de la bande, donc des lecteurs de bandes pour les anciens. Exactement. En fait, il y a un système de cache. En fait, derrière, c’est du stockage vraiment pas cher parce que vous utilisez des librairies, des grosses librairies de bandes mutualisées, ce qui fait un coût très bas. Sauf que Glacier, qui n’est pas cher, quand vous achetez ce stockage-là… Il y a une petite remarque, je parlais des contrats précédemment, quand on voulait récupérer cette data. Je prends l’exemple de la rapatriation. Je suis client S3, j’ai 1 Tera de données dans Glacier, et je veux passer, c’est mes datas à moi, je veux les passer par exemple à la même chose en Azure. Vous payez le coût de remontée de l’information. Donc vous payez le Tera, vous avez stocké un Tera, vous repayez un Tera pour juste sortir cette data.
Marc Sanselme 00:15:31 – 00:15:33 : Lire la bande magnétique, en fait.
Laurent Delaisse00:15:33 – 00:15:56 : Exactement. Donc, c’est des petites subtilités. Techniquement, ça marche très bien, il n’y a jamais de soucis. Mais l’aspect contractuel sur ce que vous devez faire, et je reviens, il faut rester indépendant. Il ne faut pas avoir un fournisseur, il faut toujours avoir deux fournisseurs. C’est une question de sécurité. Ce n’est jamais de coiffer de main, même si je n’ai pas de chance KWS, c’est des soucis. Mais beaucoup de clients aujourd’hui ont deux fournisseurs pour éviter justement d’avoir toutes mes œufs dans le même panier, qui est un grand classique que font quelques clients.
Marc Sanselme 00:15:56 – 00:16:06 : Ok, donc à la fin, c’est du stockage plus accessible qui va être dupliqué 13 fois même
Laurent Delaisse00:16:06 – 00:17:17 : ? 13 fois, c’est la norme qui a été donnée, mais en général, on est sur ce critère-là. Donc ça fait quand même pas mal. Et puis je reviens toujours pareil, si on est toujours dans ces analyses, et illustrer ça, mais pour les gens qui ne savent pas la data, comment nos analystes prévoient cette croissance ? on va générer cette année, en une année, 463 exa octets de données. C’est-à-dire que, en fait, ça va remonter sur un point que tu as mis dans l’introduction, l’IA est un accélérateur de création de données. On a besoin de mettre beaucoup, beaucoup de données pour faire marcher des modèles, les faire leur apprendre. Donc, qu’est-ce que je veux faire ? Et donc, c’est un gros générateur de données, mais il y a un truc qui est assez antinomique, c’est qu’on crée beaucoup de données et on parle d’éco-responsabilité. Donc, le paradigme entre les deux, c’est est-ce que je dois consommer beaucoup d’électricité pour stocker mes données et pour faire tourner des GPU ? Et en même temps, j’ai ce qu’on appelle le RSE. Donc, l’empreinte carbone de vos entreprises, c’est partie de la loi française. Vous devez donner effectivement un état des lieux de vos entreprises. Vous avez plus de 500 collaborateurs. Et c’est un peu étrange. Donc, il faut essayer de canaliser ça pour être, entre guillemets, pour être bon pour la planète, j’allais dire, et d’avoir des empreintes carbone le plus faible possible, entre guillemets.
Marc Sanselme 00:17:18 – 00:17:21 : Ok. Exa, Octé, c’est après Peta, c’est ça ?
Laurent Delaisse00:17:21 – 00:17:26 : C’est juste, en fait, après Peta. Exactement. 10 puissance, 18, si je ne dis pas de bêtises.
Marc Sanselme 00:17:27 – 00:17:59 : D’accord. Ok. Alors, peut-être, avant de changer de sujet,les conseils que tu donnerais à quelqu’un qui met son architecture chez AWS, GCP, parce qu’aujourd’hui, ce n’est pas cher, c’est rapide ? Et voudrait se garder dans un coin de la tête la porte de sortie, de basculer sur du on-premise ou du souverain. Qu’est-ce qu’il doit faire ? Quelles sont les choses importantes ?
Laurent Delaisse 00:17:59 – 00:20:25 : En fait, les choses importantes que je donnerais en conseil à ses clients, c’est… En général, quand vous faites un choix d’un fournisseur, vous formez vos équipes. Il y a un aspect humain dans cette affaire-là. Donc, vous allez avoir des architectes qui sont spécialisés sur AWS. Et c’est la force aussi de ces fournisseurs-là, c’est d’avoir une structure, une façon de penser vos applications à la mode AWS. Le jour où vous allez penser à se dire « je reprends exactement la marque que tu fais, je veux changer, je ne veux pas rester chez AWS, je vais aller autre part », peu importe où, que ce soit un autre hyperscaler, ou un souverain, ou un hostis, ce qu’on veut, en fait, il faut prendre toute la conception de l’enveloppe que vous avez mis en place pour comprendre les subtilités des applications qui se parlent entre elles au niveau AWS pour les transposer. Donc ce qui veut dire, si vous faites la conclusion de ma phrase, je parle des gens qui nous écoutent, c’est qu’il faut avoir des gens qui comprennent comment ce que j’ai monté en OES est réellement transposable chez un GCP, chez un Azure, chez un OVH, chez un Hosted Services. Et ça, c’est rarement le cas parce que les gens mettent tout… leurs compétences sur leur fournisseur d’hyperscalers. Et bien sûr, la règle, c’est que si vous formez ces gens sur ça, ils ne se forment pas sur autre chose. Donc quand vous allez leur dire « je vais bouger ça vers là », ils vont vous dire « ce n’est pas possible ». Parce qu’il y a tellement d’adhérence au fonctionnement de AWS que globalement, c’est quasiment très compliqué à transposer. Mais il faut le prendre en compte dès le départ. C’est quand vous faites un choix, ça rejoint ton point de dire « il y a le souverain et merci aux États-Unis ». Est-ce que je suis capable dans un temps respectable, bien sûr pas du jour au lendemain, en quelques mois, peut-être même en année, est-ce que je suis capable de transposer mes workloads sensibles vers autre chose et autre part ? Et si oui, c’est comment et comment je peux le garantir ? Je vais juste l’illustrer sur ta phrase parce que c’est assez intéressant. On a des clients qui viennent nous voir en disant mon plan de reprise d’activité, donc j’ai un casse majeur, je ne veux pas que ça soit chez le même fournisseur. Est-ce que vous pouvez m’aider à le faire ? Donc c’est des types d’accompagnement qu’on est capable d’expliquer à un client. Donc ça rejoint un certain aspect amont qui est de l’aide, on va dire de l’assistance. C’est à dire voilà les prérequis qu’il faut pour garantir le fait que vous soyez capable de le faire sur vos applications sensibles, bien sûr, pas sur tout. Et bien c’est des questions qu’on commence à avoir aujourd’hui. Et maintenant la suite c’est Est-ce que maintenant, je peux bouger tout à un autre endroit ? Tous les trois mois, je vais donner un exemple concret, on a un client qui prend un workload et qui veut changer de fournisseur tous les trois mois. Je pense que les gens qui ont écouté ça vont dire qu’ils sont fous. Il faut être très préparé. Ce n’est pas qu’ils sont fous, c’est qu’il faut être très préparé.
Marc Sanselme 00:20:25 – 00:20:38 : Alors, justement, qu’est-ce que tu penses des langages de programmation d’infrastructures ? Je pense à Terraform, à Colony, ces choses-là. J’en connais que deux, mais il y en a d’autres.
Laurent Delaisse00:20:38 – 00:20:40 : Oui, c’est les plus connus, ça va. D’accord.
Marc Sanselme 00:20:42 – 00:20:44 : Bonne pratique, mauvaise pratique ?
Laurent Delaisse00:20:44 – 00:20:46 : Très bonne pratique. J’imagine que tu avais la réponse à ta question.
Marc Sanselme 00:20:46 – 00:21:21 : Disons que ta réponse précédente nous guide un peu vers ça. C’est quand même pas si simple. Tu parlais de compétences AWS, de compétences GCP. Là, il y a une compétence de langage en plus ? et moi j’ai quand même souvent entendu la phrase après quand quelqu’un parle de son implémentation avec Terraform ou Pulumi la phrase qui complète c’est il faudrait changer quelques trucs si on voulait migrer ailleurs quand même. c’est pas 100% plug and play non.
Laurent Delaisse00:21:21 – 00:22:42 : mais En fait, la chance qu’on a sur ces ensembles de protocoles que tu as mis en place ou d’outils qui permettent de le faire, c’est qu’il y a une grosse communauté derrière. Donc ça, c’est le côté sympathique. C’est que quand vous sortez une sorte de Redbook sur la façon de le faire, elle est très vite lue par la communauté et elle va, entre guillemets, adapter. Alors, il faut beaucoup de lecture, c’est un peu du communautaire, mais beaucoup adapter. Par exemple, j’ai fait ça, ça n’a pas marché, est-ce que tu peux m’aider à le faire ? Et on a beaucoup de nos clients ou de partenaires qui nous améliorent nos procédures pour être capables de transposer certaines méthodologies d’automatisation de procédures. Et ça, c’est super intéressant parce que ça répondra à ta question, c’est que ça, c’est un des moyens déjà de faciliter… Alors, je mets des réserves parce que tu l’as donné aussi… pas 100%, mais peut-être 80-90% de cette capacité à bouger une façon de faire d’un point A à un point B. Alors, quand on pense à Terraform, Pulumi ou à Ansible, automatiquement, il y a un point qui est assez intéressant, c’est qu’on trouve cette demande-là plutôt chez des gros clients. Parce qu’ils ont des équipes qui travaillent dessus, qui mesurent dessus. Et ce qu’on a quand on va sur des sociétés plus petites, c’est qu’en fait, ils prennent, entre guillemets, l’ensemble du contenu et ils l’appliquent. Là, l’avantage, c’est que les sociétés peuvent tester et vérifier que leur procédure est toujours fonctionnelle, quels que soient, entre guillemets, les équipements qu’on va avoir ou le lieu où on va aller, quoi.
Marc Sanselme 00:22:45 – 00:22:58 : Alors, on va parler d’IA générative. Effectivement, c’est une question que je voulais poser, mais très rapidement. avant, je voulais te poser une question qui m’est venue pendant qu’on parlait. Hitachi, c’est une marque japonaise ?
Laurent Delaisse00:22:58 – 00:22:58 : Oui.
Marc Sanselme 00:22:59 – 00:23:03 : EMEA, le A, c’est l’Asie ?
Laurent Delaisse00:23:03 – 00:23:08 : Ah non, EMEA, c’est vraiment l’Europe. En fait, c’est Asia-Pac. Alors, va où ta question ?
Marc Sanselme 00:23:08 – 00:23:13 : Comment est-ce qu’une marque japonaise peut avoir regroupé l’Europe et l’Asie ?
Laurent Delaisse00:23:13 – 00:25:15 : Si tu as une bonne connaissance du marché asiatique et plutôt japonais, le japonais, c’est une île. C’est une toute petite île dont la maison mère, qui a plus de 118 ans, a été créée. Quand Itachi s’est créé, ce n’est pas pour l’infrastructure et le digital, c’est principalement pour le secteur de l’énergie. Ça, c’était le point principal, à cause du fait que c’est une île et que l’énergie n’est pas… On ne peut pas construire quoi que ce soit, parce que l’île, c’est une île, donc on est limité. Donc, en fait, ils ont démarré de cette partie-là. Et après, ils ont développé des sujets à peu près il y a 68 ans de la partie digitale. Donc, juste l’histoire pour te faire un petit peu rapide, Itachi a créé ce qu’on appelle le mainframe. Alors, pour les gens que ça ne parle pas, mainframe vient d’un monde qui s’appelle IBM, qui a créé un système qui est propriétaire, qui est extrêmement utilisé dans les banques et les assurances parce que c’est un système propriétaire qui est très résilient, très performant et qui sera là encore demain. Même quand on ne sera plus là, il sera encore là. Et c’est pour nous une application qui est très critique. Donc, on a fait du compatible. de CPU, si je prends le terme, mainframe, au nom d’Itachi. Ça a tellement bien marché que eBay nous a dit qu’il fallait arrêter, parce qu’on était bon dans la façon de faire, et donc on a transposé ça dans le monde du stockage. On s’est dit, on ne peut pas faire le compute, on ne peut pas faire le CPU, donc ce qu’il y a derrière le CPU, c’est stocker l’information. C’est là qu’ont été créées les premières infrastructures, et on a cloné ce modèle-là en dehors du Japon. Alors, il y a un point qui est dans ta question, c’est que le business au Japon n’est pas le business en Europe, n’est pas le business aux États-Unis. On a une culture différente d’achat, donc il a fallu adapter ce modèle-là. Mais une des forces qu’il y a, c’est quand on fabrique un produit au Japon, on a 30% d’empreintes carbone en moins, du fait qu’au Japon… 70% de l’énergie, c’est une énergie qui est renouvelable. Donc on a une empreinte carbone de conception des produits qui est une des plus faibles du monde de l’IT. Du fait qu’on ne vient pas du monde de Chine et qui, eux, ont une énergie qui est très gazier, donc qui est très consommatrice de CO2. Nous, on a par exemple dans le monde de l’éolien, de l’eau, et puis bien sûr des centrales nucléaires.
Marc Sanselme 00:25:17 – 00:25:53 : Le point de ma question n’était pas tant de la culturellement, comment est-ce qu’on arrive à vendre d’eux. C’était plus, c’est une boîte japonaise, donc son plus gros marché, j’imagine, démarre au Japon. Et donc la structuration a fait qu’a priori, il devait y avoir le pays Japon à la racine du découpage du monde en zone commerciale. Le pays Japon doit être un gros morceau. Et comment est-ce qu’on se retrouve avec EMEA ? C’est une énorme… En général, EMEA, ça sonne comme une entreprise plutôt américaine qui déploie d’un coup de l’Europe à l’Asie.
Laurent Delaisse00:25:53 – 00:27:10 : Il y a une petite drogue. Donc, Itachi Limited est japonais, Itachi Vantara est américain, sous tutelle d’une société japonaise. Le headquarters d’Itachi Vantara, il est dans la Silicon Valley. Et donc, notre entité, elle est américaine. Pourquoi alors ? Il y a une simple raison, c’est que pour faire du business dans l’IT, il faut déjà plutôt avoir une adhérence qui est très américaine, très Amérique du Nord, on va dire. Donc, c’est pour ça que ça a été décidé dès le départ de conception de mettre effectivement le headquarters aux Etats-Unis. Mais on n’est pas en bourse, donc Ventara n’est pas achetable, à différence de plein de sociétés dans l’IT. Pour acheter Ventara, il faut aller voir les gens du Taché Limitine pour dire est-ce que vous voulez revendre cette partie-là? ? Et c’est comme ça qu’on a découpé en fait. Donc ils ont monté les Etats-Unis, on a ouvert la plaque européenne, donc les grands classiques, France, Allemagne, Angleterre, les grands classiques quand on ouvre une entreprise. Et puis maintenant on est partout en Europe avec la Russie qui est maintenant sortie du périmètre de jeu du business. Et la nouveauté qui est plutôt intéressante, c’est qu’avant, dans l’Asia-Pac, donc la région Asia-Pacifique, le Japon était à part. Et là, on l’a intégré dans le processus. Le Japon s’inscrit maintenant dans la plaque Asia-Pac, alors que la conception des produits vient du Japon. Ça, c’est plutôt une grosse nouveauté pour un groupe japonais de ne pas le décorréler, entre guillemets. Alors, la plupart le font naturellement. Et donc, on a développé comme ça l’entreprise par ce modèle-là.
Marc Sanselme 00:27:10 – 00:27:12 : OK. Bon, c’est une simple curiosité.
Laurent Delaisse00:27:12 – 00:27:15 : Non, il n’y a pas de…
Marc Sanselme 00:27:15 – 00:27:18 : Alors, dirigez les narratives, du coup. Qu’est-ce que ça a changé pour vous ?
Laurent Delaisse00:27:18 – 00:31:14 : Alors, en fait, ce qu’on appelle la big wave actuelle de ces sujets de l’IA, tout le monde en parle. Et ne pas en parler, c’est de ne pas être innovant. Je vous reparlais tout à l’heure, effectivement, de la création de données qui a été relativement conséquente pour toutes les entreprises. Donc, on a créé de la data pour alimenter des moteurs LLM. Et maintenant, d’aller plutôt vers le RAG. Et après, là, vous allez voir sous peu l’agentique qui est le next step de la partie intelligence artificielle. Et je vous illustrerai des choses assez classiques. Pour répondre à ta question, nous, on a fait un choix d’intégrer déjà ce qu’on appelle le machine learning ou le deep learning dans nos outils logiciels. Alors, un but relativement simple, c’est analyser le comportement de nos clients et de faciliter les tâches de bas niveau pour répondre à des petites problématiques assez classiques. Je vais donner deux exemples assez traditionnels. J’ai un défaut, comment je le résous ? Je vais analyser ma chaîne complète de connexion entre mes équipements. pour trouver un peu là où il y a le problème et donner effectivement à l’administrateur le fait de dire je gagne du temps, le problème il est là, investigue là. Mais on a déjà fait tout le reste en fait. Donc c’est comme ça qu’on a fait. On a modélisé le travail sur la façon dont nos machines réagissent, nos logiciels et nos services et nos clients et partenaires qui utilisent nos équipements. Là maintenant on a changé de paradigme, c’est que maintenant on doit fournir des infrastructures pour l’AI. Alors c’est vrai que je pense dans la question qu’il y a derrière, c’est que l’AI aujourd’hui, comme on le voit chez nos clients, c’est principalement chez les hyperscalers. Parce que, tu l’as dit précédemment, on va pas revenir sur le sujet d’avant, c’est que la consommation est simple. Je n’ai pas acheté de GPU, je n’ai pas acheté de compute, je n’ai pas laissé stockage, j’achète une subscription, j’ai un service complet, et pour faire alimenter mon moteur, je le fais pendant une période de temps. Donc ça me coûte à la fin mois. Mais on voit quand même des choses intéressantes maintenant. Ça rejoint le même problème que le point 1, c’est que les clients se rendent compte que ça coûte cher. Vous êtes facturé au token quand vous utilisez du GPU et ces gens-là sont là pour gagner de l’argent. C’est un petit peu un business model assez classique. Donc nous, ce qu’on a fait, c’est qu’on s’est fortement rapproché d’NVIDIA, comme beaucoup d’acteurs du monde de l’IT, mais on s’est rapproché à deux niveaux sur ce sujet de l’AI, puisque c’est le grand fournisseur de GPU du monde de l’AI, NVIDIA, même si AMD est en train de lancer des choses, mais ça prend un peu plus de temps. C’est de travailler sur deux axes. Une partie de l’infrastructure, qui est le modèle de Hitachi Ventara, mais un modèle qui est différent, c’est celui d’Hitachi Limited, donc la maison mère japonaise, qui est pour développer des nouveaux moteurs OT. Autique, objet connecté. Parce qu’on est un industriel, on n’est pas une infrastructure de stockage, on monte du digital. Donc on a appris ça pour développer nos nouveaux moteurs sur les sujets de l’énergie, du transport, de l’industrie de manière générale, de le secteur santé, parce qu’il y a un sujet auquel on vend aussi, et d’utiliser ces mécanismes-là pour fournir des nouveaux services. Donc nous, on a sorti des infrastructures tamponnées, certifiées par Nvidia, qui permettent à un client de prendre des modèles prêts à l’emploi, principalement non-premise, donc d’avoir un coût d’usage qui est une infrastructure, et de prendre quelque chose qui peut être assez intéressant pour les clients et les partenaires, c’est de payer à la mode des hyperscalers. Je paye au mois. Voilà, un usage. Donc je n’achète pas un équipement sur 3 ans ou sur 5 ans. Je prends un engagement sur une période de temps, mais je suis facturé à l’usage. Si je consomme 30% de mon usage, je suis facturé à 30%. Si je consomme 80… Et un autre axe, dans la suite de ce que je viens de dire, c’est qu’on s’aperçut aussi, des gens qui utilisent aujourd’hui de l’AI, du LLM, du RAG, c’est que l’usage des GPU n’est pas à 90%. Les gens achètent des infrastructures pour un usage qui est plutôt de l’ordre de 30-40%. Et nous, ce qu’on veut, c’est que les clients utilisent au maximum ce qu’ils ont, et pas pour acheter plein de machines. C’est ce qu’ils ont qu’ils utilisent plutôt à 80-90% pour avoir le modèle rentabilité le plus efficace pour tout le monde, soit pour nous, comme ce soit pour le client. Donc c’est ce qu’on a mis en place pour avoir une chaîne, entre guillemets, de connexion entre le compute, le GPU, la mémoire et le stockage, avec cette optimisation de l’usage, qui est très importante pour nous.
Marc Sanselme 00:31:16 – 00:31:22 : D’accord, mais les GPU ne sont pas partagés entre clients, ça reste quand même…
Laurent Delaisse00:31:22 – 00:33:22 : Techniquement parlant, on peut effectivement avoir une approche, pour revenir sur le point nouveau 1, c’est de faire ce que font nos amis hyperscalers, c’est d’acheter des fermes de calcul et de les rendre mutualisées, entre guillemets, en termes d’usage, parce que le principe de l’AI, et je pense que tout le monde le sait aussi, c’est L’objectif, c’est de prendre un maximum d’informations. Donc, c’est un peu, on va venir au data lake. Pour certains, on connaît, il y a une vague, il y a quelques années, qui était très en poupe. Tout le monde a investi beaucoup sur ce sujet-là. C’est avoir un lac de données énorme et de faire tourner les moteurs et les lames d’apprentissage sur ces lacs de données. Donc, on a le même modèle, c’est casser les silos, stocker tout, mais d’avoir un système qui est optimisé en termes d’usage du stockage, qui est le point 1 sur certaines phasings de AI, c’est de vraiment utiliser de manière efficace le stockage pour apprendre au moteur ce qu’il leur convient d’apprendre. Donc nous, on ne fournit pas d’LLM, mais on va faire un peu de teasing, ça appellera beaucoup de gens dans la prochaine conférence Nvidia qui aura lieu à Paris. On va annoncer le mot qui est à la mode par le Gartner, c’est l’agentique. Donc, on voit sur Copilote, si je prends l’exemple que vous connaissez peut-être à titre personnel, on va prendre ça au niveau de l’entreprise, on va fournir effectivement un agent qui va s’appeler Time Machine. Ne conférez pas à Mac, parce que je vois que tu es un Mac. On a pris la même terminologie, mais c’est Hitachi IQ Time Machine, et qui va permettre effectivement à chaque opérateur d’avoir un agent pour faire vraiment des tâches dans la liste de toutes les tâches qu’il a la journée, d’effectuer des tâches qui sont des tâches du niveau défini par l’opérateur. Et donc, il va recevoir des requêtes, l’agent TIC, il va traiter les requêtes qu’il peut faire, et les autres, il va les consolider, les résumer, et les demander à l’opérateur en disant est-ce que je dois faire ou pas faire ? Donc là, on va faire l’annonce aux prochaines conférences NVIDIA Paris de ce nouveau logiciel qui s’applique dans l’infrastructure, mais qu’on va aussi appliquer sur le transport, sur l’énergie, pour fournir ces types d’agents qui vont accompagner les utilisateurs plutôt entreprises, plutôt que particuliers, à faire des tâches qui sont simples ou faciles et qui vont être apprises par les moteurs LLM, par les moteurs RAG, pour optimiser tout ça dans le contexte adéquat.
Marc Sanselme 00:33:23 – 00:33:52 : Ok, ça c’est hyper intéressant, mais comment vous faites du coup, en tant que fournisseur d’infrastructure, pour proposer un logiciel qui va effectuer des tâches ? Alors peut-être qu’il faut justement qu’on donne quelques exemples pour bien se rendre compte des points, des verrous techniques qu’il peut y avoir, mais quelles vont être les tâches, par exemple, d’agentique dont on parle ?
Laurent Delaisse00:33:52 – 00:34:46 : Je vais donner deux exemples. Une qui est plus proche à notre métier, qui est le côté digital, donc côté data. Je dois gérer un data center et je suis un service mutualisé pour un client. Je ne parle pas d’un hyperscaler ou d’un service provider. Je suis client, j’ai une infrastructure et je fournis mon infrastructure à mes business units. Grand classique dans toutes les entreprises. Et là, aujourd’hui, on a un certain nombre d’opérateurs qui vont effectivement faire cette tâche de dire… Je fais une demande, ça passe par un ITSM et je valide la demande. Là, ce qu’on va faire, c’est qu’on va mettre un agentique qui va comprendre le fonctionnement de l’entreprise, puisque on va retrouver du type learning, machine learning derrière, mais on va le mettre dans un contexte. Donc, je suis par exemple la business SAP et j’ai besoin de fournir rapidement un espace de stockage pour mon SAP qui est sur trois sites différents avec un niveau de protection contre, par exemple, les ransomware dans un espace défini. Ça, c’est une tâche standard.
Marc Sanselme 00:34:47 – 00:35:00 : D’accord, donc c’est vraiment spécifique à la gestion de l’infrastructure. C’est un exemple. Comme tu avais dit copilote, je voyais l’outil concurrent de copilote. Là, en gros, c’est l’équivalent de copilote, mais pour l’infra.
Laurent Delaisse00:35:00 – 00:36:15 : Voilà, pour l’infrastructure. Mais prenons le cas maintenant du secteur de l’énergie, plutôt celui du transport, je vais vous prendre. On a sorti avec Nvidia un modèle particulier pour la maintenance prédictive des équipements dans les trains, puisqu’on est aussi fournisseur de trains. Pour les gens qui ne le savent pas, on a l’avantage de faire beaucoup de choses. On est concurrent direct au TGV d’Astom, donc pour ceux qui prennent le train entre Lyon et l’Italie, vous rentrez dans un train Hitachi, par exemple. Vous verrez, de toute façon, c’est écrit, il n’y a pas de souci. Mais pour donner un exemple sur l’Adjantic, c’est que, en fait, quelle est la valeur pour quelqu’un qui fait du transport ? C’est que les trains partent à l’heure, ça pouvait réagir si vous voulez, que quand il soit arrêté, c’est le minimum de temps, et qu’on anticipe donc du coup tous les risques d’arrêt de fonctionnement d’un train. Donc c’est les grands pains. On fait qu’on a quelqu’un, entre guillemets, quelqu’un qui fait du transport. Donc nous, ce qu’on va faire, c’est que, ce qu’on a déjà fait d’ailleurs, c’est qu’en fait, on analyse en temps réel le fonctionnement complet du train. Et d’ailleurs, je te pose une question, Marc, en live, c’est quoi le premier problème qui est généré dans un train ? Qu’est-ce qui fait qu’on arrête un train ? Le premier point qui est pour toi, alors tu prends plus, je ne sais pas si tu prends le métro.
Marc Sanselme 00:36:15 – 00:36:23 : Moi, je prends souvent la ligne Paris-Clermont et c’est la Vétusté qui est tout le temps, la Vétusté des Rames qui est tout le temps là.
Laurent Delaisse00:36:23 – 00:37:05 : Ok, intéressant. Donc, la Vétusté des Rames, ce n’était pas le sujet que je voulais aborder. Non, en fait, dans un train en lui-même, je parle vraiment du train en lui-même, le premier arrêt, c’est les portes. En fait, les mécanismes de porte, s’il y a le moindre défaut, le train est obligé de s’arrêter. Donc, en fait, c’est ce qu’on a vu, nous, par notre analyse, entre guillemets, de maintenance prédictive. C’est de voir que c’est l’arrêt des trains par des capteurs, par plusieurs signaux. Donc, c’est un ensemble de stacks. Et là, on va être capable de voir un cycle de fonctionnement complet, d’anticiper. quand est-ce que le train va être obligé de s’arrêter pour juste vérifier que tout est conforme, pour éviter qu’il s’arrête complètement. Donc, c’est typiquement ce qu’on a sorti récemment avec une offre qui s’appelle H-Max avec Hitachi Rail. Donc c’est l’EI.
Marc Sanselme 00:37:05 – 00:37:35 : Ok, hyper intéressant. Est-ce que sur les données clients, exploitation des données, sur ces sujets-là, avec ta hauteur de vue, est-ce que tu as des exemples à nous partager ? situation où la data a aidé à construire des stratégies, à prendre des choix business forts sur la base des outils Itachi utilisés pour digérer cette donnée.
Laurent Delaisse00:37:36 – 00:40:51 : Je vous ai donné deux exemples, un qui est plutôt orienté utilisateur dans l’entreprise et puis un plutôt orienté sur la partie métier business. On a un client qui nous a contacté car il avait un souci de gestion de sensibilité des données échangées entre collaborateurs. Je vais donner un exemple plus concret. Je suis plutôt côté vente, même si je suis plutôt technique vente, et je dois dialoguer avec des services légaux, des services finance, des services HR. La sensibilité des données que font transiter. les services HR, légaux ou finance ne sont pas les mêmes que celles du commerce ou celles de la maintenance. Et en fait, cette entreprise, plusieurs milliers d’employés, a découvert dans son fonctionnement, qu’on a découvert lors d’un audit, que certaines informations confidentielles transitaient pour l’ensemble des employés. Donc, le premier cas d’usage qu’on avait, c’est mettre en place juste de la gestion documentaire. Donc, c’est plutôt du basique. Si toi, Marc, tu es le CEO de l’entreprise… Ta communication, elle est particulière. Tu as des choses qui sont confidentielles, qui sont flaguées confidentielles. Quelques personnes peuvent lire et puis tu as du public. Donc, on a mis en place ce type d’outillage. Je ne parle même pas dans le sens de stocker données, mais uniquement le procédure à mon, c’est de fournir un certain nombre d’équipements pour flaguer. Donc mettre les datas au bon endroit, au bon moment. Et on a rajouté un petit point complémentaire, parce qu’on a le droit en France d’avoir, on a le choix plutôt en France d’avoir beaucoup de législation, c’est qu’une donnée qui doit être archivée, conservée pendant 10 ans, légalement parlant, il faut qu’elle soit stockée, archivée pendant 10 ans. Donc on a mis un point complémentaire, et là on peut parler sur des gens qui sont dans l’industrie, quand on vous met de maintenir un contrat de fabrication, une pièce pendant 30 ans, vous devez garantir que Dans 30 ans, la donnée, elle est relisible. Alors, juste ce que je viens de dire, posez-vous la question du « je prends mon équipement d’aujourd’hui, je me projette dans 30 ans, est-ce que l’outil que j’ai aujourd’hui et les applications qui ont créé le document que j’ai, je pourrais les relire dans 30 ans ? ». La réponse, c’est plutôt « je ne sais pas », pour être plutôt poli. En fait, ce qu’on a fait, c’est qu’on a transformé le format en HTML, puisque l’avantage du HTML, c’est un format qui est ouvert, mais sur un support qui garantit le fait que la donnée n’est pas modifiée dans sa structure. Donc, personne ne peut la modifier. Donc, ça, c’est des exemples de mise en place. C’est vraiment en analysant la façon de gérer la data qu’on a réussi à optimiser et donc à rendre conforme une entreprise par cette approche-là. Le deuxième cas, c’est plutôt l’aspect entre guillemets business, même si on se rapproche de l’utilisateur, même si c’est plutôt orienté business. On a dans un certain pays les archivages légals du pays en cause. C’est-à-dire qu’en France, je ne sais pas si vous stockez des informations, il y a une norme qui s’appelle la 42013 ou 026 pour les spécialistes, qui oblige les gens à garder cette donnée pendant un temps. on a mis en place la même chose pour un pays. C’est-à-dire qu’en fait, on a tous les archives de ce pays-là qui sont gérées complètement par une application et qui vont permettre de garantir le fait que ces données sont toutes conformes dans la teneur et dans l’exécution et dans l’accès à l’ensemble de l’information. Donc, on fournit pour les gens qui nous suivent, en fait, des capacités à fournir des solutions de bout en bout, que ce soit côté utilisateur finon, entre guillemets, ou que ce soit côté applicatif business métier.
Marc Sanselme 00:40:54 – 00:41:14 : Ok. Sur le plan humain, on n’en a pas beaucoup parlé, enfin un petit peu à travers ce qu’on a dit, mais si tu pouvais dire en quelques mots ce que tu répètes le plus, ce qu’il y a le plus besoin de dire, d’évangéliser dans les accompagnements que vous faites ?
Laurent Delaisse00:41:14 – 00:44:09 : Pas de souci, pareil, je vais essayer de toujours l’illustrer. En fait, souvent, en tant qu’utilisateur, et surtout dans la tech, on fait beaucoup confiance aux outils, parce qu’ils sont de plus en plus performants, ils fournissent de plus en plus d’aides. Il ne faut pas oublier, toujours un point, et pour les gens qui ne l’ont pas subi, mais quand vous êtes dans le cadre d’une attaque ransomware, en fait, il y a les outils, mais il y a surtout beaucoup d’humains. Donc pour répondre à la question, ce qu’on fait beaucoup, c’est effectivement un accompagnement pour… qui est vraiment de l’accompagnement de retour d’expérience sur comment l’humain est important dans la décision. Et je reviens, tout ne peut pas être porté par une seule personne. Une entreprise, c’est un certain nombre de personnes qui ont chacun un rôle différent, mais qui souvent, au sein des moyennes grosses entreprises, ne se parlent pas forcément beaucoup entre eux. Et si on veut réussir ce type de transformation, quelle qu’il soit, on parlait de rapatriation dans le plan 1, on a parlé un petit peu de l’égal très rapidement sur la partie conservation de données, il faut que l’ensemble de la chaîne se parle entre elles pour bien définir qu’est-ce qui est critique, qu’est-ce qui est sensible, qu’est-ce que je peux garantir. Et chacun son ownership, il n’y a pas de souci, mais la communication doit être vraiment croisée pour que tout le monde comprenne ça. Et donc j’ai illustré ça. On a eu un cas d’un client… qui, au niveau du COMEX, donc au niveau du bord de l’entreprise, s’était dit tout le monde fait du cloud first, on va faire du cloud first. Décision un peu… À nouveau, elle était bonne dès le départ, il n’y avait pas de souci, mais la réflexion n’était pas dans l’usage qu’on était fait, la façon dont on allait le faire, comment on allait y aller. Il y a plein de questions qui n’étaient pas faites. Et on a participé, alors merci encore à ces clients qui nous ont fait confiance, à donner des retours d’expérience sur un peu les questions que tu m’as posées au début, c’est qu’est-ce qu’il fallait éviter de faire ? en termes de A, B, C, D, E, F, G, H, jusqu’à Z, et un peu le retour d’expérience. Si vous ne faites pas ça, voilà les risques que vous prenez, donc ne sous-estimez pas ce point-là pour tel et tel retour d’expérience. Et donc on a beaucoup transféré de l’information vers ces gens-là, juste pour expliquer que bien sûr tout est possible, mais il faut vraiment faire un choix qui est basé sur le bien de l’entreprise. Et c’est un peu les remarques que je ferais là-dessus, c’est que souvent l’humain est oublié L’humain du D2D, qui fait son travail, qui le connaît parfaitement bien, il a souvent plus d’informations, il peut être capable de dire, ça c’est important, ça c’est moins important, ça c’est pas fait, je sais pourquoi c’est pas fait. Et à nouveau, je donnerai à nouveau un exemple, souvent ce qui se passe, et j’ai eu le cas par un grand groupe industriel international, le DSI me dit, on avait un équipement qui n’était pas à jour, on l’a monté au COMEX, ils ont dit c’est trop cher, l’équipement est tombé, la production est tombée. Ça leur a coûté trois fois plus cher. Ouais. Donc la sensibilité ou la criticité avait peut-être et mal été aussi communiquée aux décisionnels, et ce qui fait qu’ils ont payé trois fois plus cher, alors qu’ils ont payé une fois et il n’y aurait jamais eu de problème. Et l’humain le savait, et il l’a remonté, mais ça n’a pas été pris en compte. Il y a un problème d’énablement au niveau d’éducation ou d’explication de texte, mais pas non plus très technique, juste donner des retours d’expérience, comme ton podcast !
Marc Sanselme 00:44:09 – 00:44:20 : Ok, alors dans les choses qu’on aime bien dans ce podcast, justement, il y a les anecdotes, les opinions. Est-ce que tu aurais une anecdote à nous partager ?
Laurent Delaisse00:44:20 – 00:45:48 : J’ai une anecdote effectivement qui est un peu particulière. Je travaille avec une société indépendante de sécurité, à la grande époque et encore actuelle, de ransomware. Et c’était quelqu’un qui était professeur. Pour ceux qui ne savent pas, il y a une réglementation dans le monde de la banque finance qui s’appelle DORA, qui n’a rien à voir avec le dessin animé, pour ceux qui ont encore un doute, mais qui est une obligation légale. Tout le monde a encore un petit peu de temps, mais ça doit s’engager. Et je parlais avec ce monsieur qui était formateur à Dauphine sur ce sujet-là et qui était en même temps conseiller. Et il me disait, c’est simple, quand je vais voir le COMEX, je reviens sur l’exemple que je donnais avant, j’explique en tant que professeur comment on doit mettre en place un sujet, comme la régulation. Et en face de moi, j’avais des gens qui me faisaient comprendre qu’ils avaient compris, mais ils n’avaient rien compris. Et donc, l’anédoque que j’ai, c’est on est revenu le voir ensemble pour l’expliquer, pour que les gens comprennent à la fin qu’il y avait une criticité qui était là et qui devait être mise en place. Et du coup, les gens se sont mis à travailler ensemble et ont réussi à trouver une solution. Mais ce que je veux dire, c’est que la première étape qui était la bonne personne, le sachant parle. Les personnes ne sont pas sachants, il n’y avait pas d’écoute. C’est parce que peut-être la personne était trop… Elle avait une approche peut-être trop intellectuelle de l’approche. Et du coup, on y était à deux. Et on a expliqué un peu des exemples concrets avec des clients, etc. qui n’ont pas appliqué ça. Et là, il y a eu un petit changement. Et du coup, les gens ont travaillé ensemble et ont avancé. Donc, il faut faire attention. Des fois, ça passe bien. Des fois, ça passe pas. Il ne faut jamais lâcher le sujet quand on pense que c’est un sujet qui est sensible.
Marc Sanselme 00:45:51 – 00:45:52 : Et alors, côté opinion ?
Laurent Delaisse00:45:52 – 00:46:55 : Un opinion, je pense que de mon avis, vraiment 100% mix personnel et professionnel après mes 30 ans d’expérience dans le monde de l’IT, c’est que j’ai commencé il y a 30 ans. Il y a 30 ans, déjà, on parlait de mapper sa data, donc d’être capable d’auditer sa data. Et donc, il y a des conditions, mais au moins d’être toujours avoir une vue qui est la plus proche de la réalité. Et je m’aperçois que 30 ans après, je retrouve ces mêmes discussions d’il y a 30 ans. C’est-à-dire que les gens, ils ont tellement de données qu’ils ne savent plus quoi faire de ça. Ils ne savent plus comment l’ingérer. Ils ne savent plus comment la maîtriser. Donc, j’allais dire à vous tous, en tout cas, en tant que personne qui suit ce podcast, partez du point de départ que votre data, c’est à vous. Il n’y a que vous qui savez quelles données sont sensibles dedans, qu’est-ce qui est important pour vous. Faites-le. Parce que si vous ne le faites pas, entre la réglementation, les ransomware, tout ce qui va bien, vous allez subir. Et il n’y a pas pire que subir quand c’est vos données. On parle que la donnée, c’est le nouvel or noir. Il y a des gens qui disent que c’est le nouvel or tout court. Parce qu’en fait, c’est tellement de valeur, parce que les moteurs et les lèmes, tout ce qui va derrière s’appuie sur ça. Prenez soin de vos données. Voilà, c’est vraiment mon opinion personnelle.
Marc Sanselme 00:46:55 – 00:47:14 : Oui, c’est de l’or si effectivement c’est utilisé par la personne qui les possède, entre guillemets, parce que c’est vrai que j’ai beaucoup entendu des gens dire « coulette la donnée parce que ça vaut de la valeur et on va le refiler à quelqu’un, on va le vendre ». Non, la plupart du temps, personne n’en veut de tes données parce que personne n’y comprend.
Laurent Delaisse00:47:15 – 00:48:07 : Oui, il n’y a que vous qui pouvez savoir. Après, tu t’ouvres un débat, je l’ai fait aussi, j’ai essayé de faire venir la porte de ce sujet-là. C’est que malheureusement, il y a encore les ransomware qui tournent encore pas mal. Et aujourd’hui, les gens croient que la donnée a beaucoup de valeur. En fait, si vous allez sur Dark Web, n’y allez pas. Premièrement, il y a tellement de choses bizarres. Mais si vous allez dedans, vous allez voir que la donnée, ils en vendent ça en volume. Donc, on a l’impression que ma donnée, elle vaut beaucoup d’argent. En fait, c’est le volume de données qui vaut beaucoup d’argent. Ce n’est pas une donnée en particulier. Votre fiche de salaire… Vous, personnellement, elle a une valeur pour vous et vous ne voulez pas la communiquer. Maintenant, prenez celui d’un groupe complet avec le grand patron et l’ensemble. Là, ça peut être intéressant. Pas mal de gens. La donnée de la valeur, il y a vous qui la connaissez, mais il faut faire attention vraiment à cette donnée-là. Elle vous appartient. Il n’y a que vous qui pouvez la maîtriser, la contrôler, mais avec l’ensemble des gens qui travaillent dans l’entreprise.
Marc Sanselme 00:48:08 – 00:48:12 : Alors, qu’est-ce que tu aimerais entendre au micro de Data Driven 101 dans un prochain épisode ?
Laurent Delaisse00:48:12 – 00:49:05 : Alors, honnêtement, j’ai plusieurs noms à te partager. Je pense toujours à quelqu’un que je connais depuis très longtemps, qui est analyste en France, qui s’appelle Philippe Nicolas, et qui a eu l’occasion aussi de faire des podcasts de ce type-là, sur des thématiques plutôt très particulières, techniques, on va dire, sur des sujets particuliers, mais qui est un très bon… Il y a quelqu’un qui voit très bien l’évolution du marché, qui pourrait parler beaucoup de choses sur les nouvelles approches technologiques, peut-être dans 2, 3 ans ou 5 ans, des choses qui évoluent dans ce sens-là. On est toujours sur la data, mais comment la data est amenée à bouger d’un point de vue technologique. Et puis après, on a des partenaires avec qui on bosse beaucoup. Je pourrais citer Xavier Bourdelois de la société Convolt, qui est vraiment spécialisée sur la partie protection de la donnée. On parlait de data, mais là, comment la protéger, comment la sécuriser, comment éviter qu’on se fasse attaquer d’ailleurs. C’est un des sujets assez intéressants. Voilà les deux noms que je peux te donner avec des gens avec qui je travaille régulièrement et qui sont plutôt bons dans cet exercice.
Marc Sanselme 00:49:05 – 00:49:08 : Génial, avec grand plaisir. Merci Laurent.
Laurent Delaisse00:49:08 – 00:49:09 : Merci Marc, au plaisir !