Chatbot IA chez Schneider Electric : RAG et Finance
Sébastien Durand, expert financier chez Schneider Electric, est l’invité de l’épisode 63 de Data Driven 101.
Il partage son expérience dans le développement de l’intelligence artificielle générative. Il nous présente le Finance Assistant Chatbot, un outil innovant qui utilise des normes IFRS pour aider les équipes financières à naviguer dans des questions complexes. Il nous explique également les défis techniques rencontrés, l’importance de la collaboration inter-fonctionnelle et la reconnaissance obtenue par le projet aux Digital Finance Awards.
Marc 00:00:57 – 00:01:29 : Aujourd’hui, je reçois Sébastien Durand, un financier qui a passé la moitié de sa carrière dans l’audit et l’autre moitié chez Schneider Electric. Audit interne, direction financière, France, normes. Le franc, c’est bizarre. Je vais le refaire sans le mot France. Aujourd’hui je reçois Sébastien Durand, un financier qui a passé la moitié de sa carrière dans l’audit et l’autre moitié chez Schneider Electric en audit interne, direction financière, normes. Aujourd’hui il est en charge d’application d’IA générative chez Schneider Electric, groupe français spécialiste de la gestion de l’énergie et des automatismes. Bonjour Sébastien.
Sébastien 00:01:30 – 00:01:48 : Bonjour Marc. alors attends juste là je suis pas en charge des applications IA générative. ça fait partie de mon job mais c’est pas mon job en soi. mon job à la base c’est vraiment je suis dans l’équipe d’Enormi FRS et je suis ce que je disais après un peu un consultant interne et en plus de ça j’ai développé ce projet là.
Marc 00:01:49 – 00:01:59 : ok alors j’ai dit il est en charge d’application il est en charge d’application d’IA générative.
Sébastien 00:01:59 – 00:02:20 : Oui, ça donne un peu l’impression que c’est moi qui suis en charge. Ou alors c’est moi qui l’interprète comme ça. Parmi ses fonctions, parmi son rôle, il développe des applications, histoire que ça ne donne pas l’impression que c’est moi qui ai le monopole de ce truc-là. Très bien, alors je le refais. Ça marche ?
Marc 00:02:20 – 00:02:37 : Aujourd’hui, je reçois Sébastien Durand, un financier qui a passé la moitié de sa carrière dans l’audit et l’autre moitié chez Schneider Electric, audit interne, direction financière, normes. Aujourd’hui, il est entre autres dans le développement d’IA générative chez Schneider Electric, groupe français spécialiste de la gestion de l’énergie et des automatismes. Bonjour Sébastien.
Sébastien 00:02:37 – 00:02:39 : Bonjour Marc.
Marc 00:02:39 – 00:02:47 : Alors Sébastien, est-ce que tu peux nous dire avec tes mots ce que fait Schneider Electric en général, même si on connaît un peu forcément, et puis ce que toi tu y fais ?
Sébastien 00:02:47 – 00:03:57 : Alors Schneider Electric, pour faire simple, on propose des solutions à nos clients dans tout ce qui est gestion de l’énergie et des automatismes. Donc moi, ma place chez Schneider Electric, je suis actuellement dans l’équipe des normes IFRS, qui est rattachée à la direction comptable et du contrôle interne, elle-même rattachée à la direction financière. Pour expliquer rapidement ce qu’on fait aux normes IFRS, la première fonction, c’est qu’on est conseillé, comme des consultants internes, auprès des directions financières et des directions comptables dans le monde entier. Dès qu’il y a des sujets comptables impactants, qui peuvent avoir des impacts sur les états financiers. Et on est aussi garant de la conformité des états financiers. Dès qu’il y aura un sujet sur lequel on doit défendre une position, c’est nous qui sommes garants de cette conformité. On est aussi amené à faire monter en compétence l’organisation et c’est là que le projet qu’on va développer plus tard tient toute sa place, notamment par des formations ou par des projets dont celui dont on va parler très bientôt.
Marc 00:03:58 – 00:04:02 : Ok. Alors, qu’est-ce que c’est que le AI Hub?
Sébastien 00:04:02 – 00:04:56 : ? Oui. Alors, le AI Hub, c’est le pôle dans lequel on a tous nos développeurs, l’organisation en général dédiée à l’intelligence artificielle. Donc, ils sont basés sur trois hubs, un à Boston, un à Bangalore et un à Paris. Ok ? Ce sont actuellement, on est 350, enfin ils sont, parce que je n’en fais pas partie, 350 employés par rapport là où on était en 2021, 5 ans. Donc ça donne un peu une idée de la dynamique, beaucoup d’investissements sur le sujet. qui nous laisse la place pour développer des applications, bien sûr pour nos clients, parce que là vraiment chez Schneider Electric, quand on fait de l’intelligence artificielle, ça fait partie de la proposition de valeur qu’on propose à nos clients, qu’ils soient externes ou internes, et bien sûr au service de la décarbonation.
Marc 00:04:56 – 00:05:08 : Ok. Alors au niveau des projets IA justement, est-ce que tu peux nous parler de ces projets, notamment le projet d’assistant chatbot ?
Sébastien 00:05:08 – 00:05:35 : Oui, bien sûr. Alors, effectivement, je vais parler d’abord du projet dans lequel j’étais le plus impliqué, qui est effectivement ce Finance Assistant Chatbot. Qu’est-ce que c’est ? C’est un chatbot qui a été mis à disposition de l’ensemble des collaborateurs, notamment de la fonction finance, bien sûr, puisqu’il va permettre aux collaborateurs d’interroger le chatbot sur toute question qu’ils auraient relative aux normes IFRS, bien sûr, et aux contrats internes.
Marc 00:05:36 – 00:05:54 : OK. OK ? Donc, c’est, j’imagine, basé sur de la technologie RAG. Oui, tout à fait. Vous avez un corpus de documents qui est d’énormes IFRS.
Sébastien 00:05:54 – 00:06:29 : Interne, voilà. C’est là la spécificité. C’est-à-dire qu’on a… C’est une bonne question parce qu’on a… Tu as l’énorme IFRS et tu veux qu’ils soient disponibles… à tout le monde sur Internet. Ça, c’est les normes IFRS, on va dire, standards. Et après, normalement, les entreprises, en tout cas la majorité des grands groupes, s’approprient ces normes via un manuel comptable groupe qui va être plus adapté au business de l’entreprise, à ses process. Et c’est ce groupe à compte manual, donc là, je parle des manuels, il y a aussi le contrôle interne qui a eu le même travail, sur lesquels le bot va piocher l’information.
Marc 00:06:29 – 00:06:35 : Ok, donc pour bien comprendre les normes IFRS, est-ce qu’on peut définir ce que ça veut dire IFRS ?
Sébastien 00:06:35 – 00:06:58 : Oui, bien sûr. Les normes IFRS, c’est les normes comptables groupes qui ont été mises en place il y a quelque temps de telle sorte que les entreprises soient comparables de par la publication des états financiers qu’ils ont. Donc c’est des normes comptables internationales. Ok.
Marc 00:06:59 – 00:07:05 : Et donc celles qui sont internes, c’est par exemple pour comparer les différentes filiales, être capable de consolider.
Sébastien 00:07:06 – 00:07:33 : Alors, ça va être pas tant que ça pour comparer les filiales, mais c’est plus pour que les filiales aient une lecture propre à Schneider, donc plus personnalisée, dans laquelle ils vont plus se retrouver. Parce que les normes IFRS, elles sont très, comme on dit en anglais, principle-based, donc c’est beaucoup sur les grands principes. Et après, c’est à nous de décliner ça de manière un peu plus détaillée, de telle sorte que les business puissent se retrouver et puissent prendre des bonnes décisions.
Marc 00:07:34 – 00:07:50 : Ok, donc vous avez cette source de données qui est un ensemble de règles dans des documents. Vous utilisez du RAG pour répondre à des questions concrètement en termes d’interface. Qu’est-ce que c’est pour l’utilisateur ?
Sébastien 00:07:50 – 00:08:18 : Alors, c’est aussi l’avantage de ce chatbot, c’est que l’interface est assez presque transparente par rapport à l’utilisation qu’il a au jour le jour de ses différents outils, puisque c’est intégré dans Microsoft Teams. En fait, c’est une petite app qui va pouvoir ajouter dans son Microsoft Teams. Et il va pouvoir après la rajouter à gauche dans son écran. Et il va pouvoir la voir en direct et poser une question. Comme si au lieu de poser dans Teams une question à un ami ou un collègue, il va poser la question au bot.
Marc 00:08:18 – 00:08:28 : C’est un collègue virtuel. Exactement. Et donc ce bot va répondre… En se basant sur ces réponses-là, qu’est-ce qui fait que la réponse est fiable ?
Sébastien 00:08:28 – 00:09:50 : Qu’est-ce qui fait que la réponse est fiable ? Plusieurs choses. La première, c’est qu’on a un corpus de données qui est quand même assez encadré. Comme je t’ai dit, c’est le groupe accounting manual, le manual comptable groupe. C’est aussi la base de données du contrôle interne. On n’est pas comme sur TGPT où on a l’intégralité d’Internet qui est ingérée. Donc ça limite quand même le risque d’erreur. Ça, c’est un premier point. Qu’est-ce qui va rendre la fiabilité aussi ? C’est ce qu’on entend beaucoup dans l’intelligence artificielle et notamment sur l’intelligence artificielle générative, c’est que la data doit être au maximum propre et sécurisée pour que le bot qui va tourner sur cette techno puisse sortir une information fiable. Là, en l’occurrence, c’est vrai qu’en amont, déjà, on a eu un projet de refonte totale de notre manuel comptable groupe. aussi bien sur le fond, puisqu’on l’a digitalisé, enfin sur la forme, puisqu’on l’a digitalisé, que sur le fond. On a vraiment tout rebalayé, toutes nos normes, etc. On les a vraiment toutes remises à jour, avec des exemples plus précis, plus par rapport à notre business, encore plus. Donc ça, c’est un gros projet qu’on a fait il y a deux ans, qui fait qu’on a quand même une base de données qui est quand même plutôt propre, voire très propre, sur laquelle le bot va aller chercher de l’info.
Marc 00:09:53 – 00:10:21 : J’imagine que c’est basé sur OpenAI pour les requêtes. Tout à fait. Du coup, OpenAI a vu un énorme corpus dont des notions de comptabilité, etc. Comment on sait, d’une certaine façon, si le bot a répondu à partir de ce qu’il savait déjà ou s’il a mobilisé des documents qu’on lui avait donnés ?
Sébastien 00:10:21 – 00:10:59 : Alors, pour l’utilisateur, ça sera assez transparent, mais je dirais que de manière générale, le bot, l’avantage, c’est un peu comme ce qu’on retrouve sur Microsoft Copilot, la version publique, on va dire, par rapport à ce qu’est la charte GPT publique. c’est qu’il va sourcer à chaque fois les documents dans lesquels il va chercher de l’information. Et ça, c’est vraiment un gros point fort, puisque ça fait partie des choses que j’aime bien préciser, c’est que c’est un début, c’est une piste, on va dire, pour l’utilisateur, mais il faut qu’il aille chercher dans ses documents sources pour compléter son analyse.
Marc 00:11:00 – 00:11:10 : Ok, donc ça fait vraiment office de moteur de recherche. d’une certaine façon, ça formule une réponse, mais on a cette possibilité de vérifier l’information.
Sébastien 00:11:10 – 00:11:15 : Exactement, et aller pousser l’analyse pour aller plus loin via ces liens.
Marc 00:11:18 – 00:11:39 : Ok. Cette base de données constituée, qu’est-ce que vous avez dû faire pour que ça marche bien ? Est-ce que tu peux nous partager un petit peu au fil de l’eau des itérations, des essais que vous avez faits ? Qu’est-ce qu’il a fallu faire pour que ça marche bien ?
Sébastien 00:11:39 – 00:12:32 : Oui, alors la base de données, en fait, effectivement, c’est corrélé avec le bot, mais pour moi, c’est presque un process à part et qu’on avait déjà mis en place. Je t’en avais parlé, on avait fait le gros projet de refonte, c’était il y a à peu près deux ans, si je ne m’abuse. Et après, c’est un processus itératif, effectivement, où tout le monde va participer. Par exemple, on a des questions de nos filiales. On dit, tiens, là, il y a un sujet, effectivement, on pourrait le préciser un peu plus sur notre base de données. Hop, on fait une mise à jour. Voilà, mise à jour, tiens, là, on va clarifier un peu plus. C’est vraiment un processus continu. On a des revues périodiques aussi avec l’équipe pour balayer ces sujets qui nous sont remontés, voir s’il faut ou pas mettre à jour la base de données. Donc, c’est vraiment un processus continu. Oui. qui est un peu décorrélé, entre guillemets, du chatbot, mais qui est tout à fait en synergie, involontairement en synergie, finalement. Je ne sais pas si…
Marc 00:12:32 – 00:12:47 : Oui, c’est-à-dire que vous aviez besoin, de toute façon, de mettre au propre une sorte de… Alors, pas de foire aux questions, mais vraiment de manuel de référence pour ces normes IFRS. Et il se trouve que ça s’est aligné avec l’intérêt du chatbot.
Sébastien 00:12:47 – 00:12:48 : Exactement, tout à fait.
Marc 00:12:54 – 00:13:31 : Un petit peu d’expérience avec le RAG, je pose des questions un peu ciblées, mais comment est-ce que ça fonctionne? ou est-ce qu’il y a des dysfonctionnements ? Si par exemple… Les questions posées sont multiples, si ça fait appel à plusieurs éléments. Est-ce que vous avez pris en compte ce genre de situation, des questions multiples ? Et puis à la limite, même de façon plus ouverte, quel genre de dysfonctionnement, quel genre de limitation on observe ?
Sébastien 00:13:31 – 00:15:06 : Alors, je vais répondre avec ma connaissance fonctionnelle parce que sur la partie technique, forcément, je suis moins au fait que les équipes techniques du AI Hub. Mais ce que j’ai pu constater déjà, et c’est aussi ce que je constate de manière générale sur les LLM, c’est que ce qui est important, c’est de bien donner le contexte. Et ça, je pense que tu as dû le retrouver aussi dans d’autres cas d’usage. Bien préciser le contexte. Je vois que parfois, quand le contexte n’est pas assez précisé, le bot va avoir du mal à donner une bonne réponse. La formulation doit être claire. Parfois, je vois des questions qui sont posées en live devant moi où, limite, il n’y a pas de verbe, il n’y a pas de sujet. Je pense que le bot, il a besoin d’un peu d’aide aussi quand même pour formuler une réponse. Après, sur les limites, ce qui n’est pas évident aussi, c’est que l’utilisateur capte bien le scope que je viens de te donner. Tu vois, la norme IFRS, contrôle interne. Malgré les campagnes de com’ évidemment qu’on fait, malgré les messages disclaimer qu’on met au début du bot pour rappeler quel est le scope du bot. parfois, les utilisateurs ont tendance à extrapoler un peu le scope du bot et à poser une question qui sera en fait, finalement, hors sujet. Et ça, c’est là où c’est pas évident de cerner bien le scope pour l’utilisateur. Parce que normalement, si l’utilisateur pose une question qui est vraiment dans le scope, le taux de précision est quand même très bon. Enfin, des tests qu’on a faits, il est quand même bon, tout à fait.
Marc 00:15:06 – 00:15:09 : Et vous avez des chiffres de précision ?
Sébastien 00:15:09 – 00:15:19 : Je suis un peu limité sur les chiffres. J’ai des contraintes. Normalement, je ne peux pas partager trop de chiffres. Mais c’est un taux qui est bon.
Marc 00:15:19 – 00:15:25 : Et si ce n’est pas bon, on n’a pas une réponse fausse ? On a un message qui dit « je ne sais pas » ?
Sébastien 00:15:25 – 00:17:03 : Alors, si ce n’est pas bon, un autre point intéressant du bot, c’est que… Alors, soit il va dire « je ne sais pas », ça peut effectivement… Et je préfère parfois qu’il dise « je ne sais pas » plutôt qu’il me dise quelque chose qui est complètement faux pour l’utilisateur. Et j’ai beaucoup challengé les équipes techniques sur le sujet, d’ailleurs, pour qu’on arrive de plus en plus à ce niveau de réponse. Maintenant, si la réponse, il donne une réponse qui est fausse, que l’utilisateur sait qu’il est fausse, on a un système de feedback que j’aime beaucoup, puisque c’est ça qui nous permet aussi après d’aller travailler dessus et d’aller améliorer l’outil de manière continue en phase d’industrialisation. C’est un système de pouces hauts, pouces bas. Si l’utilisateur n’est pas satisfait, il met un pouce bas. L’information remonte chez nous. Après, on a un accès à tous les pouces bas. On voit toutes les questions qui ont été posées. Pas par qui, parce qu’il y a une question de confidentialité, mais on voit à peu près quel pays, etc. C’est déjà pas mal. Et ça nous permet de faire le tri. Est-ce que la question était hors sujet ? Et c’est l’utilisateur qui n’a pas bien cerné le scope. Est-ce que la question était pertinente, mais c’est manquant dans nos bases de données ? Dans ce cas, l’action est chez nous. C’est à nous de mettre à jour la base de données, puisque effectivement, la question est pertinente. Ou est-ce que la question est pertinente et l’information est bien dans la base de données, mais le bot ne l’a pas trouvée ? Donc là, il y a une action pour les devs, pour voir pourquoi le bot ne l’a pas trouvée. En gros, c’est les trois principales raisons qu’on a pu identifier sur les différentes erreurs.
Marc 00:17:03 – 00:17:09 : Et qui peut faire ce triage ? Est-ce que c’est quelqu’un qui connaît l’IA, quelqu’un qui connaît le métier ?
Sébastien 00:17:09 – 00:17:33 : C’est plus, je dirais, alors l’IA peut, dans une certaine mesure, les gens d’une certaine mesure, mais ça revient très vite chez nous. Et c’est là où c’est important qu’on soit impliqué, bien sûr dans la phase du design, mais aussi dans la phase d’industrialisation, puisque ça, forcément, ça demande quand même une connaissance métier que les devs n’auront pas forcément.
Marc 00:17:33 – 00:18:01 : Oui, bien sûr. Ça, c’est côté perf de l’outil. Je me pose aussi plein de questions côté adoption, côté organisation, équipe. Déjà, est-ce que c’est bien reçu ? Quel est l’état des lieux ? Je ne sais pas combien de temps ça fait que vous l’avez déployé. Tu pourrais nous dire comment c’est reçu par les équipes.
Sébastien 00:18:01 – 00:19:52 : Alors, effectivement, il a quelques mois d’existence. La perception qu’on a, c’est qu’il y a quand même beaucoup d’engouement, ce qui est quand même plutôt satisfaisant. Parce que c’est vrai que parfois, quand tu entends des retours sur l’IA, tu peux entendre un peu de négatif parfois sur est-ce que ça va remplacer les jobs, etc. Là, ce n’est pas du tout le cas. Il y a beaucoup d’engouement. et beaucoup de voilà des essais notamment quand on a des essais qui ont été satisfaisants même par des gens assez seniors dans l’organisation qui nous envoient des petits messages super j’ai testé ça marche super bien. voilà après il ya aussi forcément comme on l’a dit les axes d’amélioration qu’on a évoqué qu’on a évoqué précédemment sur l’adoption. on Ce qu’on fait pour l’instant, c’est qu’on a mobilisé les équipes du AI Hub pour nous aider à avoir de la data, c’est-à-dire de voir un peu les trends d’utilisation par mois. Donc ça, c’est un premier point. Ça, c’est pour l’adoption. Et après, ce qui va de pair avec l’adoption aussi, c’est aussi la précision qu’on a évoquée précédemment. Parce que c’est plus facile d’embarquer les gens quand tu vois que l’outil est fiable et que les gens sont prêts à le vendre. Donc ce qu’on fait, c’est qu’on se fait aider. Bien sûr, pour l’instant, nous, on fait appel à des pays pilotes. On voit dans les stades ceux qui sont le plus engagés sur l’outil, qui ont la plus force appétante. Et là, on a proposé un partenariat il n’y a pas longtemps avec deux pays qui nous aident à faire ce premier niveau de revue et qui nous aident donc du coup à fiabiliser. Et c’est aussi pas seulement pour aider à fiabiliser, mais pour aussi aider à l’adoption dans leurs territoires respectifs en complément, bien sûr, de toutes les campagnes qu’on peut faire au niveau corporel, au niveau du groupe.
Marc 00:19:52 – 00:20:13 : OK. Si on doit, après quelques mois encore une fois, faire le bilan de l’opération, qu’est-ce que tu pointerais du doigt, en bon ou en mauvais d’ailleurs ? Quelles seraient les choses que tu mettrais en avant ?
Sébastien 00:20:13 – 00:22:03 : Alors ce que je mettrais en avant, je pense que c’est le côté un peu disruptif quand même de l’outil. Parce que là, on est vraiment sur… Et c’était un peu les propos de notre directrice financière groupe sur le post qu’elle a mis sur LinkedIn, un peu un game changer en anglais. C’est vrai que je souscris plutôt à cette idée puisqu’on est vraiment sur un… Pourquoi je dis un peu disruptif ? Parce qu’on est en train quand même de rendre accessibles et plus faciles et plus attrayants des sujets qui n’étaient pas forcément la première priorité dans la fonction finance. Et le fait de le rendre vraiment facile d’utilisation, attractif, je pense que ça peut vraiment aider aux objectifs de l’organisation, justement, de renforcer en conformité, de renforcer et du coup en conformité. Et donc ça nous aide, par exemple, à la conformité des états financiers, la prévention du risque de fraude. Donc vraiment, voilà. l’accessibilité, la disponibilité, qui pour moi sont vraiment des axes déterminants. Et après, si je devais retenir une piste sur laquelle on travaille en ce moment le plus, effectivement, mais ce n’est pas que dans ce projet-là, c’est comme dans beaucoup de projets de digitalisation, c’est ne rien lâcher sur l’adoption, toujours pousser, de telle sorte qu’on arrive vraiment à des objectifs d’adoption satisfaisants, pour pas que ce soit juste un projet qui a été très bien reçu à un instant T, et qui in fine tombe dans le lit, parce que je pense qu’il a vraiment de quoi rester pérenne longtemps.
Marc 00:22:05 – 00:22:13 : Est-ce qu’il y a des utilisateurs à fond et des utilisateurs très réticents ? Ou c’est homogène ?
Sébastien 00:22:13 – 00:23:59 : Alors, je pense que ça dépend vraiment des fonctions. Ça dépend vraiment aussi de la nature d’utilisateur. Parce qu’effectivement, on a des utilisateurs très engagés. On les voit, je pense, ceux qui sont le plus près de la matière. Par exemple, dans les équipes des directeurs comptables. Clairement, eux, ils étaient déjà… un peu plus familier, on va dire, à nos bases de données sous-jacentes avant. Donc, pour eux, c’est encore mieux. Mais je veux dire, ce n’est pas quelque chose de complètement lunaire. Sur d’autres métiers, bien sûr, il y a… J’avais entendu il n’y a pas longtemps, dans une plénière, quelqu’un qui me faisait la question, est-ce que ce n’est pas un peu gadget ? Parce qu’après, je comprends la personne. La personne… Elle est déjà travaillée en contre-digestion, donc un peu moins exposée peut-être à ce type de problématique. Même s’ils le sont, les contrôleurs ont tout intérêt à maîtriser beaucoup de sujets comptables, mais ils ont quand même une part de leur activité très largement investie sur d’autres sujets par rapport à des comptables purs. Ce qui fait que forcément, quand ils voient qu’ils arrivent à peine à s’en sortir avec l’ensemble des sujets qu’ils ont à traiter, entre les clôtures, les forecasts, les autres projets de transformation qu’ils ont eux-mêmes dans leur territoire, et qu’en plus on leur parle d’un nouvel outil, voilà. Ça, je dirais que ce n’est pas propre forcément au code chatbot en soi. Je pense que c’est propre à toute innovation qui sort un peu du cadre de leur activité day-to-day. En tout cas, telle qu’elle est actuellement. Pas forcément telle qu’elle devrait l’être, mais telle qu’elle l’est actuellement. OK.
Marc 00:24:01 – 00:24:05 : Il y avait un autre use case en finance que vous avez développé chez Schneider Electric.
Sébastien 00:24:05 – 00:24:53 : Oui, tout à fait. Effectivement, je vais rentrer un peu moins dans le détail puisque ce n’est pas moi qui ai géré ce use case. C’est un use case qui est en lien avec tout ce qui est la gestion du risque crédit. Parce qu’en fait, l’idée de chez UseCase, c’est de standardiser et de fiabiliser la notation du risque crédit pour chacun des clients. Donc ça va puiser dans différents types de données, par exemple l’historique de paiement, le taux de couverture des assurances, le risque payé. Ça va piocher dans toutes ces données et ça va aider à générer un score, un risque et un score lié au crédit.
Marc 00:24:55 – 00:25:00 : Donc à partir de quel input, sur quoi on prend la décision ?
Sébastien 00:25:00 – 00:25:11 : À partir de la donnée que je viens de donner, donc les historiques de paiement, etc. Et qui sont déjà en fait dans un outil maison qu’on avait déjà à la base pour la gestion du crédit.
Marc 00:25:11 – 00:25:13 : D’accord, les données sont déjà en interne.
Sébastien 00:25:13 – 00:25:18 : Exactement, c’est des données qui étaient déjà présentes, tout à fait, sur lesquelles on s’appuie.
Marc 00:25:19 – 00:25:23 : Ok. Et alors là, du coup, on est en prod ou on n’est pas encore en prod ?
Sébastien 00:25:23 – 00:26:28 : Là, on est en prod. Par contre, ce n’est pas de la generative AI. C’est du machine learning. Machine learning classique. Voilà, classique. En generative AI, il y a un case qui est en prod qui est sorti en 2024 aussi. Celui que je viens de donner, c’est un peu plus ancien. Le risque crédit, pardon, c’était un petit peu plus ancien. Le cas d’usage 2024, alors là, on est sur de la relecture, l’ingestion de contrat, je ne sais pas si on peut dire. Ou en fait, concrètement, c’est quoi ? C’est quand on avait des garanties bancaires, ça passait par une relecture… assez onéreuse des clauses et de voir est-ce que c’est favorable ou pas pour nous. Là, en fait, l’outil va digérer déjà en amont, faire une première lecture pour balayer toutes ces clauses et dire voilà, sur la base de ce que j’ai relu, Voilà mon indice de pertinence pour Schneider ou pas. Est-ce que c’est pertinent pour Schneider ? C’est ce qui est sorti récemment.
Marc 00:26:28 – 00:26:35 : Des règles de base où on sait que Schneider n’accepte jamais ce type de clause ou vient toujours négocier tel type de clause ?
Sébastien 00:26:35 – 00:26:38 : Par exemple. Et là, on est sur la Generative AI, par exemple.
Marc 00:26:39 – 00:26:55 : Et là, c’est un prompt engineering où on vient donner un certain nombre de consignes et on passe le contrat en une fois ? Ou c’est quelque chose de plus complexe, une pipeline plus complexe de plusieurs appels ?
Sébastien 00:26:55 – 00:27:02 : Ah là, j’avoue, je ne saurais te dire. Déjà que ce n’est pas mon sujet. Mais là, sur la technique, je ne saurais te dire.
Marc 00:27:02 – 00:27:18 : Ça marche. Je repense sur les notes que tu as envoyées. Il y avait écrit « Mes questions concerneront… ».
Sébastien 00:27:18 – 00:27:24 : Il y avait aussi, on voulait parler du prix qu’on a gagné, c’est ça ?
Marc 00:27:24 – 00:27:34 : Oui, effectivement, il y a ça. Il y a un endroit où tu as écrit « Mes questions concerneront… » Le problème initial et l’objectif, l’input et l’output.
Sébastien 00:27:37 – 00:27:44 : C’est pas toi qui avais mis ça ? Non, je crois que c’était toi. Pardon, ça, c’était ton mail, en fait. Tes questions, deux points. Là, j’ai repris toute ta liste.
Marc 00:27:44 – 00:27:47 : Oui, mais mes questions concernant…
Sébastien 00:27:47 – 00:27:51 : Ça venait de ton… Pardon, ça venait de ton mail initial. C’était pas moi.
Marc 00:27:51 – 00:28:07 : D’accord. Alors, attends. Juste pour voir quels sont les autres… Le Word, c’est que tu voulais parler de… Il y avait un truc…
Sébastien 00:28:07 – 00:28:26 : En fait, oui, je pense que c’était surtout la reconnaissance du marché par rapport à ce business case sur le chatbot. Je pensais pas mal d’en parler. Surtout que notre groupe CFO a fait un post LinkedIn dessus. C’est vraiment quelque chose qui a pas mal été sur les projecteurs. Je ne sais pas ce que tu en penses. Combien de temps il nous reste, d’ailleurs ?
Marc 00:28:26 – 00:28:34 : il y a un quart d’heure je pense c’est que je regarde les autres sujets.
Sébastien 00:28:34 – 00:29:29 : sur la partie business j’ai encore eu la confirmation de ma PR. je donnerai juste des noms mais je pourrais pas aller dans le détail. plus que ça je donnerai les noms et je dirai je vous rends j’aime les noms. j’ai un doute de ce que j’avais dit. écocare Sous-titrage ST’ 501.
Marc 00:29:29 – 00:29:41 : Je pense que je vais reprendre un projet en prod à partir de là. Et puis dérouler la suite. Je pense qu’il y en a pour un quart d’heure. Il y a le Word dedans.
Sébastien 00:29:41 – 00:29:44 : On y reviendra.
Marc 00:29:45 – 00:29:57 : Super. Est-ce que tu peux nous décrire des use case business en production d’intelligence artificielle chez Schneider Electric ?
Sébastien 00:29:57 – 00:30:29 : Alors, décrire, je ne sais pas, mais je peux te donner des noms. en tout cas, puisqu’effectivement, ce n’est pas moi qui les gère, donc je préfère que les gens qui sont intéressés aillent voir. Il y a un use case qui est en production qui s’appelle Microgrid Advisor, un autre qui s’appelle Ressources Advisor. Et un autre qui s’appelle EcoCare. Pour ceux que ça intéresse, c’est dispo dans nos comms. Vous pouvez faire des recherches même sur Google. C’est des solutions qu’on propose à nos clients.
Marc 00:30:29 – 00:30:40 : Est-ce que tu as des exemples de grands verrous, obstacles techniques qui auraient dû être surmontés pour faire ce que vous faites dans différents projets IA ?
Sébastien 00:30:40 – 00:31:43 : Des obstacles techniques ? Ah oui, des obstacles techniques. Alors, je pourrais parler de ceux effectivement que j’ai évoqués précédemment. Dans les obstacles techniques qu’on a eus, le premier, c’était la lecture du contenu des images. Ça, on a eu du mal parce qu’en fait… Typiquement, dans le manuel quantum group, parfois, tu as des arbres de décision qui sont sous forme d’images. Et moi, je voulais qu’ils lisent ce qu’il y avait dans les arbres de décision. Et on a eu des limites par rapport à ça. In fine, on a quand même trouvé une solution, c’était d’encoder ça manuellement. Heureusement, il n’y avait pas beaucoup d’images concernées, donc on a pu se débrouiller pour intégrer le contenu de ces images en texte. Oui, c’est ça, exactement, en texte. Et après, mécaniquement, quand la personne posait une question qui était relative à cet arbre de décision, elle avait la réponse via cette solution.
Marc 00:31:44 – 00:32:02 : Ok. Qu’est-ce que, en termes d’évangélisation, il y a besoin de beaucoup dire quand on travaille avec des projets diagénératifs et qu’on essaie de déployer ?
Sébastien 00:32:02 – 00:32:17 : Oui, ça rejoint un peu ce que je disais tout à l’heure. La première chose, c’est vraiment pour l’utilisateur. Ta question, c’est par rapport à l’utilisateur, c’est ça ? Qu’est-ce qu’un utilisateur doit…
Marc 00:32:17 – 00:32:21 : Ça peut être un utilisateur, un sponsor, différents interlocuteurs.
Sébastien 00:32:21 – 00:33:55 : Oui, c’est ça, mais qui sera amené à utiliser l’outil ? Ou le financer. Si je commence par l’utilisateur, ce que tu disais, c’est vraiment de prendre ce qui sort de l’outil comme une première piste et aller compléter après avec ce qu’on a, avec les liens, la documentation qui sort des liens qui sont donnés. c’est de ne pas hésiter aussi à mettre des feedbacks qui soient positifs ou négatifs. ça je sais que parfois il y a des gens qui sont pas forcément satisfaits du résultat mais qui vont pas le mentionner ce qui est dommage puisque là c’est vraiment comme ça qu’on améliore justement l’outil. Ça, c’est pour la partie utilisateur. Pour la partie plus gestion de projet, je pense qu’il a bien marché. C’était vraiment le travail collaboratif entre différentes fonctions. Et des fonctions quand même assez éloignées en termes d’historique, d’expérience. Puisque là, je travaillais avec des développeurs qui avaient vraiment un… Un historique très, très, très, très technique. Moi, je suis plus fonctionnel. Pareil pour le contrôle interne. Donc là, l’idée, c’était vraiment de travailler en équipe afin de développer un produit et tout en manageant les attentes de chaque organisation. Parce que chaque organisation va avoir des objectifs différents. Donc là, l’idée, c’était vraiment de de se synchroniser là-dessus. Et je trouve que ça a plutôt bien marché. On a vraiment une bonne dynamique là-dessus pour que chacun y retrouve son compte à la fin.
Marc 00:33:55 – 00:34:04 : Ok. Quel genre d’erreur tu peux nous partager pour qu’on ne les fasse pas et qu’on gagne du temps sur ce genre de projet ?
Sébastien 00:34:04 – 00:34:06 : D’erreur en termes de gestion de projet, c’est ça ?
Marc 00:34:06 – 00:34:08 : Ça peut être dans la gestion de projet ou en tant qu’utilisateur ?
Sébastien 00:34:08 – 00:35:53 : Ou en tant qu’utilisateur, ok. En tant qu’utilisateur, donc effectivement, l’erreur que j’avais mentionnée tout à l’heure, c’était… C’est pas grave si tu entends, il y a des redites. Enfin, c’est… Tu me diras, c’est… L’erreur que j’avais mentionnée tout à l’heure, c’est effectivement ne pas assez donner de contexte sur la question posée et ne pas formuler la question de manière assez claire et précise, trop télégraphier. Donc ça, c’est vraiment une erreur classique. De bien comprendre quel est le scope de l’outil côté utilisateur. Ça, c’est une erreur classique qu’on a vue. Sur la partie gestion de projet, en termes d’erreurs, qu’on n’a pas faites, mais ce n’était pas aussi évident que ça, c’est de trop vite se précipiter sur le GoLive. Vraiment, effectivement, il y a des objectifs, des organisations. Je pense que c’est vraiment un sujet qui est assez regardé. Le risque, c’est de trop vite se précipiter sur le go live. Là, volontairement, nous, on a quand même… On a vu au début qu’on était en face du AT et qu’on n’était pas encore prêts. Il n’y avait pas encore un truc de précision qui était assez élevé. Donc moi, j’avais quand même… Excuse-moi. j’avais poussé quand même pour qu’on continue à améliorer l’outil avant d’aller en go live. c’est pas joué à beaucoup c’est joué à 2-3 mois à l’écart entre les deux. mais je pense que c’était quand même ça valait le coup évidemment par rapport au taux de perception que tu vas avoir après en go live. suite à ça Ok.
Marc 00:35:53 – 00:36:06 : Pour toi, aller trop tôt au go-live, ça aurait pu casser un peu l’adoption définitivement, que les gens se disent « je ne vais pas redonner la chance au produit, il m’a déçu la première fois ».
Sébastien 00:36:06 – 00:36:33 : C’est un peu mon avis perso, qui n’est pas non plus à 100%. Alors c’est vrai que je comprends aussi quand on me dit oui, mais tu sais, on y va. Les gens savent que c’est une version bêta et que ça va s’améliorer, etc. On peut communiquer dessus. J’étais quand même plus confort à y aller avec un taux de précision qui était quand même satisfaisant, même s’il n’était pas parfait, mais il était satisfaisant par rapport à un taux de précision auparavant qui ne convenait pas. Oui, tout à fait.
Marc 00:36:35 – 00:36:38 : Est-ce que tu as une anecdote à nous partager ?
Sébastien 00:36:38 – 00:38:09 : Une anecdote, c’est peut-être comment j’ai été amené à travailler sur le sujet. Finalement, dans mon job actuel, je ne suis pas prédisposé à travailler sur des projets d’intelligence artificielle générative. On est au norme IFRS, ce n’est pas du tout le cœur de la fonction. Là, il se trouve que mon manager, en l’occurrence, avait déjà noté que j’avais une appétence au sujet technique, notamment l’intelligence artificielle, mais pas que. Et en parallèle, il y avait une ancienne manager, Emma N2, qui avait fait une formation sur l’intelligence artificielle générative et qui avait eu cette idée. La vision, ce n’est pas moi qui l’ai eue. Sur le sujet, c’était elle. Et voilà. Donc, c’était vraiment un concours de circonstances. En même temps, je lui ai dit, je peux dégager du temps, si tu veux, pour travailler là-dessus. Ça m’intéresse. Et c’est comme ça que, finalement, tout s’est engrainé. Et encore en six mois, parce que le lead time de développement, il était environ de six à huit mois, on est passé vraiment d’une idée à un go live sur un sujet qui était quand même très… Je trouve, je pense, à forte valeur ajoutée. Voilà. Donc, c’est… Finalement, même dans un job qui n’est pas du tout destiné à travailler sur ce type de sujet, et je ne sais pas si ça va en inspirer d’autres ou pas, on peut finalement être amené à travailler sur un sujet lié à l’intelligence artificielle générative.
Marc 00:38:09 – 00:38:11 : Ça touche beaucoup de secteurs.
Sébastien 00:38:11 – 00:38:11 : Exactement.
Marc 00:38:11 – 00:38:16 : Est-ce que tu as une opinion à nous partager ?
Sébastien 00:38:16 – 00:39:09 : Alors, peut-être un peu lié avec ce que je viens de dire, je remarque en fait que la veille technologique, pour moi, elle devrait être faite… Alors, elle l’est peut-être déjà, mais peut-être encore plus si on pouvait pousser un message… c’est que ça ne soit pas que les équipes techniques qui la fassent, mais aussi beaucoup les équipes fonctionnelles. Et moi, je le vois bien. J’en ai fait mécaniquement beaucoup récemment pour rester au fait des sujets. Et je me rends compte que c’est vraiment important puisque finalement, les équipes techniques ont une bonne connaissance technique. Mais c’est important que les équipes métiers aussi aient une bonne connaissance technique pour après avoir le capter. Parce que c’est eux qui comprennent les besoins fonctionnels aussi, in fine, les métiers. Donc, il puisse vraiment mieux faire le pont entre les besoins fonctionnels et la technologie qui peut satisfaire ce besoin fonctionnel.
Marc 00:39:10 – 00:39:26 : Ok. Alors, quel invité est-ce que… Attends, je vais poser une question que je n’ai pas mis dans le truc, mais quel autre projet IA sont dans les tuyaux chez Schneider Electric ?
Sébastien 00:39:26 – 00:39:51 : Les autres projets, il y a dans les tuyaux Schneider Electric. Si je te donne l’info, je vais avoir un coup de règle. Déjà, je ne les ai pas tous en tête puisque je ne suis pas dans le secret des dieux. Et ceux sur lesquels on communique, c’est ceux sur lesquels on est déjà en prod. Ceux sur lesquels on communique à l’extérieur.
Marc 00:39:51 – 00:39:57 : Ça marche. Voilà. Alors, quel invité est-ce que tu aimerais entendre au micro de Data Driven 101 dans un prochain épisode ?
Sébastien 00:39:57 – 00:40:16 : J’aimerais bien avoir quelqu’un, un fonctionnel, pareil, qui est beaucoup exposé à ces sujets-là. Alors, un fonctionnel, idéalement, de la fonction finance, qui est beaucoup exposé à ces sujets-là et qui a déjà deux, trois use cases en prod. Je trouve que ce serait intéressant d’avoir comme info.
Marc 00:40:16 – 00:40:19 : OK. Merci, Sébastien.
Sébastien 00:40:19 – 00:40:20 : Merci, Marc.
Marc 00:40:20 – 00:40:40 : Je vais faire l’outro. Vous venez d’entendre Sébastien Durand, process owner chez Schneider Electric. Dans le prochain épisode, je recevrai Sébastien Durand, process owner chez Schneider Electric pour nous parler d’applications d’IA générative dans un grand groupe du CAC 40. À très vite. J’ai vu process owner sur LinkedIn.
Sébastien 00:40:41 – 00:40:49 : Oui, d’accord. Il n’y a pas de souci. Et du coup, le ward… Non, ce n’est pas… Moi, je pensais que tu allais en parler sur l’anecdote.
Marc 00:40:49 – 00:40:49 : Tu le proposais sur un…
Sébastien 00:40:50 – 00:41:14 : Ah oui, j’avais dit où. En fait, finalement, j’ai mis ça. Comme tu veux. Est-ce que ça vaut le coup quand même de le mentionner, même si c’est très vite ? Ou on n’a plus le temps ? Très vite, on a le temps. Dis-moi, par rapport à ça, est-ce qu’il y a une question en particulier qui t’intéresse ? Je voudrais avoir la réponse par rapport à ce prix. Ou comment tu vas formuler ta question ?
Marc 00:41:14 – 00:41:29 : C’est un peu ça que je me demande. Sur l’anecdote, ça aurait été une façon de l’introduire. Je peux refaire sur l’anecdote. Tu peux dire un peu comme si tu répondais à l’anecdote en deux étapes. Et puis tu rajoutes juste… Sinon, il y a…
Sébastien 00:41:29 – 00:41:33 : Ah oui, il y a aussi peut-être une autre anecdote à laquelle j’avais pas pensé.
Marc 00:41:33 – 00:41:35 : Oui, une autre anecdote. C’est très bien.
Sébastien 00:41:35 – 00:42:38 : Je fais comme ça. C’est bon ? Ok. Et oui, et une autre anecdote à laquelle je pense aussi, qui vaut le coup d’être mentionnée quand même, c’est que ce projet, le Finance Assistant Chatbot qu’on a développé, on l’a présenté devant un jury inter-entreprise. C’est un concours qui s’appelle Future of Finance, les Digital Finance Awards. sur lesquels on avait un jury qui nous a évalué avec d’autres entreprises du CAC 40 dans la catégorie innovation. Et on a eu l’honneur de remporter le prix de cette catégorie, ce qui note quand même la reconnaissance du marché sur notre projet et ce qui a été véhiculé dans les réseaux sociaux par nos top management, que ce soit notre directrice financière groupe, le patron du AI Hub également, qui a communiqué sur les réseaux sociaux. Voilà, donc on est très fiers d’avoir eu cette reconnaissance du marché sur ce projet-là.
Marc 00:42:38 – 00:42:39 : Bravo pour l’award.
Sébastien 00:42:39 – 00:42:46 : Merci beaucoup. ça marche super.
Marc 00:42:46 – 00:43:00 : écoute merci Sébastien merci à toi. non non je vais dire je te raccompagne pas je te laisse. je dois préparer l’épisode d’après mais on se tiens juste sur pareil pour la suite.
Sébastien 00:43:00 – 00:43:10 : diffusion tout ça. diffusion. t’as une idée à très 11 quel mois ou 3 semaines? 3 semaines ok pas ce lundi pas ce suivant mais celui d’après ok sauf si on n’a pas le temps de monter pour lundi donc.