la place de L'art dans l'ia

Jonas Botbol, cofondateur et CTO de YourArt, est l’invité de l’épisode 66 de Data Driven 101.

Comment l’intelligence artificielle peut aider les artistes dans leur processus créatif ?

Est-ce que l’IA peut aider à découvrir des œuvres qui nous plaisent ?

Comment caractériser les goûts artistiques et le style de chacun ?

 

Art et intelligence artificielle YourArt Jonas Botbol

Marc  00:00:00 – 00:00:28 : Bonjour et bienvenue sur Data Driven 101, le podcast qui s’intéresse aux applications concrètes et variées de l’intelligence artificielle et de la data. Je suis Marc Saint-Selm, fondateur de Scopeo, une agence d’intelligence artificielle qui accompagne toutes les entreprises à tirer le meilleur de cette technologie. Dans notre podcast Data Driven 101, je reçois chaque semaine des professionnels pour qu’ils nous partagent leurs expériences et leurs visions sans filtre. Aujourd’hui, je reçois Jonas Botbol, CTO co-founder de YourArt. YourArt est une startup dont l’ambition est de démocratiser l’accès à l’art. Bonjour Jonas. 

 

Jonas 00:00:28 – 00:00:30 : Bonjour Marc, merci de ton invitation. 

 

Marc  00:00:30 – 00:00:34 : Avec grand plaisir. Alors, est-ce que tu peux nous parler un petit peu plus de Your Art ? 

Jonas 00:00:34 – 00:03:47 : Oui. Donc, comme tu l’as dit, l’ambition, c’est de démocratiser l’accès à l’art. C’est une plateforme qui est art et tech, sans sélection, sans jugement. Et donc, l’idée, c’est de s’adresser à tout le monde. Donc, tous ceux qui ont un lien avec le monde de l’art, soit parce qu’ils sont professionnels, soit que ce sont des artistes amateurs, ou alors ce sont des gens qui sont simplement curieux, qui n’ont pas forcément besoin de s’y connaître spécialement en art. Aux artistes, on va leur proposer une boîte à outils. On va leur proposer évidemment tout ce qui est fonctionnalités type Marketplace. Par exemple, on va leur permettre de construire leur espace, dans lequel ils peuvent parler d’eux, mettre des vidéos, ils parlent de leur travail. Et évidemment, le principal, c’est mettre des œuvres. Ces œuvres, ils peuvent les exposer, les vendre, ils peuvent aussi simplement les sauvegarder sur notre plateforme. On a aussi du cloud. Donc ça, c’est la fonctionnalité, disons, marketplace, la partie marketplace. Après, il y aura, c’est beaucoup plus général pour les artistes, vu que c’est aussi un réseau social. Donc en fait, on va leur permettre simplement de discuter entre eux. donc on a une messagerie. on a aussi comme je disais c’est une plateforme qui est ouverte et aux artistes amateurs et aux artistes professionnels. donc on a une fonctionnalité de conseil d’artiste à artiste. par exemple je suis artiste amateur je suis en train de faire une œuvre j’ai des questions qui peuvent être techniques ou sur le style ou peu importe. et bien je peux poster des questionnaires un questionnaire associé à mon œuvre pour avoir des retours d’autres artistes soit d’autres artistes amateurs soit d’artistes professionnels. donc c’est une fonctionnalité qui est uniquement pour les artistes. pour le coup La messagerie est plus générale, c’est demain moi je suis un amateur d’art, je vois une œuvre sur le site, je peux envoyer un message à l’artiste pour en savoir un petit peu plus. On a permis aussi aux artistes de se créer des galeries virtuelles. Donc en fait on a designé pas mal de templates de galeries virtuelles dans lesquelles après l’artiste va exposer ses œuvres et ce qui permet aux amateurs d’art d’explorer de façon un petit peu ludique les œuvres de l’artiste. Et enfin, et ça c’est un élément sur lequel on travaille pas mal ces derniers temps, On va utiliser de l’IA pour aider les artistes dans leur processus créatif. Donc, on va analyser leurs œuvres, on va faire des analyses très techniques de leurs œuvres. Donc, c’est une fonctionnalité qu’on leur offre. Et l’IA va, par exemple, analyser la composition, la lumière, les lignes, etc. des œuvres de l’artiste pour lui faire des feedbacks et lui proposer des références des artistes de l’histoire de l’art, potentiellement des écrivains, des livres, des films, etc. qui… sur lesquelles l’artiste pourrait s’appuyer pour avoir encore plus d’inspiration ou explorer tel ou tel élément technique. Et puis on va aussi carrément l’aider à avoir des idées en générant des images à partir de son travail. Donc on va lui proposer des esquisses à l’artiste. L’idée, c’est qu’il trouve un petit peu une source d’inspiration là-dedans pour ses futurs travaux. Tout ça, c’est le focus artiste. Évidemment, de l’autre côté, on va avoir pour les amateurs d’art, pour les gens qui ne sont pas forcément artistes, mais qui simplement s’intéressent aux œuvres et potentiellement veulent en acheter, on va les aider à trouver la bonne œuvre en utilisant aussi de l’IA. Donc là, c’est là qu’on va avoir la recommandation. On a des fonctionnalités à base de bot pour discuter avec les utilisateurs, pour savoir ce qui pourrait les intéresser, etc. Voilà, pas mal de choses là-dedans. 

 

Marc  00:03:47 – 00:03:58 : Il y a plein de choses intéressantes à creuser là-dessus juste après. Mais la première question qui me vient, c’est du coup, qu’est-ce que vous vendez ? Vous êtes une entreprise, qu’est-ce que vous vendez ? 

 

Jonas 00:03:58 – 00:04:12 : En pratique, ce qu’on va permettre aux artistes, ce qu’on leur vend, c’est cette exposition qu’ils vont avoir sur notre site, sur notre plateforme, de la possibilité de progresser. C’est ce que je disais, soit grâce à l’aspect réseau social. 

 

Marc  00:04:12 – 00:04:15 : C’est l’accès au logiciel que vous vendez, c’est un abonnement ? 

 

Jonas 00:04:15 – 00:04:38 : Oui, absolument. En pratique, c’est un abonnement. On a des abonnements gratuits avec des fonctionnalités basiques, mais si on veut vraiment profiter du site, on a un abonnement pour les artistes qui démarre à 10 euros. Et puis, si on veut utiliser l’IA, on va avoir un abonnement premium qui est à 15 euros. Et puis, lorsqu’il y a vente d’une œuvre, il y a une commission qui est faible, c’est le 10% qui est prélevé par YourArt. 

 

Marc  00:04:38 – 00:04:46 : D’accord. Donc le consommateur d’art, lui, il ne paye pas d’abonnement ou quoi que ce soit, mais quand il achète, potentiellement, il y a une commission. 

 

Jonas 00:04:46 – 00:04:49 : Il y a une commission qui est déjà comprise dans le prix qui est affiché en l’occurrence. 

 

Marc  00:04:49 – 00:04:59 : Ok, très clair. Avant de rentrer peut-être dans le détail des cas d’usage dont on a parlé, comment ça a démarré cette aventure ? Quel a été le constat sur le besoin ? 

 

Jonas 00:04:59 – 00:06:56 : Le constat initial, c’est qu’il manquait un espace d’expression satisfaisant pour les artistes amateurs. Donc on a surtout pensé aux artistes amateurs lorsqu’on a démarré le site, parce que c’est ceux qui ont le plus besoin d’avoir cet espace-là. Ils ont envie évidemment d’exposer, mais ils ont aussi envie de progresser et ils ont aussi envie de sortir potentiellement de l’isolement parfois. Des gens qui ont des pratiques artistiques peut-être dans leur coin et qui gagneraient à discuter un petit peu avec d’autres artistes. Donc ça, c’est le constat de base. L’idée, elle date d’une quinzaine d’années, donc elle vient de Maurice Lévy, qui est cofondateur de YourArt. Et donc, c’est une idée qui date d’une quinzaine d’années, et sur laquelle il a demandé à Stéphane Lévy, son fils, et qui est VP Product chez YourArt, et moi-même, de travailler il y a quelques années. On a un petit peu itéré sur le concept, et puis on a décidé de lancer la boîte. il y a deux ans, et c’est là d’ailleurs que Laurence Bonical-Zibridier, qui est la CEO, nous a rejoint pour fonder formellement la boîte et la démarrer vraiment après qu’on avait fait une espèce de petit prototype qui était satisfaisant. Donc au départ, on avait un focus très marketplace, réseau social, IA plus pour l’exploration. Donc c’est comme ça qu’on a commencé le site. L’aspect IA pour l’utiliser pour aider les artistes à créer, il est venu plus tardivement dans le site. Il est venu il y a quelques mois. Néanmoins, ce qui est intéressant, c’est que quand on discutait un petit peu de ce site avec Stéphane et Maurice à l’époque, avant de le commencer, on a un petit peu hésité sur la manière de lancer le site. Est-ce qu’on démarrait par l’aspect marketplace ou l’aspect justement IA ? À l’époque, on était très intéressés déjà par l’IA, on en faisait pas mal à Weborama. Et du coup… On explorait des pistes aussi de génération à l’époque avec les StyleGAN. Et puis, on a décidé de commencer le site avec des fonctionnalités plus classiques, type Marketplace, parce qu’on savait que ça allait parler à tout le monde plus rapidement. Pour après, petit à petit, augmenter avec de l’IA et puis finalement revenir à ce dont on parlait de la génération, l’IA pour la création, etc. 

 

Marc  00:06:56 – 00:07:08 : Ok. Pour ce qui est de la recommandation, en premier temps, est-ce que tu peux nous décrire un peu le mécanisme, la pipeline ? Comment est-ce que vous proposez des œuvres d’art aux utilisateurs ? 

 

Jonas 00:07:08 – 00:08:05 : En fait, on a pas mal de fonctionnalités pour recommander des œuvres. La première par laquelle on a commencé, elle s’appelle Art Persona. L’idée générale, évidemment, pour faire ce genre de choses, on a besoin d’avoir de la donnée qui vient de l’utilisateur, savoir c’est quoi ses centres d’intérêt, qu’il veuille bien nous renseigner sur ses centres d’intérêt. Et puis, on a besoin d’avoir un mécanisme intelligent pour pouvoir, à partir de cela, extraire quelles vont être les œuvres qui pourraient l’intéresser. pour après finalement les lui présenter. Donc en fait, ce qu’on a fait dans cette première fonctionnalité qui est Art Persona, on a proposé un test de personnalité artistique aux visiteurs de Your Art. Donc c’est quelque chose qu’on peut toujours faire maintenant évidemment. Donc, le test, ça va être poser des questions à l’utilisateur, lui montrer des œuvres de l’histoire de l’art, lui demander qu’est-ce que tu préfères entre telle œuvre et telle œuvre, faire ça quelques fois, lui demander c’est qui son artiste préféré, des questions un petit peu générales sur ses goûts. Et à la fin, et c’est là où ça intéresse aussi pas mal l’utilisateur, c’est que ça te donne un petit peu une espèce de description de ta personnalité artistique. 

 

Marc  00:08:07 – 00:08:14 : Vous avez designé un questionnaire, un formulaire qui permet de construire une sorte de profil artistique, profil de goût. 

 

Jonas 00:08:14 – 00:09:59 : Et pour le coup, ce n’est pas un truc type QCM où tu as 20 personnalités artistiques possibles. Non, c’est quelque chose en mode LLM où évidemment tu vas avoir des choses qui sont personnalisées pour chaque utilisateur en fonction des réponses aux questions. On est dans l’univers non structuré, on n’est pas en mode QCM et tu as des cases à cocher. Oui. Donc on a ça, et puis à partir de cette personnalité artistique, l’idée ça va être de lui proposer des œuvres du site qui pourraient matcher cette personnalité artistique. C’est là où je disais que typiquement on va utiliser des LLM pour pouvoir, ne serait-ce que déjà inférer la personnalité artistique du utilisateur, et aussi faire le lien, dire « Ok, il y a telle personnalité, donc ça veut dire qu’il y a tel type d’œuvre, il y a telle requête sémantique qui pourrait l’intéresser, qu’on pourrait faire sur le site pour trouver des œuvres. ». Voilà, donc ça c’est la fonctionnalité qui s’appelle « Art Persona ». On en a fait deux autres. Il y en a une qui est en mode bot qui s’appelle Art Fine & Buy. Là, ça va être plus direct. C’est-à-dire que ce n’est pas en mode personnalité artistique. Simplement, le bot, il vient, il te pose des questions. Il te pose des questions très pratiques du style, c’est quoi les dimensions de l’œuvre que tu recherches ? Est-ce que c’est pour un cadeau ? Est-ce que tu aimes ? Alors, tu as aussi des questions un peu plus générales Je ne sais pas, qu’est-ce que t’aimes dans la vie ? C’est quoi les films que t’aimes ? Est-ce que t’aimes voyager ? Mais on va mêler ça avec des éléments qui vont être plus structurés, du style le prix, les dimensions, des choses comme ça, pour après faire un mix de tout ça et trouver les œuvres qui vont plaire à l’utilisateur. Donc là, pour le coup, c’est plus direct. Et puis, une troisième fonctionnalité, où là, pour le coup, elle n’est pas en mode LLM, là, c’est vraiment ce qui s’appelle Art Match. Ça va être… on te propose des œuvres du site et tu dis t’aimes ou t’aimes pas. À partir de ça, on construit une espèce de représentation de l’utilisateur. 

 

Marc  00:09:59 – 00:10:03 : Basé sur des problèmes plus classiques, collaborative filtering ? 

 

Jonas 00:10:03 – 00:10:22 : Alors pour celui-là, en l’occurrence, non. Pour celui-là, ça va être vraiment embêter les œuvres, trouver les œuvres plus proches. Mais du coup, ce n’est pas du collaborative filtering parce qu’on se base que sur ce qu’il a ou pas aimé pour trouver des œuvres du même style, mais sans forcément dire, oui, il y a tel utilisateur qui a aimé ça, il y a tel autre qui a aimé ça, il a aussi aimé ça, donc toi aussi, non. Là, on n’est pas là-dedans. 

 

Marc  00:10:22 – 00:10:36 : Comment vous embedez des œuvres? dans la mesure où ce que vous voulez, c’est faire ressortir les goûts ? Les embeddings d’images, classiquement, vont pas mal se baser sur la description, sur qu’est-ce qui se passe dans l’image. Comment est-ce que vous avez choisi d’embedder vos œuvres ? 

 

Jonas 00:10:36 – 00:12:08 : Alors, les embeddings modernes, basés sur, par exemple, du clip, ou là, plus récemment, on a du C-clip qui est aussi basé sur la même idée. ça va être des embeddings qui marchent déjà de base assez bien, et qui ont une bonne compréhension de l’image. Après, on a fait beaucoup de tests, utiliser l’image, à quel point tu veux utiliser aussi le texte de la description, parce que tu n’as pas que l’image dans une œuvre d’art, à quel point tu veux utiliser le texte de la description, les metadata que tu peux intégrer aussi, que tu peux aussi embedder. Là, pour le coup, on a fait pas mal de tests pour arriver à des choses qui sont satisfaisantes, sans forcément avoir besoin, pour ça en tout cas, de faire un entraînement spécifique en lui disant alors attends là il faut que tu sois par exemple réentraîné l’embaideur pour que qu’il fonctionne mieux sur de l’art ça c’est quelque chose dont on n’a pas spécialement eu besoin le moment où on a fait un entraînement spécifique. c’est plus pour une autre fonctionnalité. enfin sur les images j’entends C’est une autre fonctionnalité qui, pour le coup, est là aussi depuis le début du site. C’est, en fait, quand tu vas visiter la page d’une œuvre d’art, on va te la contextualiser dans l’histoire de l’art. On va te dire, voilà, telle œuvre, qui a été faite par un artiste contemporain, sache qu’elle a un lien avec telle œuvre de l’histoire de l’art, tel artiste de l’histoire de l’art, tel mouvement de l’histoire de l’art, alors que ça a été fait consciemment par l’artiste qui l’a fait ou non. Et ça, c’est basé sur la classification, où là, pour le coup, effectivement, on prend des modèles préentraînés, mais qu’on va fine-tuner sur des données de l’histoire de l’art pour pouvoir vraiment avoir quelque chose qui va être mieux entraîné pour ce genre d’image. Voilà, en fait, tout dépend des applications. 

 

Marc  00:12:08 – 00:12:14 : C’est l’IA qui génère l’interprétation de la position de l’œuvre dans l’histoire de l’art ? 

 

Jonas 00:12:14 – 00:12:51 : Oui, exactement. Ça va être l’IA. Ça va être l’IA qui va te dire c’est quoi le mouvement, quels sont les artistes de l’histoire de l’art qui ont un lien avec ton œuvre. Et ça, pour le coup, c’est fait via de la classification. Donc c’est une espèce de gros modèle qu’on a entraîné sur des centaines et des centaines de labels, de mouvements, d’artistes, etc. D’ailleurs, on l’a fait avant même, donc je te dis, c’est vraiment un truc qui est assez ancien, on l’a fait avant même de démarrer la boîte. Ça, c’était un des premiers éléments sur lesquels on a travaillé quand on prototypait. Donc à l’époque, on n’avait pas facilement des trucs type, tu vois, par exemple aujourd’hui, GPT-4, tu lui mets une image, il te sort une description, etc. Non, là, c’était vraiment un mode classification un peu pur et dur à l’ancienne. 

 

Marc  00:12:52 – 00:13:00 : Oui. OK. Alors vous avez plein de sources de potentielles recommandations différentes. Comment est-ce qu’on agrège tout ça en pratique ? 

 

Jonas 00:13:00 – 00:14:01 : Alors ça, c’est un sujet sur lequel on est en train de travailler en ce moment. C’est-à-dire qu’actuellement, pour que tu aies des œuvres qui te soient recommandées spécifiquement pour toi, il faut que tu ailles sur ces fameuses fonctionnalités dont je te parlais avant, ces bots qui vont être avec toi et qui vont te proposer des œuvres. Mais après, cette information-là, elle n’est pas encore utilisée de façon totalement industrialisée, si tu veux, dans nos pipelines, pour que tu aies toujours des œuvres qui pourraient t’intéresser. Mais là, par contre, on travaille en ce moment sur un système de roco, vraiment type système de roco, qui n’est pas basé sur des bots, par exemple, mais où on va plus agréger des informations du style visite d’une œuvre… aimer ou pas une œuvre, etc., pour construire des représentations d’utilisateurs, pour après pouvoir proposer des œuvres. Et ça, pour le coup, il y a pas mal de manières de faire. Effectivement, il y a ce que tu évoquais au début, le collaborative filtering, où là, pour le coup, tu n’as même pas besoin de comprendre ce qu’il y a dans l’œuvre. Tu regardes juste des co-occurrences de visites, de likes, etc. 

 

Marc  00:14:01 – 00:14:35 : Je précise, il s’agit de relier le fait que certaines œuvres ont été visitées par les utilisateurs, certains utilisateurs ont visité plusieurs œuvres, et donc construire un peu des liens entre les œuvres et entre les utilisateurs sur des profils de goût. Essayer de créer dans un espace à quelques dizaines de dimensions, donner un peu une description du goût de l’utilisateur ou du style d’une œuvre avec le cas classique des films Netflix où les utilisateurs regardent des films Netflix. Il y a beaucoup de films avec des genres différents. 

 

Jonas 00:14:36 – 00:15:31 : On a beaucoup regardé la littérature. On a regardé Netflix, entre autres. On a regardé YouTube aussi. Il y a un papier pas mal de Covington là-dessus sur le système qui s’appelle le Tutor. C’est un système qui se fait en deux parties. Au départ, tu vas d’abord avoir une espèce de… ça c’est surtout pour YouTube où ils ont énormément de vidéos. donc ils vont d’abord faire un modèle entre guillemets plus basique pour d’abord t’extraire le top N des vidéos qui pourraient intéresser l’utilisateur et après avoir un modèle plus avancé mais qui est plus lent et qui pourrait pas skyler justement que sur cela. On s’est inspiré un petit peu de ça, entre autres. Après, en fait, pour le système de recours, l’idée, c’est un peu d’utiliser pas mal de sources. C’est-à-dire, tu veux utiliser du collaborative filtering, donc là où tu ne regardes même pas ce qu’il y a dans l’œuvre, mais tu regardes, comme on disait, que les co-occurrences de visite. Celui qui a aimé ça, il a aussi aimé ça. 

 

Marc  00:15:31 – 00:15:31 : Voilà. 

 

Jonas 00:15:32 – 00:17:09 : Après, comme on disait, il y a aussi tout ce qui est basé sur le contenu, c’est-à-dire les œuvres que tu as réellement toi visitées, quelles sont les œuvres qui sont du même style. Après, même dans la manière de faire du collaborative filtering, tu peux le faire en mode soit avec du deep learning, apprendre des embeddings, des œuvres à partir de ces co-occurrences, mais tu peux aussi le faire de façon plus directe avec des matrices de co-visite par exemple. Donc si tu prends des matrices item-item, où tu regardes à chaque fois quelle est la co-occurrence entre le fait d’avoir vu telle oeuvre et le fait d’avoir vu telle oeuvre donc en fait ça te fait des espèces un peu comme des matrices de transition dans les chaînes de Markov. si jamais tu renormalises et ça te permet de savoir par exemple tel utilisateur il a vu telle oeuvre ça veut dire que comme on voit que sa co-occurrence avec telle et telle oeuvre elle est élevée voire des fois tu peux aller un peu plus loin et c’est pour ça que je te parlais de matrices de transition. c’est que quand tu vas la remultiplier par elle-même Tu vois, c’est un peu comme dans la dessine de Markov où tu vas d’un premier élément à un deuxième via ta matrice de transition. Après, tu peux aller de lui vers un nouvel élément, puis vers un autre, etc. Tu peux avoir des clusters. Oui, du coup, grâce à ça, en fait, tu peux pas seulement te proposer telle œuvre parce qu’on a vu une co-occurrence substantielle avec une autre œuvre, mais même aller dire, oui, alors il y a telle œuvre qui a un lien avec celle-là, mais celle-là a aussi un lien avec celle-là. Et celle-là, elle a aussi un lien avec celle-là, donc finalement, ça peut avoir le coup de te proposer celle-là. Tu peux avoir des trucs qui sont un peu plus, entre guillemets, moins deep learning et plus intuitifs, on va dire. Il y a pas mal de manières de faire. Tu as aussi la matrix factorization. Pas mal d’éléments. 

 

Marc  00:17:09 – 00:17:20 : L’IA générative, elle a changé. quoi pour vous ? Il y a pas mal de choses avec une IA très traditionnelle, il y a quand même des LLM là-dedans. Qu’est-ce que tu dirais que ça a changé pour ce problème-là ? 

 

Jonas 00:17:20 – 00:17:39 : Alors, pour le dernier élément dont je parlais, pas spécialement, parce que ce type de système de recours n’a pas vraiment besoin des LLM pour fonctionner. Par contre, là où ça a changé pour nous… C’est plus sur les fonctionnalités dont je parlais avant, qui sont plus basées sur des bots, où ce qui est intéressant, c’est que tu peux avoir l’aspect interactif. 

 

Marc  00:17:40 – 00:17:41 : Interaction à une meilleure qualité. 

 

Jonas 00:17:41 – 00:18:14 : Exactement. Et puis, tu peux profiter un petit peu de la connaissance du monde général des LLM. Si tu prends des LLM avancés, ils ont une connaissance de l’art, ils ont une connaissance d’œuvres classiques, d’artistes classiques. Ils peuvent faire des ponts, comme je disais avant, avec des films, avec des livres, etc. Donc, on va profiter de sa connaissance aussi du monde. Donc, ça, c’est deux exemples d’usage de l’IA génératif. Après, oui, en soi, on n’en a pas. On peut très bien faire un système de recours sans ça. Il y en a depuis longtemps qui marchaient sans ça. Mais voilà, c’est un vrai… Ça permet d’avoir d’autres manières de faire les choses. 

 

Marc  00:18:15 – 00:18:19 : Alors, comment est-ce que vous qualifiez cet algo maintenant ? 

 

Jonas 00:18:19 – 00:18:21 : Alors, on en a plusieurs. 

 

Marc  00:18:21 – 00:18:22 : Ces algos. 

 

Jonas 00:18:22 – 00:18:24 : Quand tu dis… 

 

Marc  00:18:24 – 00:18:33 : La qualité de la recommandation algorithmique. Comment vous l’évaluez ? Comment est-ce que vous vous assurez que votre algo en production est bien et qu’un nouvel algo est mieux que l’ancien ? 

 

Jonas 00:18:33 – 00:20:13 : Alors ça, c’est une bonne question. En fait, déjà dans le design des modèles, donc si je reviens sur les fonctionnalités type Art Persona ou Art Find & Buy, déjà dès le départ, on fait attention d’avoir quelque chose qui est très pertinent, donc on va beaucoup travailler, en fait on travaille avec des gens qui sont experts dans l’art, pour déjà, dès le départ, avoir quelque chose qui est pertinent. On va bien travailler sur tout ce qui est, par exemple, pour des LLM, le prompting, sur les différentes étapes, la structuration, on va dire, post-usage du LLM, pour avoir quelque chose de pertinent. Et puis également, on va demander aux utilisateurs de faire du feedback. Donc là, pour l’instant, on est sur une approche qui est beaucoup plus à la mano que sur une approche où on a totalement industrialisé une chaîne où où on a 300 promptes qui sont là et on fait de la beta testing. Non, on n’est pas là-dedans, par exemple. D’ailleurs, ce n’est pas si évident, parce qu’autant sur les systèmes de recours, comme je parlais avant, collaborative filtering, ou de façon générale, quand tu as des systèmes de recours qui sont déjà eux-mêmes entraînés sur le fait d’avoir… ou non eu une interaction avec l’élément que tu recommandes, quand c’est entraîné là-dessus, bon, on va dire que c’est un peu plus direct quand tu veux optimiser la chose et quand tu veux voir les performances. Là, ça va être un peu plus compliqué, tu vois, pour optimiser quelque chose comme ça quand on est sur les fonctionnalités. C’est un peu plus difficile. Ça se fait, mais disons pour l’instant, on en est encore à un stade sur ça, où on est sur une approche qui est plus manuelle, feedback utilisateur. Et puis potentiellement, évidemment, on pourrait un petit peu, entre guillemets, industrialiser, mathématiser la manière de faire le suivi des résultats, mais c’est quelque chose qu’on va probablement faire bientôt, mais pas encore. 

 

Marc  00:20:14 – 00:20:32 : Alors sur le deuxième sujet, la génération d’IA, l’aide à l’écriture pour l’artiste, l’aide à la création, est-ce que tu peux nous présenter un peu plus en détail votre approche de ce côté-là et éventuellement les sous-problèmes que vous avez résolus techniquement ? 

 

Jonas 00:20:32 – 00:21:32 : Oui, alors là, l’objectif, c’est moi, je suis artiste, amateur ou pas, j’ai des œuvres et puis je veux avoir une analyse de ces œuvres, une analyse technique. Le but, c’est vraiment, un, aider l’artiste à progresser et deux, lui trouver des pistes d’inspiration. En fait, moi, je suis artiste et j’ai envie de savoir un petit peu ce que l’IA va dire de mes œuvres, pour m’aider pour la suite, m’aider à trouver des pistes d’inspiration. Donc là, pour le coup, on est basé sur LLM aussi, sur des LLM. En fait, on va nourrir le LLM avec des images des œuvres et des métadonnées sur les œuvres pour lui demander déjà de générer des séries. En fait, regrouper les œuvres par style proche, disons. Et puis, là, pour le coup, on va avoir un LLM qui va nous sortir des réponses en mode très structuré. Pour le coup, ce n’est pas une réponse, on va dire, brute, mais ça va être une réponse très structurée sur des points sur lesquels le LLM a été briefé. et qu’on va dans l’LLM pour récupérer les informations structurées, tu fais des trucs du style function calling, etc. 

 

Marc  00:21:33 – 00:21:35 : Alors quelles questions vous posez au LLM ? 

 

Jonas 00:21:35 – 00:22:09 : Typiquement, ça va être analyse les lignes et les formes, analyse le jeu de lumière, etc. Et puis, pour chaque élément qu’il va analyser, ça va être donne-nous des livres ou des films ou des artistes qui pourraient être une source d’inspiration pour l’artiste tout simplement. Et après, à partir de ça, on va lui mettre plein de liens à l’artiste qui redirige vers les œuvres de tel artiste de l’histoire de l’art ou les films de telle personne, etc. On va lui justifier, on va lui dire « voilà, pour l’usage de telle technique, je te conseille d’aller regarder un tel, etc. 

 

Marc  00:22:09 – 00:22:10 : ». 

 

Jonas 00:22:10 – 00:23:55 : Et puis une finée, comme je disais, tu vas avoir cet aspect génération d’images. Là, ça va vraiment être, on veut vraiment lui montrer des images. Alors en fait, on a deux manières de faire. On en a une qui est basée sur des variantes. Donc en fait, ça va être, je prends les œuvres de l’artiste, je vais générer des variantes. Donc là, on voit directement le style de l’artiste. La deuxième sorte, ça va être un truc un peu moins direct. ça va être plus, on va demander au LLM de faire preuve de plus de créativité sur des espèces de pistes artistiques que pourrait avoir l’artiste au regard de ce qu’il a déjà produit pour après générer des nouvelles images qui elles pour le coup peuvent un peu plus s’éloigner de ce que l’artiste a fait. et ça pour le coup d’ailleurs. c’est un challenge sur lequel on est en train de travailler pour faire en sorte de trouver le bon équilibre entre générer des choses qui ont un lien avec le style de l’artiste mais en même temps quand même faire preuve d’un minimum de créativité parce que le but c’est de donner des pistes d’inspiration aux artistes. et donc cette fonctionnalité elle date de juin 2024 donc c’est assez récent mais ça a donné lieu à pas mal d’enthousiasme pour le coup de la part des artistes. On a chez Urart, la plateforme, c’est vrai que je ne l’ai pas dit, mais la plateforme, elle a été lancée il y a un peu plus d’un an. Et donc là, actuellement, on en est à 3300 artistes qui sont sur le site et des inscrits, on en a entre 11 et 12 000 déjà sur le site, donc inscrits qui ne sont pas forcément des artistes. Et du coup, sur les 3000 et quelques artistes qu’on a, On en a, dès le premier jour, on a eu 600 tests de cette fonctionnalité qu’on appelle assistant à la création. Donc c’est un truc qui a généré pas mal d’enthousiasme et qui était pas mal positif. Donc il y a un minimum de curiosité, mais il y a souvent aussi un réel intérêt. Oui, effectivement, ça va m’aider dans ma démarche artistique. 

 

Marc  00:23:56 – 00:24:09 : Est-ce que tu peux nous partager dans ces feedbacks les choses les plus surprenantes, à la fois en positif et en négatif ? Qu’est-ce qui a pu revenir que vous n’aviez pas forcément anticipé en designant le produit initialement ? 

 

Jonas 00:24:09 – 00:26:59 : C’est vrai qu’on a eu des choses auxquelles on ne s’attendait pas spécialement. En fait, souvent, l’aspect variante, quand on génère des variantes d’une image, les gens trouvaient de l’inspiration. Dans les esquisses aussi, il y a un côté plus risqué. C’est-à-dire que des fois, tu vas voir quelque chose où l’artiste va dire « Effectivement, ça ne ressemble pas exactement à ce que je faisais, mais vraiment, c’est une piste qui m’intéresse beaucoup. ». Donc ça, on en a eu pas mal et il y a des gens qui nous ont, pour le coup, pas mal remercié. Tout cela, parfois dans les esquisses, tu vas avoir une compréhension par la machine qui va être parfois trop superficielle. Donc en fait, tu as un petit peu les deux. Des fois, tu vas avoir une compréhension trop superficielle, donc elle va un peu se planter. Ça arrive aussi. Bon, c’est minoritaire heureusement, mais du coup… C’est un peu risqué, mais ça vaut le coup, si tu veux. En retour, un petit peu marrant qu’on a eu, en fait, l’IA qui fait ça, on l’a appelé Iris. En fait, toute la partie IA sur le site, en quelque sorte, s’appelle Iris. Tout l’agent conversationnel, on va dire, s’appelle Iris. Que ce soit quand tu essayes de trouver une œuvre ou quand tu utilises cet assistant à la création. Du coup, on a aussi eu des retours de personnes qui pensaient que c’était un humain qui parlait, par exemple. Et qui ont dit, par exemple, quand il y a eu le retour, on a un artiste qui a dit, attends, là, je ne suis pas dispo, mais je reviens bientôt, on va en reparler. C’était plutôt marrant. En fait, ça illustre aussi le fait qu’il n’y a pas forcément tout le monde qui est hyper… Je ne vais pas dire au courant, parce qu’aujourd’hui, l’IA a quand même fait beaucoup de chemin, mais ça veut dire que le réflexe de se dire que c’est une IA générative qui a généré le truc, il n’est pas ultra évident. Là, chez nous, ça se voit quand même assez rapidement. Ça reste que la vitesse à laquelle les réponses sont générées. Mais voilà, ça veut dire qu’il y a encore des gens pour qui ce n’est pas forcément évident. On a eu pas mal de feedback et c’est bien parce que ça nous a aidé aussi à affiner. Par exemple, un des trucs qu’on a vu, c’est qu’en fonction du style des oeuvres et bien en fait ça vaut le coup ou non de générer des images des variantes ou alors de générer des esquisses un peu plus éloignées parce que selon le côté abstrait de l’oeuvre etc. tu vas avoir des choses qui vont plus ou moins bien marcher. tu vois Après, tu peux peut-être un peu mieux diriger ton IA génératif pour que ça fonctionne mieux en fonction des styles. Et là, ce que je disais avant, c’est que ce sur quoi on travaille beaucoup, c’est faire en sorte que même les esquisses qui sont générées par l’IA matchent un maximum le style de l’artiste. En fait, en mêlant des éléments d’IA génératif un peu classiques à des éléments type transfert de style, par exemple, des choses comme ça. On va retravailler les retours initials des images pour les matcher au maximum avec le style d’artiste. 

 

Marc  00:26:59 – 00:28:06 : C’est marrant, on se faisait une réflexion avec Stan Pollu de chez Dust dans un épisode précédent sur l’aspect créatif de l’IA générative et en particulier on se disait que Dans le texte, ça marche très bien pour aller répondre à des questions précises, pour comprendre des choses, des instructions. Mais quand on demande de créer quelque chose en texte, faire appel à de la créativité, c’était plutôt plat et ça ne marchait pas très bien. Et on avait un peu le sentiment inverse dans l’image. C’est-à-dire que vraiment, l’image, quand on commence à faire quelques promptes un petit peu originaux… une image bien promptée, on peut avoir des choses assez bluffantes. Et d’une certaine façon, mon cheminement de pensée était de me dire peut-être que quelque part, on est juste tous des analphabètes dans la création d’images, à part justement une poignée d’artistes très expérimentés. Qu’est-ce que tu en penses ? Quelle est ton interprétation de cette différence entre les LLM textuels qui nous produisent finalement quelque chose d’assez plat en termes de style, de créativité, et les images qui nous mettent une claque parfois surprenante, très éloignée de ce qu’on imaginait ? 

 

Jonas 00:28:06 – 00:29:21 : C’est vrai que sur l’image c’est plus bluffant. Je pense en fait sur l’image aussi, là c’est vraiment un peu des hypothèses, mais tu vois, sur l’image tu peux être bluffé peut-être un peu plus facilement, parce que quand tu vas mêler deux univers par exemple, tu dis un chat dans l’espace tu vois une image comme ça tu dis ah ouais c’est marrant. tu vois tu dis bon c’est entre guillemets original t’as mêlé deux concepts qui sont un peu aucun rapport et hop tu les as assemblés et t’as fait une image. et ça c’est quelque chose qu’on se permet. et même quand on entraîne des modèles on ne se bride pas par rapport à ça parce qu’on dit bon ok certes ça n’a pas de réalité physique peut-être même que c’est impossible potentiellement mais bon une image de toute façon ça peut être n’importe quoi ça peut être une création artistique. donc on se permet que ce soit au moment de l’entraînement et même déjà au moment de l’entraînement. et puis nous aussi on est peut-être bluffé plus facilement juste par le fait de mêler deux concepts un peu au cas d’un port dans une image là où dans le texte déjà au moment de l’entraînement de ce type de LLM c’est un peu le pendant du fait que tu as envie qu’il réponde quelque chose de raisonnable tu vois. Donc tu vas déjà, dès le départ, entre guillemets, le brider pour qu’il réponde quelque chose de cohérent. Et peut-être que c’est difficile de mêler le fait que tu as envie que ton ALM réponde quelque chose de cohérent la majorité du temps et le fait que parfois tu veux qu’il soit hyper imaginatif. 

 

Marc  00:29:21 – 00:29:43 : Ça vient du biais du dataset d’entraînement, quelque part, si j’extrapole un peu ce que tu dis. D’un côté, on a le texte où on a Wikipédia et des conversations très rationnelles qui ont servi à l’entraînement. Et de l’autre côté… Côté images, c’est que des œuvres d’artistes qui ont par nature vocation à exprimer quelque chose d’un peu créatif, d’un peu moins rationnel. 

 

Jonas 00:29:43 – 00:30:16 : C’est possible qu’il y ait de ça. Et puis je pense aussi qu’on est plus facilement bluffé par une image qui va mêler deux concepts. Déjà nous-mêmes, c’est-à-dire combien même ce ne serait pas en soi que quand tu analyses le truc, ce n’est peut-être pas le truc créatif du siècle. Tu es peut-être bluffé plus facilement. Par exemple, quand tu fais ton prompte, Ton prompt en soi, il a une certaine créativité et que tu vois l’image, même si l’image correspond à ton prompt. En termes de ressenti, tu dis que c’est marrant. Que quand tu vois du texte où tu lis séquentiellement, ce n’est pas quelque chose où tu vas d’un coup voir des contraires qui vont se mettre ensemble. 

 

Marc  00:30:17 – 00:30:54 : On peut avec du texte dire par exemple, écris-moi telle chose à la manière d’un poème de Victor Hugo ou ce genre de choses, mais ça ne va pas rendre aussi bien que ce qu’on avait vu avec l’image où l’internaute avait demandé le pape en doudoune Balenciaga. Et c’est vrai qu’on voit une doudoune papale. Ça pourrait être un design d’artiste qui aurait fait cette doudoune pour le pape avec les codes de l’église vestimentaire, etc. Il y a vraiment une fusion qui est impressionnante. Ça, ça met vraiment une claque. Ça paraît beaucoup moins brouillon qu’un poème écrit en poème de Victor Hugo, une recette de cuisine ou je ne sais quoi. 

 

Jonas 00:30:54 – 00:31:24 : Je pense que l’image, tu la vois d’un coup. D’un coup, tu vois le truc, le texte, tu l’as lu petit à petit. Donc, entre guillemets, tu dilues ton étonnement. Bon, il y a un peu de ça. Mais après, déjà, tu as quand même eu le prompt derrière de le pape avec une doudoune. Si tu veux, quand toi, tu as fait ce prompt, tu as déjà été créatif. À quel point est-ce qu’il y a eu un surplus de créativité dans l’image elle-même par rapport au texte que tu avais mis ? Un petit peu, c’est vrai. Parce que oui, la doudoune, le style de la doudoune, c’est vrai. Et déjà, dans le texte, tu avais quelque chose. 

 

Marc  00:31:25 – 00:31:31 : Est-ce que tu peux nous parler un peu des grands verrous, obstacles techniques que vous avez eus à surmonter ? 

 

Jonas 00:31:31 – 00:33:48 : Oui, alors sur l’IA, par exemple, on parlait avant des LLM. En fait, dans les LLM, les obstacles qu’on a eus, ils ne sont pas tant machine learning, artificiel, non. c’était plus des obstacles plus techniques, plus de structuration de l’output, par exemple. Nous, on a des trucs où on veut… Les réponses des LLM sont extrêmement structurées, on a énormément de points, on a des trucs qui sont nestés à plusieurs niveaux. Voilà, c’est un truc un peu classique. Bon, ça, c’était un challenge. Et puis, un autre challenge, ça va être plus, par exemple, gérer le streaming. Gérer le streaming, ce n’est pas si évident en soi, dans l’interface utilisateur. Donc, on va dire que c’est des problématiques, évidemment, Évidemment, c’est vraiment très technico-technique, mais tu vas avoir toute la partie prompte. La partie prompte, pour le coup, elle n’est pas simple si tu veux obtenir des choses pertinentes. D’ailleurs, aujourd’hui, un des sujets qu’on a, c’est le fait que quand tu utilises l’IA en tant qu’assistant à la création, qu’on va te proposer des films, des livres qui ont un lien avec ton travail sur tel ou tel aspect, tu Tu peux avoir comme problème le fait que le LLM, même si tu utilises des gros LLM qui sont censés être très performants, tu peux avoir, si tu l’utilises plusieurs fois, des livres, des artistes qui reviennent plus souvent. Un côté un peu répétitif. ou alors avoir des réponses trop mainstream. C’est pour ça que, par exemple, pour ce genre de choses, à ce moment, on travaille sur mêler les retours d’LLM avec des datasets et commencer à faire le lien. Donc, constituer des datasets qui sont beaucoup plus fournis et puis faire le lien entre l’LLM et les datasets pour obtenir des réponses qui sont plus pertinentes. Ça, pour le coup, c’est plus un challenge data slash LLM. qu’un challenge vraiment problématique de prod, même si on en aura peut-être aussi. Voilà, ça c’est des challenges qu’on a eus. Après, les autres challenges qu’on a eus, c’est des challenges un petit peu généraux pour nos startups, c’est qu’on est sur beaucoup de fonctionnalités. On utilise beaucoup de techno, on a du Unity pour les galeries virtuelles, On a sur les modèles d’IA, on a autant des modèles qu’on entraînait nous, que des modèles open source qu’on utilise, que des LLM en mode API. On a tout ce qui est marketplace. En fait, on a des challenges. On va dire que le challenge vient aussi du fait, vient de la multiplicité des fonctionnalités et des briques techniques qu’il faut maîtriser, si tu veux. Donc, ça vient aussi de cela. Ok. 

 

Marc  00:33:48 – 00:34:00 : Et est-ce que tu penses que ce que vous avez fait pourrait être transféré à un autre domaine ? Est-ce que vos travaux pourraient être appliqués à autre chose, proche ou pas ? 

 

Jonas 00:34:00 – 00:34:29 : déjà par exemple tout ce qui est lié au système de recommandation à essayer de trouver l’oeuvre qui te plaira le plus tous ces bots là qu’on a fait ou le système de recours qu’on est en train de designer c’est des choses qu’on peut utiliser évidemment dans les marketplaces en général. tu vois c’est pas spécifique de là. alors on a dans nos bots on a des choses qui sont spécifiques vraiment de là dans les questions etc. c’est vrai. mais dans le mécanisme initial C’est un truc un petit peu général d’avoir de l’information sur l’utilisateur pour essayer de trouver des choses pertinentes. C’est quelque chose, voilà. 

 

Marc  00:34:29 – 00:34:40 : Mais ça, les marketplaces l’ont déjà. Est-ce que votre partie spécifique à l’art, elle, elle pourrait avoir un intérêt justement pour des marketplaces d’un type ou d’un autre ? 

 

Jonas 00:34:40 – 00:35:21 : Alors par exemple, c’est vraiment une hypothèse, mais si tu penses aux produits de luxe, tu vois tout ce qu’on fait dans l’IA en tant qu’assistant à la création, on va utiliser le style d’un artiste pour après lui donner des pistes d’inspiration et potentiellement générer des choses qui sont proches, qui sont à la fois proches et à la fois quand même pistes d’inspiration. C’est des choses qu’on pourrait imaginer pour des produits de luxe. La mode en général. C’est pour ça aussi qu’on aime la data et l’IA, c’est qu’on peut l’utiliser dans plein de domaines et on a des classes de modèles, d’algorithmes qui sont transférables dans énormément de domaines et c’est ça qui est très intéressant. dans ça, on voit beaucoup de choses. 

 

Marc  00:35:22 – 00:35:36 : Pourquoi pas réfléchir à haute voix, mais Airbnb, les photos des logements, parce que finalement, côté architecture intérieure, les goûts et les couleurs, on ne peut pas essayer de les capturer un peu avec ce que vous avez fait. 

 

Jonas 00:35:37 – 00:35:41 : Ouais, t’as de ça. Après, pour la création, peut-être pas. 

 

Marc  00:35:41 – 00:35:42 : Pour la création, pour la reco. 

 

Jonas 00:35:42 – 00:36:13 : Oui, oui, pour la reco, c’est ça. Parce que pour la création, le bonhomme risque d’avoir des mauvaises surprises quand il arrive. Mais ouais, je suis d’accord. Pour l’exploration, c’est vrai que tu as le côté exploitation de l’image. Alors, tu savais que dans l’art, par exemple, tu vas avoir le côté plus exploitation de l’image de l’œuvre. Ça va être beaucoup plus important que l’exploitation des métadonnées. Là où, si tu vas sur une marketplace, si tu vas sur Domano ou Amazon, l’image, ça peut un peu jouer, c’est vrai, mais pas autant que dans l’art. 

 

Marc  00:36:13 – 00:36:23 : Alors, si on revient sur l’aspect technique, est-ce que tu as des erreurs que tu pourrais nous partager pour nous faire gagner du temps, globalement, tout ce chemin de main qui vous a amené là ? 

 

Jonas 00:36:23 – 00:37:59 : Je pense qu’une chose qu’il faut éviter dans… C’est toujours difficile de donner des conseils généraux parce que tu as des cas particuliers, tu as des équipes particulières, tu as des besoins particuliers. Mais je pense qu’un truc qu’il faut essayer de faire, c’est faire en sorte que l’IA soit dès le départ assez proche de la production. Quand je dis production, typiquement nous c’est une plateforme. donc là c’est du développement web en l’occurrence, être proche de cela. C’est-à-dire qu’il ne faut pas avoir quelqu’un qui fait du machine learning un peu dans son coin pendant trois mois sur un sujet qui a vaguement un lien avec ta boîte. Puis après, au moment de l’industrialisation, au moment où on essaie vraiment de le mettre en place, on se rend compte qu’on est loin. Mais il faut donc nous, typiquement chez nous, ceux qui font du machine learning, C’est des gens qui développent aussi, qui font du développement web en général aussi. Donc on est très très proche. Donc dès le départ, on prend en compte les problématiques de prod. Dès le départ, on essaye d’avoir des premières versions qui fonctionnent rapidement, les problématiques de sécurité, de temps de réponse, etc. Après, là où je disais qu’il faut se méfier quand même des conseils généraux, c’est que bon, tu vois, nous on est une startup, on veut aller rapidement, on a… On n’est pas l’Inria, si tu veux. Tu as des environnements où ça peut se concevoir d’avoir des gens qui vont travailler sur des sujets un peu plus exotiques, plus que quelques semaines dans leur coin. Mais de façon générale, souvent, en tout cas, il faut se poser la question. Et quand tu veux aller vite avec une startup et que tu veux réaliser rapidement des fonctionnalités, oui, je pense que c’est mieux d’avoir vraiment l’équipe de machine learning qui est intégrée à l’équipe de développement web générale. 

 

Marc  00:37:59 – 00:38:04 : Est-ce que tu as une anecdote à nous partager sur votre aventure ? 

 

Jonas 00:38:04 – 00:38:50 : Ouais, par exemple, on a eu la première vente d’une artiste amateur sur le site. Donc, en fait, elle est aide-soignante à Dinar et qui a vendu son oeuvre à un collectionneur à New York. Donc, c’est un truc assez… Ça fait partie de la force de notre plateforme. L’idée, c’est de potentiellement connecter des gens qui habitent dans des endroits qui n’ont aucun rapport, etc. Et là… Tu as artistes amateurs à un collectionneur, dinars à New York. C’est quelque chose qui est important pour nous. Le but, c’est aussi qu’il y ait des artistes amateurs qui, potentiellement, percent et finissent par se professionnaliser. Ça fait aussi partie des objectifs potentiels, même si tous ne le feront pas. Mais voilà, c’est quelque chose dont on est très content. 

 

Marc  00:38:50 – 00:38:54 : Alors, c’est quoi la suite pour vous, côté IA, côté data ? 

 

Jonas 00:38:54 – 00:39:52 : Oui, côté IA, la suite, on va continuer à beaucoup travailler sur les aspects IA en tant qu’assistant à la création. Donc là, typiquement, on travaille sur des modèles open source du style stable diffusion, comment est-ce qu’on peut les appliquer à notre environnement pour pouvoir avoir un contrôle plus important de ce qu’on génère. Et on a envie… c’est vrai qu’on n’en a pas trop parlé mais on a une fonctionnalité sur le site où l’utilisateur peut. en fait on appelle ça mon univers l’utilisateur il peut mettre uploader si tu veux des références des livres, des films qui lui plaisent en tant que source d’inspiration et donc c’est intéressant déjà pour lui. comme ça il a un petit peu sa bibliothèque avec tout ce qui l’intéresse et aussi à partir de ça on peut lui faire générer des images et lui donner des nouvelles sources d’inspiration. Donc ça, c’est un élément sur lequel on va pas mal travailler et donc c’est là où il y a plein de manières de faire. Donc on va en tester pas mal. Donc là, on est pas mal là-dessus. 

 

Marc  00:39:52 – 00:39:59 : Ok. Et est-ce que tu as une recommandation pour un prochain épisode d’Atta Driven 101 ? Qu’est-ce que tu aimerais entendre ? 

 

Jonas 00:39:59 – 00:40:36 : Oui, il y a Stéphane Béreux, qui est CTO de Jiminy. Et en fait, qui est comme moi, membre du bureau de l’association XIA, donc des alumnis de l’école polytechnique qui sont dans l’intelligence artificielle. Donc, on est un groupe de 1300 élèves ou anciens élèves de l’IX. On fait des talks sur l’IA régulièrement, sur des thématiques genre IA et santé, système de recommandation, LLM, etc. Et du coup, il fait partie de ce bureau et c’est comme ça que je l’ai rencontré. Et en l’occurrence, Dimini va développer de l’IA qui va aider les professionnels du droit. Je te recommande. 

 

Marc  00:40:36 – 00:40:39 : Avec plaisir. Je vais le contacter. Merci Jonas. 

Jonas 00:40:39 – 00:40:42 : Merci à toi et merci de ton invitation. 

Marc  00:40:42 – 00:40:55 : Vous venez d’entendre Jonas Botbol, CTO co-founder de YourArt. Dans le prochain épisode, je recevrai Jonas Botbol, CTO co-founder de YourArt pour nous parler de l’utilisation de l’IA générative dans l’art. A très vite.