L’éthique face à l’IA : Comment rester humain à l’ère du numérique ?

Mathieu Guillermin, enseignant-chercheur en philosophie et éthique des sciences à l’Université Catholique de Lyon est l’invité de l’épisode 85 du podcast Data Driven 101. 

🧠💡 IA, éthique et humanité : repenser notre rapport à la technologie avec Matthieu Guillermin 🎙️

🔥 Au programme :

Le projet NHNAI : Un nouvel humanisme face aux neurosciences et à l’IA 🌍

L’IA et l’automatisation du travail : Opportunité ou menace ? 

Démocratie et liberté d’expression à l’ère du numérique : Où tracer la ligne entre régulation et censure ? 

Éducation et intelligence artificielle : Apprendre à penser à l’ère de ChatGPT 

Les enjeux sociétaux et politiques de l’IA : Pourquoi ces choix nous concernent tous 🤔

Un échange passionnant qui dépasse la seule question technique pour interroger le sens même du progrès et de notre rapport aux technologies !

L’éthique face à l’IA : Comment rester humain à l’ère du numérique ? - Mathieu Guillermin enseignant-chercheur

 

Matthieu Guillermin 00:00:00 – 00:00:21 : Donc Mathieu Guirmin est enseignant-chercheur en philosophie et éthique des sciences et des technologies, membre de l’unité de recherche Confluence Sciences et Humanités de l’UCLI, Université Catholique de Lyon. Bonjour Mathieu. Bonjour. Alors Mathieu, est-ce que je peux te laisser te présenter, nous parler un peu de ton parcours et de ton travail actuel ? 

Marc Sanselme 00:00:21 – 00:01:17 : Oui, avec plaisir. Moi, j’ai une petite particularité, c’est que j’ai fait de la physique. J’ai fait un doctorat de physique, mais le but était de faire de la philosophie. Après, je pensais que je ferais de la philosophie de la physique à cette époque-là. Et puis, plus c’est allé, plus j’en ai découvert, plus je me suis intéressé à la philosophie des sciences en général et aux questions technologie, éthique, philosophie des technologies et des choses comme ça, et en particulier aux questions des technologies numériques. Donc voilà. Et donc là, maintenant, je suis enseignant-chercheur à l’Université catholique de Lyon. J’enseigne principalement un peu de philosophie des sciences, épistémologie. Donc c’est un petit peu le côté qu’est-ce que l’intelligence ou qu’est-ce que la rationalité, mais là, pas artificielle pour le coup. Comment on peut faire tout ça ? Et puis, du coup, une grosse partie philosophie et éthique de l’intelligence artificielle. Je fais des recherches aussi sur le sujet. 

Matthieu Guillermin 00:01:19 – 00:01:28 : Ok, alors, tu es aujourd’hui dans un projet qui s’appelle NHNAI. Est-ce que tu peux nous présenter un petit peu ces travaux ? 

Marc Sanselme 00:01:28 – 00:05:57 : Oui, complètement. L’acronyme, je ne vais pas le prononcer en anglais, mais c’est « Nouvel humanisme au temps des neurosciences et de l’IA », donc AI dans l’autre sens. C’est un projet qui part du constat qu’il y a quand même des enjeux sociétaux et éthiques assez importants avec l’IA et avec les neurosciences, avec les sciences cognitives, avec les sciences et technologies de l’intelligence un petit peu. et qu’on ne peut pas nécessairement se satisfaire d’une sorte de gestion de ces problèmes, de ces risques et de la régulation qui soit descendante, donc en partant des sachants, des décideurs politiques, des grands entrepreneurs très puissants qui ont le pouvoir de décision concrète, qui peuvent imposer leurs standards. Mais qu’il y a besoin de ça, bien sûr, il y a besoin de la réflexion un peu comme ça en top-down, mais qu’on a besoin aussi d’avoir une émulation qui soit un peu plus horizontale, un peu plus la plus large possible. Parce que, déjà, je pense qu’il y a des sujets, mais on y reviendra sûrement, il y a des sujets politiques… dans ces questions-là, qui sont des sujets, en démocratie, les sujets politiques, les grandes orientations politiques, on les discute entre nous quand même, on est censé en tout cas, et puis il y a aussi tout le problème de quand bien même les experts entre eux arriveraient à dire ce qu’il faut faire, ce dont déjà je doute un petit peu, Quand bien même ça serait possible, il y a cet enjeu de comment tu fais pour avoir une régulation efficace. Et on ne met pas un policier derrière chaque entrepreneur, derrière chaque technologie, derrière chaque machin, c’est absolument impossible. Donc à un moment, c’est aussi s’il y a une exigence. Et puis ça peut être une exigence par droit mou, soft law, ou par des exigences de consommateurs même, en disant « moi je veux ça, je paierai ça, je ne paierai pas ça ». Et donc, pour qu’il y ait ça, il faut qu’il y ait une conscience des sujets et, je pense, une réflexion la plus large possible par les gens qui se sentent concernés au moins et qui veulent bien prendre un peu de temps pour faire ça. Et donc, le projet essaye de répondre à ce besoin-là. Nous, on s’est un petit peu posé la question, en tant qu’universitaires, comment on peut servir le fait qu’il y ait une meilleure réflexion sur les questions éthiques de l’IA ? Et la réponse, elle a été à deux niveaux. Elle a été d’abord… est-ce qu’il n’y aurait pas une réflexion à avoir sur qu’est-ce que ça veut dire être humain, de manière un peu globale, qui ne soit pas. du coup, on va directement se confronter à telle et telle question éthique très précise, en premier lieu, mais essayer de, à travers les sujets, réfléchir à où on va, qui on est en tant qu’humain, qui on veut être demain, qui on veut devenir, et ça inclut, enfin quand je dis en tant qu’humain, ça ne veut pas dire qu’on ignore la nature, c’est-à-dire en tant qu’humain, vivant parmi les autres êtres vivants dans notre environnement, et ainsi de suite. Et donc ça c’est un sujet à travailler comme un peu l’idée que si tu cherches à t’orienter dans la jungle d’une question éthique bah t’as un peu le nord magnétique là qui te donne une référence quoi. Donc ça c’est important de discuter là dessus. et du coup le deuxième niveau qui reprend ce que je disais en introduction c’est que C’est vraiment quelque chose. Cette question-là, il faut en parler entre nous. C’est la question politique. Et donc, du coup, la deuxième dimension, ça a été est-ce qu’on peut aider nous, universités, à mettre nos ressources à disposition d’une réflexion en société sur ces sujets-là ? Et donc concrètement, on est sous la bannière de la Fédération Internationale des Universités Catholiques. Il doit y avoir maintenant 10 ou 11 universités catholiques partenaires. Il y en a au Chili, aux États-Unis, à Taïwan, au Kenya, et puis un bon gros pool en Europe aussi. Et l’idée, c’est que chaque partenaire met ses ressources. Alors, dans un réseau, il y a du philosophe, de l’informaticien, de l’anthropologue, des choses comme ça. Déjà, ces gens-là, on les rassemble, mais pas avec l’idée de dire « dites-nous ce qui est le plus avancé dans votre recherche sur ces sujets-là », mais plutôt « est-ce que vous pouvez nous dire ce qu’il faut savoir vraiment et comment le poser sur la table pour qu’on puisse discuter, tous ensemble ? ». Et donc ça, c’est un peu l’idée de l’apport d’expertise. Mais après, il y a aussi l’idée d’organiser nous-mêmes des lieux de débat, des lieux d’échange. Et donc, c’est ce qu’on a fait. Je pense qu’on pourra peut-être en parler un petit peu plus, mais c’est ce qu’on a fait dans les différents pays partenaires. Depuis, on a commencé, là, ça fait deux ans maintenant, que c’est très actif, même un peu plus dans ce sens-là. 

Matthieu Guillermin 00:05:57 – 00:06:03 : Ok, des sortes de conférences, à travers quels éléments ? 

Marc Sanselme 00:06:03 – 00:07:50 : Ouais alors c’était petit format conférence mais plutôt restreint parce que le but c’était de vraiment proposer aux gens de s’exprimer. Et donc on est même passé par une petite phase mais il n’y a pas eu un succès foufou, ça c’est les joies du POC quoi. parce qu’on est un peu un POC même si c’est gros comme projet c’est quand même l’idée de réfléchir à ce qu’il faudrait faire pour que ça se passe bien de manière plus large et on avait testé l’idée de rassembler un petit peu des représentants de différents groupes de la société chaque université voyait ça à sa lumière en fonction de son contexte et de commencer à travailler quelles seraient les questions qu’il faudrait discuter plus précises. et donc on a fait ça et après on s’était dit les gens représentants des groupes vont mobiliser d’autres gens qui vont venir discuter. et tout Ça a plus ou moins marché, mais bon, ça a amorcé une dynamique. Et du coup, après, on a eu toute une phase en 2023, principalement d’événements présentiels où la méthodologie, c’était beaucoup. On met des questions. Ça peut être une seule question qui est partagée par toute l’Assemblée ou alors des thèmes différents qui sont travaillés par des tables de dix personnes. Dans tous les cas, les gens étaient en petits groupes et essayaient de se parler. Et un petit peu l’originalité, si tu veux, ça, c’est pas très original. D’ailleurs, on y réfléchit à comment on pourrait avoir un peu des ressources en termes de méthodologie d’animation. Mais par contre, une particularité forte, c’était que l’idée, c’était de dire… Alors, je vais l’illustrer comme ça avec les mains, mais est-ce qu’on peut pas passer du d’accord, pas d’accord à des débats qui seraient plutôt sur le… « oui, mais ». Moi, souvent, en cours d’éthique avec mes étudiants, quand on fait des débats éthiques, ils disent « non, je ne suis pas d’accord ». « Ce qui a été dit avant, vous n’êtes pas d’accord avec 

Matthieu Guillermin 00:07:50 – 00:07:51 : ? ». 

Marc Sanselme 00:07:51 – 00:08:30 : c’est vraiment non, non, non, ou alors c’est oui, mais. Et très souvent, en fait, la personne a dit oui, si, c’est pas faux ce qui a été dit, mais il y a autre chose à dire. Et ça, c’est super important. Et du coup, on a essayé d’encourager vraiment les gens à aller dans ce genre de logique de dire ne cherchons pas à donner une réponse à la question intégrale, seule et unique. On verra après. Commençons déjà par voir si on ne peut pas se mettre d’accord sur tout ce qui n’est pas trop bête à dire sur une des questions qu’on regarde. Donc, un des aspects d’être humain, autant de l’IA, et vraiment avec cette idée de dire je prends le temps de réfléchir et je dis oui mais et puis peut-être oui et des fois aussi parce qu’en fait c’est oui et puis je vais même aller dans le même sens que toi comment 

Matthieu Guillermin 00:08:30 – 00:08:31 : vous choisissez ces questions 

Marc Sanselme 00:08:31 – 00:12:18 : ? Alors les questions, on a été très libéral. Il y a quand même eu trois thèmes de terrain de jeu, on va dire, parce que dans les 2022, quand on a lancé le truc, on a vu que c’était intéressant. C’était le champ de l’éducation, le champ de la vie démocratique et de la démocratie en général, et le champ de la santé. Donc déjà, là, on avait un petit peu proposé ça et éventuellement des questions plus transversales, un peu génériques à l’IA. Et après, du coup, les questions ont été travaillées par les gens en local, en essayant de s’interfacer avec les participants possibles. Ça a parfois été vraiment des questions plus précises sur, par exemple, l’interface cerveau-machine ou humain-machine ou des trucs comme ça. parce que la personne en local elle avait une communauté intéressée par ça autour d’elle. parfois ça a été des choses plus génériques. Mais en fait, nous, ça ne nous dérangeait pas, parce que ce qu’on a cherché à retirer de ces discussions-là, dans tous les pays, c’était vraiment, après un moment, le niveau, quand même, qu’est-ce que ça dit sur qu’est-ce que c’est vivre, être humain, vivre avec les autres. Et donc finalement, quelles que soient les questions, les éléments importants qui remontaient, ils parlaient de ça en arrière-plan. Donc on a essayé de suivre ça, mais vraiment avec cette méthodologie de dire « enrichissons-nous ». Essayons d’être dans la logique de s’enrichir mutuellement. Parce que souvent, je suis très confronté à ça. Les gens disent, mais pas en éthique. L’éthique, c’est chacun fait ce qu’il veut dans son coin. Comme la politique, chacun son avis. Et puis d’ailleurs, il n’y a pas vraiment de vérité. Regarde, tu ne tueras point. C’est vrai, là, on ne tue pas. Puis parfois, à la guerre, on tue. Et tu ne tueras point, c’est plus vrai. Moi, je n’ai pas tout à fait cette lecture-là en tant que philosophe. J’ai l’impression que tu ne tueras point, c’est a priori toujours vrai. Simplement, il y a d’autres trucs qui sont vrais aussi, ou suffisamment évidents par ailleurs, du style « t’as le droit de te défendre », du style « tu vas protéger l’innocent qui est menacé ». Et donc parfois, ça rentre en conflit. Et c’est pas des avis qui rentrent en conflit. Enfin, je veux dire, sur les valeurs fondamentales, il n’y a pas de problème. Par contre, ce qui rentre en conflit, c’est éventuellement la priorité que tu vas donner à un axe plutôt qu’à un autre. Et du coup, c’est pour ça qu’on peut vraiment essayer de faire de l’accord… sur ces questions éthiques et politiques, au moins en cherchant à dire tout ce qu’il y a à dire qui n’est pas trop stupide. Et constatons les tensions, les points de complexité. Nous, on a appelé ça un peu comme ça, mais on met les mots qu’on veut dessus. Mais du coup, on a vraiment essayé de pousser cet effort et nos efforts de synthèse à nous vers quels sont les points où ça frotte et où on ne pense pas que ça frotte parce que les avis frottent entre eux et que les gens ne sont pas d’accord, mais que ça frotte parce qu’il y a une vraie difficulté. il y a un vrai dilemme qui n’est pas dépendant de qui préfère quoi. La manière de le trancher sera dépendante de qui préfère quoi. Mais ça n’empêche pas de se mettre d’accord sur l’existence du problème. Et ça, moi, en élargissant un petit peu, je pense qu’on est en train d’un peu crever en société et notre vie politique, elle est malade de ne pas savoir vivre aussi dans ce niveau-là où on se met d’accord quand même sur le minimum qui tient la route. Un peu complètement à contre-pied de ce qu’on est en train de voir aux Etats-Unis. là, avec le côté chacun dit ce qu’il veut dans son coin et moi je veux pas forcément qu’on interdise aux gens de parler. mais peut-être que ça serait intéressant d’essayer de faire l’effort chacun d’admettre tout ce qui est pas stupide à partir du moment où ça nous engage pas à dire c’est ça la solution c’est juste je le reconnais c’est pas stupide et je reconnais les tensions. Nous, on a vraiment essayé de faire ça. Et quelque part, le projet teste un peu aussi ce genre d’approche. Est-ce que ça peut prendre ? Et peut-être même qu’il y a des technologies d’IA qui pourraient nous aider à mieux faire ça. D’ailleurs, on y réfléchit aussi. 

Matthieu Guillermin 00:12:20 – 00:13:14 : Ces fameux nœuds de complexité, du coup, il y a une liste de sujets identifiés. Est-ce qu’on peut rentrer un peu dans le détail de ces opinions qui sont en tension, que ce soit les tiennes ou non ? Est-ce que tu peux nous faire une sorte d’aperçu ? de visualisation? et peut-être celui que je voudrais prendre en premier, c’est celui de la place du travail et de l’automatisation, qui est un sujet qui ne concerne pas que l’IA, qui, on va dire, a déjà des anecdotes qui datent du temps des Romains sur l’automatisation et la destruction du travail qui en découle. Est-ce que tu peux nous faire un peu une sorte d’aperçu de ce débat ? 

Marc Sanselme 00:13:14 – 00:16:48 : Oui, bien sûr. Alors, juste une petite précision. En fait, moi, très honnêtement, mais des fois j’ai des problèmes même avec mes proches je suis. toutes les opinions je les entends. tout ce qu’on a retranscrit je l’entends et je pense pas avoir filtré. c’est pas moi qui ai fait toutes les synthèses d’ailleurs mais je pense pas avoir filtré sous prétexte que j’entendais pas et très honnêtement tout ce qu’on a mis moi je l’entends quoi. Et alors, du coup, sur la question de l’automatisation du travail, ce qui a été beaucoup discuté, c’est le côté légitime, alors dimension, mais de l’amélioration de l’efficacité, que ça soit sa propre efficacité personnelle pour faire plus de choses soi-même. mais aussi pour être plus productif, et donc par extension, la légitimité de vouloir être plus productif et plus rentable pour une entreprise ou pour une organisation, par exemple. Ça, c’est un des éléments qui a été reconnu comme étant légitime. Après, ça va rentrer en tension avec d’autres choses qui ont été exprimées, comme déjà le risque de se retrouver inutile, quoi. Enfin… qui n’est pas aussi flagrant quand on regarde la réalité des choses, mais qui fait beaucoup parler les gens, étant donné les grandes annonces médiatiques et probablement à but de capitalisation aussi. Mais ça, c’est des inquiétudes qui s’expriment aussi en disant, moi, je veux bien devenir plus efficace, mais si ça me rend inutile… Et puis qu’après, c’est une organisation sans… Sans moi ou sans vivant à l’intérieur qui est plus efficace, ça pose un peu question. Donc, il y avait cette dimension-là, bien sûr. Il y avait la dimension du risque de perdre des compétences qu’on n’aurait pas envie de perdre. Alors, à deux titres. Ça serait parce qu’on en aura peut-être besoin demain et qu’en fait, on a automatisé. Puis finalement, c’était une brique qu’on aurait eu besoin de garder. Elle était pénible peut-être même, mais on avait besoin du savoir-faire pour faire autre chose. On ne savait pas. Donc ça, en médecine ou dans des trucs comme ça, on voit bien venir le truc. Parce qu’il y a des magnifiques algorithmes de diagnostic sur tout ce qui est imagerie médicale ou des choses comme ça. Ça marche super bien. Alors du coup, ça veut dire qu’il y a peut-être… Il faut se méfier sur les arguments de dire qu’on va alléger la charge pour le collectif, par exemple, de la formation des médecins ou du nombre de médecins à l’hôpital ou des trucs comme ça. Peut-être, mais il ne faut pas qu’il y ait quand même de nouveaux sujets, de nouvelles maladies, de nouveaux problèmes où on n’a pas les exemples et où il va falloir recréer des exemples. Enfin, à moins de croire à des trucs style AJ qui vont… n’auront plus besoin qu’on ait dit les trucs avant. Et ça, à part dans des cas un peu comme le Go ou quoi, où tu peux calculer pourquoi ça marche ou pas, c’est facile. Donc tu peux laisser un programme chercher des trucs mieux sans toi. Mais dans des cas où le problème n’est pas très bien défini, en général, c’est les humains quand même qui arrivent à aller voir si ça marche ou si ça ne marche pas. Donc voilà, des problèmes de deskling dans ce sens-là, de perte de compétences, et éventuellement aussi des problèmes de se retrouver forcé à ne plus faire des tâches qu’on aimait faire. Et là, il peut y avoir une vraie tension avec presque le côté « tu ne le fais pas assez efficacement, mais tu as quand même envie de le faire, qu’est-ce qu’on fait? ? ». 

Matthieu Guillermin 00:16:48 – 00:17:09 : Soit qu’on aimait faire, soit même des fois juste porter une certaine sécurité. Du fait qu’elles n’étaient pas difficiles. On les touche, on fait des tâches rébarbatives. Elles ont le mérite de ne pas être une exigence d’apports intellectuels élevés. 

Marc Sanselme 00:17:09 – 00:18:22 : Oui, c’est sûr. Mais ça pouvait être une façon de respirer aussi dans la journée, de travail, de ne pas être… Honnêtement, je te dis un peu tout ce que j’ai entendu, tout ce que j’ai lu dans les synthèses. Parfois, on a été un peu plus sélectif. Mais ce que tu dis me rappelle, ça a été un peu évoqué, ces histoires-là. Je ne sais plus dans quel cadre, mais je l’ai entendu. Oui, avec ce côté… Si on se retrouve plus qu’avec du travail à très très forte valeur ajoutée, dans ces cas-là, il faudra peut-être qu’on travaille moins. Et du coup, le gain en productivité, il n’est pas si évident que ça, parce que tu ne peux pas… Peut-être que l’évolution se faisant, dans mille ans, on sera capable d’être à X mille pour cent de travail cognitif, mais il y a un moment, quand ça fume, il faut s’arrêter aussi. Alors après, voilà, mais tout ça, c’est justement, c’est là où on voit toute la question politique du sujet et que c’est ni toi, ni moi, ni un entrepreneur tout seul dans son coin. C’est peut-être éventuellement des géants comme les très grands de la tech ou des pays, mais moi, j’ai plus l’impression que c’est quand même une politique que ça peut se jouer. Mais il y a toute la question de l’organisation du travail, de pourquoi on travaille combien de temps, où va l’argent, qui en profite, des choses comme ça. 

Matthieu Guillermin 00:18:22 – 00:18:22 : Oui. 

Marc Sanselme 00:18:24 – 00:19:38 : Et ça, c’est un petit peu moi qui le rajoute, mais ça a quand même été évoqué un petit peu. Tu as le côté aussi justice sociale et économique sur le fait que les données viennent d’où. On a appris à faire des choses. C’est bien, ici, je peux le dire sans expliquer ce que c’est qu’apprendre, ça me change. Mais on a appris à faire certaines tâches, à faire faire à la machine certaines tâches. Mais ça vient d’où ? Les données ont été obtenues. comment ? Moi, je me dis, les gens qui ont écrit dans Wikipédia à l’époque, ils ont signé des licences qui, juridiquement… permettent à peu près de l’exploiter pour faire du grand modèle de langage ou d’autres trucs comme ça. Si on leur avait dit qu’il y avait les grands modèles de langage, est-ce qu’ils auraient contribué comme ça ? Il y avait une idée de bien commun et potentiellement il y a une… Alors, pourquoi pas aussi ? Mais ça pose des questions. Moi, je n’ai pas les réponses, mais ça pose ces questions de comment on veut partager les gains qui sont produits avec ces choses-là. Et avec une vraie légitimité à tous les gens qui développent et qui participent au développement, construction des ordinateurs et tout, de dire ça a un coût tout ça et il faut que nous on vive aussi et c’est légitime. Mais voilà, il y a ce genre d’enjeu-là. 

Matthieu Guillermin 00:19:38 – 00:20:26 : Il y a un autre enjeu qui revient beaucoup de préservation de la démocratie, en particulier celui de… la liberté d’expression et la régulation. C’est quoi là-dessus ? Je pense que, notamment, culturellement, on a une approche assez différente des Américains là-dessus. Aujourd’hui, on voit Trump, puis Zuckerberg, revenir vers quelque chose de beaucoup plus. finalement fidèle à la doctrine américaine de… Tout est possible. Tout est autorisé. Et on est presque surpris. Quel est l’état de l’opinion là-dessus ? 

Marc Sanselme 00:20:26 – 00:24:22 : Aussi, notre petite précision, notre but, il n’a jamais été de revendiquer de… de faire des instantanées de ce que pensent les gens. On est vraiment dans une logique de construction dans la discussion. Je précise quand même parce que ça ne représente que ça. Mais il est remonté et ce n’est pas étonnant. Tout ce que je te dis, c’est des choses, si on s’est sensibilisé au sujet, ça vient assez vite. Mais c’est le côté, là, il y a un vrai, ce n’est pas un dilemme, mais une vraie difficulté. Tu es obligé de réguler, mais c’est très compliqué de réguler. Qui garde, en vertu de quoi, avec quels critères et avec quelle légitimité ? Et on le voit bien qu’il y a un retour de bâton là-dessus aux États-Unis. Et puis, qui va garder les gardiens ? Dans le projet, ce qu’on a essayé de faire, c’est de capturer les complexités qui sont construites par les gens quand on met bout à bout ce qui a été dit ou quand ils ont discuté entre eux. et après l’idée ça a été de dire est-ce qu’on peut pas faire un apport de nos expertises qui aident à parcourir et à explorer ces complexités? là? parce que là j’allais dire un truc qui me touche un peu plus moi en tant que philosophe. mais Il y a un moment, il y a une illusion de « je suis rationnel, je dis des trucs légitimes et vrais parce que j’ai des critères objectifs, j’ai fait mon expérience, j’ai fait mon calcul par A plus B, j’ai une preuve absolue, il n’y a pas de problème de liberté parce que c’est une preuve absolue ». Et du coup, t’as pas à choisir, c’est comme ça. Et il y a un peu l’idée que les trucs scientifiques, ça serait ça. Alors qu’en fait, c’est pas ça. La réalité de tout ce qu’on admet et qu’on reconnaît, nous, toi ou moi, on se soumet à certaines autorités en leur faisant confiance. C’est ça, en fait, qui se passe. Et on leur fait confiance parce qu’elles sont censées plus ou moins bien faire leur job. Mais en fait, il y a toujours un scientifique, moi je l’ai été en physique, t’as toujours une part de jugement. et quand je dis jugement je parle à un truc au bout d’un moment c’est plus avec des critères c’est oui parce que de toute façon ok je mets ce critère là mais pourquoi ce critère là plutôt qu’un autre? et puis au bout d’un moment c’est parce que dans mes tripes je sens que c’est ça qu’il faut faire et ça c’est un travail c’est faillible on tombe tout le temps il faut rester vigilant mais en fait c’est ça l’intelligence humaine fondamentalement. et du coup pour la régulation pour la modération en particulier Il faut regarder en face que c’est ça. Ce n’est pas un défaut qu’il y ait des gens qui doivent juger. C’est inévitable qu’il y ait des gens qui jugent. Il n’y aura jamais des critères qui vont régler les problèmes. Et par contre, la question, c’est OK, le jugement, il est faillible, mais ce n’est pas parce qu’il est faillible qu’il est forcément mauvais. Et puis, ce n’est pas parce qu’il y a des gens qui ont jugé à partir… que c’est forcément mauvais. Parce que là, dans les débats que j’ai entendus dernièrement, on dit vraiment ça. Zuckerberg, il a dit les gens qui faisaient ça, ils étaient biaisés, mais limite même juste parce qu’en fait, ils jugeaient. Mais oui, mais c’est normal. Et refuser de juger, c’est pas être plus libre, en fait. C’est faire… Chacun va dire ce qu’il veut dans son coin et il n’y aura plus de vivre ensemble. Au final, ça, c’est moins de liberté. Parce que si tu déroules la pelote, on en revient à le plus fort tape sur le plus faible, quoi. Ou le plus grand nombre, le plus convaincant a raison. Mais ça, c’est pas de la liberté. C’est à la limite beaucoup de liberté pour le plus fort et le plus convaincant. Mais sinon, la liberté collective, c’est de juger ensemble, de faire cet effort de juger ensemble. Et donc, derrière ces questions de régulation, désolé, c’est pour ça que je te disais, ça me permet un petit apport de philosophe sur le sujet, mais il y a ce problème politique de, non pas de dire est-ce qu’il faut réguler ou pas, mais de penser ensemble comment, et d’accepter que ça soit pas parfait, que ça soit fait par des gens qui vivent le truc et qui font de leur mieux. Et qu’après, on est presque sur la qualité des gens et la confiance qu’on leur fait, plus que sur tel et tel critère qui serait un peu des illusions. 

Matthieu Guillermin 00:24:22 – 00:24:40 : Un autre sujet qui est beaucoup plus niche, on va dire, un peu moins… On va dire sur le… Sur le haut de la pile des sujets éthiques, mais très intéressant au niveau de l’éducation, c’est ce que vous l’avez énoncé comme comment rendre accessible une éducation de qualité tout en préservant le développement cognitif. 

Marc Sanselme 00:24:41 – 00:27:25 : Est-ce que tu peux nous développer un peu le sujet ? Il y a plein de technos qui peuvent être super utiles pour l’école et notamment en termes d’inclusivité. Pour les trucs qui te permettent de faire du langage des signes, par exemple, pas à la volée, mais bientôt, ça sera sûrement le cas, ou de sous-titrer ou des trucs comme ça sur des vidéos, ça peut rendre accessible à plein de gens. Toute la connaissance. maintenant, même si ce n’est pas dans ta langue, tu peux arriver à avoir accès quand même à débrouiller un petit peu. t’as des super outils pour l’apprentissage des mathématiques des trucs qui sont à bien utiliser justement. tu as tout le côté personnalisation qui permet d’espérer. Encore une fois, je suis tout de suite envie d’aller partir de l’autre côté, mais je vais finir de ce côté là. Il y a une vraie reconnaissance que oui, les enfants, ils ont des besoins personnalisés et que potentiellement, si tu peux savoir qui a besoin de quoi, à quel moment ou s’il y a un peu plus de flexibilité que dans une classe de 20 ou le prof dit à peu près tout la même chose à tout le monde. C’est intéressant. Néanmoins, derrière, il y a aussi le côté, oui, mais attention, parce qu’il y a plusieurs dimensions, mais il y a une dimension, il ne faut pas que les algorithmes fassent à la place. Parce que ce n’est plus du tout pareil. Si l’assistance devient un remplacement à la réflexion, ça ne marche pas. Moi, je suis toujours sidéré de ce que dit le fait que nos étudiants, je le vois, je suis confronté en permanence à la fac. Dès qu’ils ont l’occasion, ils font un travail avec GPT ou un autre truc et ils sont assez experts dans l’utilisation de ça. Et moi, je ne dis pas du tout qu’il ne faut pas l’utiliser. en soi, ce n’est pas le problème. Mais ce qui me sidère et qui m’inquiète, c’est ce côté absence totale de réflexion sur pourquoi tu es là ? Qu’un gamin au CP, il ne sache pas et qu’il faille le… Mais à la fac, même en master, quoi… Je sais pas, t’es là pour apprendre quelque chose. Si tu le fais faire par la machine, on s’en fout, à la limite, elle va bien le faire, elle va mal le faire, t’auras une bonne note, t’auras une mauvaise note, mais t’auras rien vécu. Et ça, je jette pas la pierre aux étudiants, parce que c’est toute une épaisseur socio-historique qui fait que, quand ça s’est commencé à être accessible à tout le monde, l’école, les gens, ils étaient « Ah, c’est génial, je peux aller à l’école ! ». Et puis maintenant, c’est devenu un peu galvaudé, on sait plus pourquoi on y va, y’a plus cette culture-là qui s’est un peu perdue, aussi, parce qu’on… Moi, je sais pas, à l’école, j’ai vécu ça comme très hostile, aussi, hein. Il y a tout ce problème, ça rejoint un peu le côté des skillings. L’idée, ce n’est pas de déléguer, rendre plus accessible. 

Matthieu Guillermin 00:27:25 – 00:27:43 : À quelle mesure c’est différent de ce que ma génération a connu avec les moteurs de recherche, par exemple ? où on allait potentiellement dans un exposé copier-coller des paragraphes d’un site perso, pas du tout sérieux, pas du tout sourcé. Donc faire cette erreur-là nous a appris ensuite que non, c’est pas comme ça qu’on fait une recherche internet, c’est pas comme ça qu’on fait des recherches. 

Marc Sanselme 00:27:44 – 00:28:00 : Oui, c’est à peu près le même truc, sauf que là, le plus vicieux, c’est que le mec un peu kamikaze, il ne relie même pas ce que produit le grand modèle de langage. Donc il y aurait ça, mais sinon, dans l’idée, on est dans le prolongement. Oui, ça peut passer. 

Matthieu Guillermin 00:28:00 – 00:28:01 : Ça ne passait pas avec le copier-coller. 

Marc Sanselme 00:28:01 – 00:30:11 : Ouais bah non si tu fais un copier-coller sans relire ça va se voir quoi et voilà. et donc c’est ça. il y a ce côté c’est pas fait pour rendre la vie facile. enfin en fait vouloir que ça soit facile c’est un peu ça. le problème aussi c’est qu’il y a un moment si tu veux apprendre et on le tolère mieux en sport ça C’est normal de faire des abdos et de faire des exercices où on va en baver. Si on veut être sportif de haut niveau ou même bien jouer à un sport, si on veut bien faire un truc intellectuel, c’est pareil. Il y a un moment, il faut emprunter les chemins, il faut faire des choses. C’est le côté, la petite tâche qu’on ne fait plus parce que, ah mince, en fait, on en avait besoin. Donc, il y a ce problème-là qui rejoint le côté un peu… Alors là, ce n’est pas deskilling, mais c’est absence de montée en compétence ou d’apprentissage, mais parce que tu ne vis rien. Tu t’es pas posé la question sur « je suis là pour vivre quoi ? ». Et du coup, tu vis pas des choses qui auraient pu être intéressantes. Après, moi, j’ai… Alors là, c’est un titre personnel, mais je m’exprime dans ces débats aussi, après tout. Mes étudiants, je leur dis, moi, à la limite… Je sais qu’ils m’écoutent pas, mais pas tous. Prouvez-moi pourquoi l’exercice que je vous demande sert à rien ! je vous écouterai sérieusement et si vous avez raison merci parce que vous me permettrez de réfléchir à un meilleur exercice et je vous mettrai une bonne note parce que ça veut dire que vous avez tout compris les objectifs et c’est cool quoi. vous avez vécu quelque chose d’intéressant. mon but est pas de vous faire faire mon exercice pour le plaisir. mon but il est que vous viviez quelque chose qui vous permet de vous développer intérieurement et juste le texte. mais là c’est ce qu’on est en train d’observer. On a une décorrélation encore plus forte qu’avant et vraiment radicale maintenant entre la possibilité d’avoir un produit fini convaincant d’un point de vue pédagogique, enfin exercice pédagogique quoi, qui est complètement décorrélée de la vie et de l’expérience vécue et du mouvement intérieur qu’il y a dans l’apprentissage. Et ça, c’est pareil pour les chercheurs qui écrivent des papiers avec GPT. C’est bien, mais est-ce que c’est pas en train de remplir des buts qui sont pas les buts d’une communauté de recherche et de chercheurs ? C’est un peu la même idée. 

Matthieu Guillermin 00:30:13 – 00:30:36 : Est-ce que sur le fond de l’éducation, on ne pourrait pas, je fais peut-être un peu l’optimiste là-dessus, mais attendre finalement qu’il y ait une montée en maturité grâce à cette exposition très forte, cette facilité absolue de rédiger en un clic la réponse, faire monter en fait en maturité, se dire ok, pourquoi est-ce que je le fais à la base ? 

Marc Sanselme 00:30:36 – 00:31:07 : si si complètement moi je souvent c’est ce que je dis alors là je suis un peu plus sur le registre perso enfin perso chercheur quand même je dis souvent ça je pense et j’espère que c’est une opportunité d’en parler. et quelque part le problème c’était un problème théorique. avant Il y a un moment, si tu voulais avoir une bonne note, tu étais obligé de bosser un minimum. Et là, maintenant, en fait, tu peux faire des produits qui méritent une bonne note sans bosser. Et donc, ça permet de quelque part reposer à nouveaux frais la question de pourquoi je travaillerais. Et ça, c’est super sain. 

Matthieu Guillermin 00:31:08 – 00:31:30 : C’est un peu comme les fake news, l’abondance de fake news finalement et de deepfake pourrait avoir comme conséquence le fait qu’on ne soupçonne même plus, on ne cherche même plus à savoir si c’est vrai ou si c’est faux, on reste dans le bénéfice du doute en permanence et l’effet des fake news… Alors 

Marc Sanselme 00:31:30 – 00:35:31 : oui, mais je pensais que tu allais m’emmener sur l’autre terrain, mais tu l’avais peut-être en tête aussi, qui est de dire que ça va faire monter en esprit critique les gens, puisqu’ils savent qu’il y a tellement de fake news qu’ils ne sont plus critiques, ils ne rejettent pas tout, et ils ne sont pas dans l’abandon de juger si c’est vrai ou pas, mais ils montent en compétence. Et là-dessus, c’est vrai, malheureusement, c’est vrai pour qui ? Et j’ai peur des inégalités là-dessus. c’est comme pour GPT qui va se poser la question qui va en bénéficier? peut-être que c’est ceux qui ont déjà pas mal de capital social entre guillemets les parents qui peuvent encadrer et compagnie et que les autres n’auront pas l’opportunité de réfléchir. et après par contre ce que tu pointes c’est super intéressant et c’est un enjeu c’est extrêmement dangereux. on a besoin d’un monde commun factuel. Alors, c’est sûr que moi, c’est ma partie en philo des sciences, je bosse en plein sur des trucs comme ça, mais c’est sûr qu’en fait, on découvre qu’on n’est jamais complètement sûr des faits, qu’on peut jamais avoir des critères qui vont à coup sûr te dire c’est ça la vérité. Mais ça, ça a toujours été vrai et on a bien vécu avec jusqu’à maintenant. Des fois, on ne nous disait pas des trucs complètement vrais, mais il faut avoir un monde factuel qu’on ne remet pas en cause en permanence. Parce que si on n’a pas ça… Alors là, les conséquences peuvent être monstrueuses. Juste pour expliquer ça, Pour pouvoir se projeter, mais même avoir une vie politique, ça c’est Arendt, Ricoeur, c’est vraiment des trucs qu’ils ont étudiés après la Seconde Guerre mondiale et tout le problème de l’extermination des Juifs et tout. Pour pouvoir, et c’est 1984 si tu veux ces thèmes-là, pour pouvoir se projeter dans « je voudrais que le monde soit comme ça », il faut partir de quelque part solide. Il faut avoir une reconnaissance partagée de « le monde, il est comme ça ». Et du coup, je voudrais qu’il soit autrement, parce que comme ça, ça pose tel et tel problème, et si c’était autrement, ça serait mieux. Si tu dénoues ce rapport à « le monde est comme ça », faillible un peu, on le découvre de plus en plus, mais quand même, quoi. Et cette volonté de reconnaître un monde commun… tu tues cette capacité à avoir une vie politique derrière. Et là, pour le coup, on devient presque tous des gens qui se faisons balader, parce que tout le message de 1984, c’est ça, c’est d’empêcher le sens commun, d’empêcher l’existence. Je crois que c’est le crime de la pensée absolue, c’est le sens commun, c’est de dire, mais quand même, non, liberté et soumission, ce n’est pas la même chose. Je ne sais plus quel couple ils prennent, mais le parti, il veut faire tenir les deux ensemble pour que les gens perdent l’habitude de juger, justement. perdent l’habitude de faire l’effort de reconnaître un truc en commun. Et ça, ça tue toute capacité d’opposition politique ou de mouvement politique. Après, tu deviens presque un objet qui subit ce qui lui arrive concrètement sans pouvoir en parler, sans pouvoir rebondir dessus. Je ferme un peu la parenthèse, mais les conséquences de ce qui est en train de se passer aux États-Unis, elles sont inquiétantes. Le reste n’allait pas non plus. mais on en revient à ce qu’on discutait un petit peu avant. c’est dire chacun se fera son avis. ça risque de conduire à chacun dit ce qu’il veut dans son coin. on va très bien s’accommoder qu’il y ait des versions alternatives des choses et ça in fine ça conduit à ne plus pouvoir avoir un monde sur lequel on s’appuie ensemble pour se parler au moins sur où on veut aller après quoi. Et c’est une illusion, en fait, de liberté. C’est une illusion de liberté d’expression. Parce que oui, si tu as le droit de dire les mots que tu veux, mais s’exprimer, est-ce que ce n’est pas aussi engager quelque chose de soi, engager, essayer de dire à autrui, je pense que c’est ça qui est bien. et je vous propose ? tous ces trucs-là, tu perds la liberté de faire ça, en fait, quand t’as une liberté de dire tout et n’importe quoi, n’importe comment. Mais moi, je parle même pas de régulation avec les punitions et des gens qui contrôlent, mais juste se dire. j’ai une responsabilité de pas dire juste ce qui me passe par la tête parce que ça m’arrange, mais de faire l’effort de valider ce que je dis, pourquoi, et d’avoir cette volonté-là de valider ensemble. 

Matthieu Guillermin 00:35:31 – 00:36:05 : Les Etats-Unis… ont souvent fait porter la responsabilité au niveau des sociétés, et notamment les journaux, la télé. On ne peut pas dire, merde, à la télé, il y a un bip. Ce n’est pas la loi, c’est la chaîne qui refuse. C’est souvent finalement, la censure est venue des sociétés. Aujourd’hui, du coup, il y a un peu finalement un refus de jeu de leur part. C’est une sorte de… 

Marc Sanselme 00:36:06 – 00:40:14 : Ouais, refus de jeu, mais il y a aussi, et quelque part, je pense que c’est dangereux qu’il y ait des gatekeepers trop concentrés qui font le contenu. Et de ce point de vue-là, je sais pas si Zuckerberg, il est vraiment philosophiquement engagé là-dedans et tout, mais voilà, il y a une… Il y a quelque part un intérêt à avoir une libéralisation de l’espace informationnel. Le problème, c’est comment tu l’organises. Et parce que les gatekeepers, eux, ils faisaient. Donc, du coup, si tu as du bol, tu as une équipe de journalistes que tu penses, ils bossent vraiment super bien. Tu vas pouvoir y faire confiance. Sinon, tu sais que c’est biaisé. Moi, même les journalistes aujourd’hui, j’essaye de lire un peu à gauche-droite partout parce qu’ils ne sont pas forcément malsains, mais ils ont leur filtre. Et donc, c’est très bien que ça puisse se libéraliser et que quelque part, il n’y a pas trop de concentration dans qui modère. Mais par contre, ça pose une question de comment on modère et comment on recommande. Et là, on est en train d’aller vers… On va mettre des notes et on va pousser les contenus qui… On va interdire les contenus mal notés. Mais bon, qui vote en vertu de quoi ? Et surtout qu’en fait… Je ne veux pas faire de procès d’intention, mais je pense que pour le coup, l’absence de régulation sur les réseaux sociaux, c’est ça qui… Et là, c’est Gérald Brunner, Apocalypse Cognitive. C’est un sociologue qui a écrit ça sur dire… C’est pas parce qu’on est gentil ou méchant, mais comme on est fait de par notre évolution biologique. Et on a évolué pour faire très attention à certains trucs et moins à d’autres, et pour des raisons de survie, de reproduction, de nourriture, de trucs comme ça. Et du coup, ce qui capte notre attention, c’est souvent les contenus un peu outranciers, provocateurs, le clash, la sexualité, les machins comme ça. Et c’est pas forcément ça qui est… ultimement le plus épanouissant. mais c’est ça qui capte l’attention. et du coup si tu dérégule et tu dis chacun va dire ce qu’il veut ça va aller dans le sens de favoriser ces contenus là et alors que potentiellement tu aurais voulu calmer le jeu un peu. mais calmer le jeu un peu c’est entre guillemets un peu c’est ennuyeux. c’est ennuyeux il n’y a pas de clash c’est consensuel. les gens se parlent ils s’écoutent parler mon dieu pendant 10 minutes. mais en fait notre cerveau il a peut-être pas la patience et on frétille peut-être quand on a des trucs un peu en mode clash ou en mode ça va pas chercher trop loin. le problème c’est que c’est ce gavé de Fred Stagada. à un moment on a peut-être envie d’aller manger chez Bocuse ou chez quelqu’un d’autre. aussi ça a un intérêt et le cerveau lui il est ultra content. et puis alors plus tu lui en donnes plus il en veut. et là il y a quand même quelque chose à connaître de nous-mêmes qui pose question. mais en même temps ça veut pas dire que c’est une mauvaise chose qu’on ait des espaces où tout le monde puisse mettre ce qu’il veut. mais après on en revient au problème. enfin on en revient, je crois qu’on en parlait avant sur le problème du modèle économique et des recommandations qui sont voilà tu payes pas tes contenus informationnels aujourd’hui et pas mal d’outils non plus. et en fait il y a un moment il faut que ça soit rémunérateur. et comment c’est rémunérateur? en générant de l’interaction avec le système numérique des données, donc là je vais apprendre à rien à personne, mais tu as la donnée personnelle éventuellement, mais c’est en fait un faux sujet. Mais la donnée de profilage, même anonymisée pour de la recommandation de pub ou de contenu, soit de pub parce qu’on paye des espaces publicitaires, soit de contenu parce que ça réenforce l’engagement des gens dans le système. Et après, ça laisse de la donnée qui est potentiellement porteuse d’exemples, de tâches. Et là, pour l’IA, c’est le gros business de collecter des données à haute valeur ajoutée qui permettront de faire des meilleurs modèles demain. Et c’est ça, le modèle. Et donc, du coup, l’information, s’il n’y a pas d’autres contrepoids et d’autres sources de revenus, elle va forcément être organisée vers ce qui génère le plus d’interactions avec le système, à la limite, peu importe le contenu, entre guillemets. Encore que, tu pourrais te dire, si je veux faire du code super pointu, j’ai peut-être intérêt à avoir des espaces où les gens font des trucs à un peu plus haute valeur ajoutée cognitive. Et donc, s’ils passent leur temps à regarder des chats qui se courent après, ça ne sera peut-être pas ça le plus intéressant, quoi. 

Matthieu Guillermin 00:40:14 – 00:40:14 : Oui. 

Marc Sanselme 00:40:15 – 00:40:37 : Mais du coup, voilà. Et nous, en tant que citoyens consommateurs, il faudra un jour qu’on réfléchisse aussi à est-ce que c’est une si bonne chose que ça de ne pas payer. Aussi parce que d’ailleurs, du coup, on consomme. Les bonbons, ils sont gratuits et j’y vais. Alors si les bonbons, ils étaient payants, je dirais tiens, qu’est-ce que j’achète ? Ça me coûte combien ? Je vais peut-être mettre de côté pour aller dans un autre resto. Enfin, si je file la métaphore. 

Matthieu Guillermin 00:40:37 – 00:41:38 : Ouais. Est-ce qu’on ne peut pas s’attendre à ce que quelque part, de la même façon que les sucres transformés sont arrivés, personne ne s’en est méfié, il y a eu une obésité énorme dans les pays qui l’ont plus poussé ? Justement, la métaphore que tu fais est très intéressante parce que ça s’est déjà arrivé. Puis aujourd’hui, on a pris du recul avec la cigarette, je veux dire, même sujet, on a pris du recul. On a pris des mesures pour informer les gens sur les méfaits de la cigarette, de l’excès de sucre. Et aujourd’hui, on sait que ces choses-là peuvent susciter un plaisir et qu’il faut y résister. Oui, bien sûr. Est-ce qu’on peut se projeter dans un monde dans 20 ans, 30 ans, moyennant des générations sacrifiées, comme à chaque fois sans doute, où chacun sait que prendre son téléphone et commencer à scroller, c’est se tuer à petit feu ? 

Marc Sanselme 00:41:38 – 00:44:48 : Moi, je le souhaite, je l’espère. Et quelque part, le projet tel que je l’ai un peu conçu, c’est pour aider à ça, clairement, parce que ça doit se faire du coup un peu par tout le monde. C’est pas venu en premier de grandes régulations. Ça peut parfois, mais c’est que ça vient quand même au bout d’un an parce qu’il y a des problèmes. Les gens, ils voient tous leurs gamins. Il y a trop de gamins obèses ou des trucs comme ça. Donc, il y a un scandale et ça bouge. donc si si bien sûr et moi d’ailleurs de ce point de vue là je milite vraiment pour casser cette idée. mais je pense que dans le milieu de l’entrepreneuriat à chaque fois que j’en parle les gens sont super d’accord. c’est cette fantasmagorie autour de l’IA qui avance toute seule et une vague comme ça qui dépend pas des humains c’est super malsain c’est pas ça. Quand tu sais ce que ça veut dire, moi quand j’entends « on est en train de perdre la guerre de l’intelligence artificielle », ouais, on perd peut-être la guerre du développement des plus gros modèles dont on ne sait même pas ce qu’on fera, parce que voilà, alors bon, peut-être qu’ils seront super disruptifs plus tard, mais j’en sais rien. Mais moi ce que je vois au quotidien, c’est la question de l’IA, c’est la question de qui met quel type de code dans son quotidien pour gagner en productivité, pour faire des choses plus intéressantes, pour mieux vivre et compagnie. Et ça, c’est du travail humain à mort à faire. Quand t’es entrepreneur, tu bosses là-dedans. Enfin, il y en a plein de gens qui bossent, qui font du super boulot pour ça. Et donc, quelque part, la réalité, c’est quand même, et c’est pas sain de le masquer, parce que de toute façon, c’est du choix humain. Ce qu’on sera avec nos systèmes d’information demain, IA inclus, c’est ce qu’on aura… choisi que ça devienne collectivement. Après, la question, c’est qui choisit, qui subit, qui est au courant qu’il y a des choix à faire, et ainsi de suite. Mais si on améliore le niveau de conscience qu’il y a à ces sujets-là, et la volonté et la capacité des gens à participer à cette réflexion-là, moi, je suis Je redeviens optimiste, entre guillemets. C’est sûr, mais comme disait Coluche, il suffit que les gens arrêtent de l’acheter pour que ça ne se vende plus. Il y a un moment, en tant que personne, il y a des effets avalanches et ils peuvent être ultra puissants. Simplement, il faut les déclencher et déclencher dans le bon sens. Je pense qu’on peut, d’ailleurs, en plus, il y a quand même un jeu avec certaines personnes qui sont quand même dans les milieux de la régulation, qui sont responsables. Et là, on commence à parler de… de problèmes d’épidémie, d’addiction aux écrans ou de trucs comme ça. On voit bien que ça pose des problèmes, ça devient évident. Et donc ça, ça crée des sujets et on en parle. Et donc ça crée les conditions pour… Mais par contre, vraiment dire, ce sont des sujets politiques. Et on ne peut pas dire, débrouillez-vous les gens de la tech, c’est votre métier. Et on ne peut pas laisser dire à certaines personnes de la tech qui veulent capitaliser, vous inquiétez pas, papa AGI ou maman AGI, AGI arrive demain et ça va tout régler. Tout ça, c’est irresponsable. Il faut vraiment dire… On a tous une responsabilité. On n’est pas obligé de tous s’impliquer dans tous les sujets, mais ce sont des sujets politiques. Si ça ne se passe pas bien, on ne peut pas… Si on n’a pas de vie politique du tout et qu’on chouine en permanence sur ce qui se passe autour de nous dans le monde, on n’est pas cohérent. Tout le monde ne va pas s’engager sur tous les sujets, mais si tout le monde s’engageait au moins sur un sujet qui lui tient à cœur, on commencerait à avoir cette capacité à créer de l’émulation un peu ascendante, celle à laquelle on essaye de contribuer. 

Matthieu Guillermin 00:44:50 – 00:44:56 : Est-ce que tu as un invité que tu pourrais suggérer pour Data Driven 101 ? 

Marc Sanselme 00:44:56 – 00:46:19 : Moi, j’encouragerais. Je parlais de Gérald Brunner qui fait ses sujets sur la question du temps d’attention et des algorithmes de recommandation. Ça pourrait être quelqu’un d’assez sympa à entendre. Je ne sais pas s’il serait partant pour revenir. Mais en plus, il y a besoin de ce lien entre des gens qui sont comme nous. On nous dit souvent qu’on est hors sol. Moi, mes amis, quand ils me voyaient faire mes études physiques, philo… À quoi tu sers, quoi ? Bon, après, j’ai eu de plus en plus d’amis universitaires, donc on reste entre nous, mais c’est moins dur pour l’égo. Ils ont un peu raison dans le sens où, parfois, les papiers, tu publies, c’est lu par dix personnes, et puis ton université les contente parce qu’il y a un papier qui est fait, et puis, en fait, le lien ne se fait pas avec le reste. Et ce n’est pas simple de faire ça, et du coup, d’avoir des lieux comme celui que tu organises et que tu animes… où on peut échanger aussi, pas qu’entre business entrepreneurs et nous, on va parler dans nos séminaires, mais qu’il y ait aussi du lien avec des gens qui ont une approche un peu plus théorique, certes, mais qui… Enfin, Gérald Brunner, pour le coup, lui, il essaye vraiment de faire des choses qui sont utiles à la société. Il a mis sur pied, là, tout de suite, des cours un peu universités pour tous. Ça a eu un succès pas possible, quand même médiatisé, mais pour parler de l’esprit critique et des choses comme ça. Et voilà, alors ça pourrait être lui, ça pourrait être d’autres personnes, mais dans ce profil-là, ce sera intéressant. 

Matthieu Guillermin 00:46:19 – 00:46:20 : Merci beaucoup Mathieu. 

Marc Sanselme 00:46:20 – 00:46:20 : Merci à toi.