Robot chirurgical Da Vinci

Au Luxembourg, la première plate-forme chirurgicale, équipée d’une vision 3D haute définition et de micro-instruments chirurgicaux articulés, a été installée aux Hôpitaux Robert Schuman au Kirchberg. Fabriqué par l’entreprise américaine Intituitive Surgical, le système se composait de deux consoles : un pupitre de commande (joystick), avec vision en 3D haute définition, et un manipulateur avec quatre bras. Le système était conçue pour aider les chirurgiens à dépasser les limites de la chirurgie laparoscopique (invasion moyennant des petites incisions) et effractive conventionnelle. Bien qu’on l’appelait robot chirurgical, le système da Vinci ne pouvait pas agir tout seul ; l’intervention était entièrement effectuée par un chirurgien, du début à la fin. À l’époque, le terme télémanipulateur chirurgical était plus appropriée que robot.

Le dernier modèle du système Da Vinci, la version 5, est équipé de plusieurs outils IA qui ne le rendent pas encore autonome (il n’agit pas sans intervention humaine), mais qui permettent une assistance intelligente, une formation optimisée et une sensibilité améliorée via feedback haptique et visuel.

En mi-2025, environ 9.500 systèmes Da Vinci étaient installés au monde et le nombre total d’interventions chirurgicales effectuées jusqu’à présent est estimé à environ 17 millions. Les Hôpitaux Robert Schuman disposent actuellement de deux systèmes, le Centre Hospitalier de Luxembourg et le Centre Hospitalier Emile Mayrisch chacun d’une plateforme Da Vinci. Les disciplines qui bénéficient de ces équipements sont notamment la chirurgie générale et digestive, la chirurgie vasculaire et thoracique, l’urologie et la chirurgie gynécologique. 

IA dans l’école fondamentale

Le présent projet constitue une idée fantaisiste, décrit par un humain et illustrée par un générateur d’images IA. Même s’il s’agit actuellement uniquement d’un projet décrit sur papier, il convient de souligner que toutes les technologies utilisées et toutes les compétences nécessaires pour mettre cette idée en pratique sont actuellement disponibles au Luxembourg.

Pour présenter l’utilité d’un robot dans l’école, Je me suis concentré sur l’intégration de l’IA dans l’enseignement fondamental. Comme son nom l’indique, c’est à ce niveau que sont posées les bases essentielles de l’apprentissage chez l’enfant. J’ai ainsi conçu un projet dans lequel l’IA est intégrée à un robot dont l’apparence s’inspire du Nabaztag, le premier objet connecté grand public, lancé il y a une vingtaine d’années. Le robot, de la taille d’un enfant de 10 ans, est représenté dans les images jointes.

Son apparence familière et non menaçante favorise l’attachement affectif des élèves. Sa taille, comparable à celle d’un enfant, permet d’instaurer une relation pédagogique équilibrée, ni autoritaire, ni infantilisante. Sa capacité à dialoguer en langage naturel (via reconnaissance et synthèse vocale), son interaction multimodale, l’impression automatique de fiches pédagogiques et la lecture optique des exercices manuscrits facilitent grandement la communication avec les élèves.

Les fonctionnalités essentielles du robot sont les suivantes :

  • Reconnaissance faciale (caméras intégrées dans les yeux)
  • Traitement du langage naturel (microphone et haut-parleur dans la bouche)
  • Lecture de puces via un capteur situé dans le nez
  • Interaction visuelle (écran intégré affichant texte et images)
  • Lecture optique et analyse de documents manuscrits (scanner intégré, fente A)
  • Impression de documents personnalisés (imprimante interne, fente B)
  • Interface de commande manuelle (oreilles pliantes servant de joystick)
  • Mobilité assistée (roulettes permettant le déplacement en classe)

Sur les sentiers du patrimoine UNESCO

Pour adapter mon scénario aux compétences de l’IA générative de l’époque, j’ai décidé de répartir les cinq enfants en deux équipes : la fille ainée formait un groupe avec les deux jumeaux et la fille cadette faisait un team avec son cousin. En outre, les enfants n’ont pas pu emmener leurs animaux de compagnie. Floppy, Blublu, Caramel, Léon et Cocorico ont du rester à la maison. De cette façon c’était possible de dépicter, d’une façon cohérente, les deux bandes avec 2 et 3 personnes dans des images générées par IA.

Au niveau de la description du voyage, j’ai remplacé l’expédition, avec des imprévues et des complications à travers le monde, par une exploration bien organisée de plusieurs destinations, définies au préalable, dans différents pays. De cette manière ChatGPT a pu mettre en valeur ses riches connaissances du monde, sans devoir trop réfléchir. Malgré ses compétences impressionnantes pour programmer des applications informatiques ou pour résoudre des problèmes logiques, le raisonnement n’était pas encore le trait le plus fort de ChatGPT en fin d’année 2023.

Plongée en Australie : VIDU

Lors de la publication de mon livre Les Jeunes Explorateurs, j’avais promis de réaliser dans la suite un film court, sans caméra, de quelques aventures des protagonistes. Fin 2024, les technologies IA de génération de vidéos étaient suffisamment avancées pour me lancer dans ce projet. J’ai choisi comme outil IA des générateurs image2video qui créent des séances vidéo de courte durée, à partir d’images de référence et de descriptions (text2video) en langage naturelle (prompts) concernant l’animation de chaque scène.

Les images de référence, spécifiées au début de chaque scène, ont été générées sur la plateforme luxembourgeoise LetzAI. Après le montage manuel du film dans un éditeur vidéo classique, j’ai chargé le film dans ChatGPT et demandé de rédiger un récit pour raconter l’aventure avec une voix off. J’ai généré les sons avec l’outil IA Meta Audiobox et pour la voix off, j’ai sélectionné une voix synthétique française masculine dans la librairie publique de l’entreprise ElevenLabs.

Le premier outil de génération vidéo que j’ai testé était VIDU Studio. L’outil d’IA VIDU a été développé par la startup chinoise Shengshu Technology, en collaboration avec l’Université Tsinghua à Pékin. VIDU a été officiellement lancé en juillet 2024. Sur le plan technique, le cœur du système repose sur une architecture appelée U‑ViT (Universal Vision Transformer), développée par le scientifique en chef Jun Zhu et son équipe.

https://youtu.be/jkGYfadSB_U?si=9Vka4PQ3WQbDrt_q

Louis Ducos du Hauron (LDH) à Luxembourg

En 2021, je me suis servi de plusieurs outils d’intelligence artificielle (IA) de première génération pour créer une vidéo fiction au sujet d’une visite de Louis Ducos du Hauron (LDH) à Luxembourg en 1862.

Pour animer une ancienne photo noir et blanc de LDH et pour créer une vidéo de sa visite à Luxembourg, j’ai utilisé les outils IA suivants :

  • animation faciale
  • synthèse vocale
  • coloration de photos noir et blanc
  • création de musique

On peut considérer la vidéo comme un exemple de deepfake, sauf que dans mes publications, j’avais expressément souligné qu’il s’agit d’une fiction.

C’est peu connu que LDH est le vrai inventeur de la photographie en couleur. Il y a quelques années c’étaient les frères Lumière qui ont été référencés partout sur Internet comme les inventeurs. Le succès des larges modèles IA de langages (LLM) a contribué à une correction d’informations erronées dans les archives publics. En mi-2025, j’ai demandé à ChatGPT qui est l’inventeur de la photographie en couleurs. Contrairement à sa fausse réponse il y a deux ans, l’IA a confirmé maintenant qu’il s’agit de Louis Ducos de Hauron.

Copie écran de mon dialogue avec ChatGPT-4o

Harold Cohen : AARON

Harold Cohen

Créateur d’AARON, le premier programme informatique de dessin

Harold Cohen fut un pionnier à la croisée de l’intelligence artificielle et des arts visuels, créant en 1972 AARON, un programme informatique révolutionnaire conçu pour générer de manière autonome des peintures et des dessins. Son approche novatrice mêlant créativité computationnelle et art traditionnel lui valut une renommée internationale, avec des œuvres présentées dans de nombreuses expositions au sein de musées prestigieux à travers le monde. En reconnaissance de ses contributions, Cohen reçut de multiples distinctions au cours de sa carrière.

Né au Royaume-Uni en 1928, Cohen s’installa aux États-Unis, où il partagea son expertise et sa passion pour l’art et la technologie à l’Université de Californie de 1968 jusqu’à sa retraite en 1998. Même après avoir pris sa retraite, il continua de s’impliquer activement dans le développement d’AARON, enrichissant sans cesse ses capacités et sa complexité. Le programme, initialement développé en C, fut par la suite réécrit en LISP afin de tirer parti des fonctionnalités puissantes de ce langage pour le développement de l’intelligence artificielle.

Harold Cohen en 1995

Dans les semaines précédant son décès en 2016, Cohen se lança dans un nouveau projet ambitieux avec AARON, intitulé « Fingerpainting for the 21st Century » (Peinture au doigt pour le XXIe siècle). Si, dans les premières années, il utilisait des traceurs x-y pour donner vie aux créations d’AARON, il mit au point dans les années 1990 une série de machines de peinture numérique. Cette évolution continue du médium le conduisit à utiliser des imprimantes à jet d’encre, puis des écrans tactiles dans son dernier projet, cherchant toujours à fusionner technologie et essence tactile de la peinture.

OzoBot n’aime pas la complexité

Ozobot est un petit robot éducatif conçu pour initier les enfants (et les débutants en général) à :

  • la programmation,
  • la robotique,
  • la pensée logique,
  • et la résolution de problèmes.

Le robot est de petite taille ( environ 2,5 cm de diamètre) et grâce à son capteur optique intégré il peut suivre des lignes tracées au feutre noir ou en couleur sur du papier. Par exemple, des codes-couleurs rouge + vert sur le chemin instruisent le robot d’accélérer, d’autres codes se réfèrent à un changement de direction, un arrêt temporaire, l’émission d’une mélodie etc.

Le développement d’OzoBot a démarré en 2012. Un premier prototype a été dévoilé à la Consumer Electronics Show (CES) de Las Vegas en janvier 2014. Le lancement commercial a eu lieu en automne 2014 au prix initial d’environ 60 US $.

J’avais montré à mes petits-enfants comment tracer un parcours sur une feuille avec un feutre noir, incluant des rectangles colorés, pour programmer le petit robot OzoBot. Mes exemples de circuits sont présentés en haut de la figure à gauche ci-après. Les parcours tracés par mes petits-enfants sont affichés en bas. Le petit robot à perdu sa tête en circulant dans les escaliers, loopings et courbes dessinés. Décidément les enfants aiment la complexité.

Détection de Covid-19 par IA

En juin 2020, le LIST (Luxembourg Institute of Science and Technologie) avait démarré un projet de détection de Covid-19 par une analyse de la toux et de la voix, en collaboration avec l’université du Luxembourg et avec le LIH (Luxembourg Institute of Health). L’objectif du projet, appelé CDCVA, consistait à développer un diagnostic à distance pour les professionnels de santé, tout en minimisant les risques liés aux contacts physiques entre le personnel et les patients. Pour le développement du système de détection de signatures vocales propres à la COVID-19, les chercheurs collectaient un large ensemble de données d’enregistrements de voix et de toux. Ces données étaient traitées alors pour éliminer tout bruit parasitaire et pour les analyser par des méthodes avancées d’apprentissage automatique IA.

Le projet a été financé par le FNR (Fonds National de la Recherche) et coordonné par Muhannad Ismael, chercheur syrien au LIST. Les résultats ont été publiés fin 2021 dans le journal scientifique Computers in Biology and Medicine.