David Sadek (Thales) : "L’IA doit faire exactement ce qu’on attend d’elle. Ni plus, ni moins"
Décideurs. Sous différentes lumières, votre parcours chez Orange, à l’IMT, et votre présidence d’un des comités d’évaluation scientifique de l’ANR, vous ont permis d’appréhender l’ensemble de la chaîne de l’innovation, de la recherche jusqu’au client final. Au regard de ces expériences, quelles sont vos forces pour guider la recherche et l’innovation chez Thales ?
David Sadek. Pendant vingt ans au cœur de la R&D d’Orange, j’ai été aux premières loges de l’innovation autour de l’IA et des systèmes de dialogue intelligents. Puis, au sein de l’IMT (Institut Mines-Télécom) et à travers mon implication dans France IA – la stratégie nationale sur l’Intelligence Artificielle, j’ai eu l’occasion de pratiquer l’univers de la recherche publique, ainsi que ses politiques nationales et européennes. Cette double culture managériale est aussi enrichie par mon expérience de jurys de sélection de projets, et notamment de celle du comité d’évaluation du programme "Contenus numériques & interactions" de l’ANR (Agence nationale de la recherche). Chaque année, ce comité d’une trentaine de personnes devait classer en trois jours jusqu’à 150 soumissions de projets. Avec une méthodologie pratiquement algorithmique, nous devions pondérer différents critères afin de pouvoir étayer un consensus final.
Le pilotage de l’innovation s’orchestre conjointement entre deux critères : l’excellence d’un projet, mais également sa pertinence par rapport au marché. Or, chez Thales, de nombreux domaines d’activité, notamment ceux liés à la défense, s’inscrivent dans des tendances aussi lourdes que longues. Dans ces secteurs régulés à l’extrême, il m’incombe aussi de détecter les signaux faibles et les perspectives de rupture afin de laisser mûrir des innovations, ou d’élaguer les projets non prometteurs. Et, quelques années plus tard de confronter la pertinence de cette sélection aux besoins du marché.
En matière d’intelligence artificielle, quelle feuille de route avez-vous suivi ?
Dans la stratégie numérique de Thales, l’IA constitue l’un des quatre piliers technologiques, tout en s’articulant avec les trois autres : le Big Data, l’IoT ("Internet of Things") et la connectivité, et la cybersécurité. Concrètement, les technologies d’IA pénètrent progressivement tout l’univers du numérique. Parce que nos logiciels, tel que le FMS ("Flight management system"), sont conçus pour des situations où la vie humaine est en jeu, notre IA embarquée ne pourra tolérer aucune erreur. Dans ces systèmes critiques, l’IA doit faire exactement ce qu’on attend d’elle. Ni plus, ni moins. D’où notre stratégie d’IA de confiance, synthétisée par le moto "Thales TrUE AI" (en anglais, "Transparent ", "Understandable" et "Ethical"), dont l’optique est d’assurer traçabilité, intelligibilité et éthique dans nos solutions d’intelligence artificielle.
"Quatre grands défis technologiques formalisent cette IA de Confiance : la validité, l’explicabilité, la sécurité et la responsabilité des systèmes"
Quatre propriétés, autrement dit quatre grands défis technologiques, formalisent cette IA de confiance : la validité, l’explicabilité, la sécurité et la responsabilité des systèmes. En premier lieu, complétude et consistance des algorithmes déterminent la validité des systèmes. Puis, lors d’interactions avec l’humain, une recommandation à un pilote par exemple, l’IA doit savoir non seulement se justifier en temps réel, mais également communiquer dans des délais et un langage adéquats au contexte, en tenant compte par exemple du niveau de stress et de la charge cognitive perçus de l’interlocuteur. La validité des systèmes est une garantie de leur sûreté de fonctionnement. La sécurité des algorithmes est leur résistance et capacité de résilience à toute forme de malveillance et notamment à des cyber-attaques telles que des leurres, dont les effets peuvent être délétères. Enfin, la responsabilité des systèmes se traduit par la conformité de l’IA, dès son processus de conception, à des cadres exogènes, légaux ou régulatoires, ou à des principes éthiques, tels que la détection de biais dans les corpus d’apprentissage, ou encore dans le fait de privilégier une certaine frugalité dans la quantité de données utilisées ou dans l’énergie consommée.
Au sein de cette notion d’éthique intégrée à l’IA, Thales distingue une composante environnementale. Comment les initiatives "Green AI" et "AI for Green" se déclinent-elles au sein du groupe ?
En raison de contraintes dites de SWaP ("Size, Weight and Power") pour l’IA embarquée, au sein d’un cockpit d’avion par exemple, nous sommes amenés à nous conformer à des limites énergétiques. Notre initiative "AI for Green" reflète notre volonté de créer des solutions toujours plus respectueuses de l’environnement. Si chacun sait que l’IA permet d’optimiser le séquencement des avions dans la phase d’approche d’un aéroport, afin de réduire le temps d’attente en vol et par là-même la consommation de carburant, nous travaillons également à son application pour optimiser les trajectoires en vol. L’accumulation de trainées humides, ces sillons de nuage caractéristiques et visibles à l’œil nu, contribue à l’effet de serre. Des analyses sur ce sujet tendent à montrer qu’un accroissement de quelques pourcents de la consommation de carburant, afin d’adapter une trajectoire de vol, permettrait une réduction de 50 % des traînées humides.
En parallèle à cet impact environnemental allégé, l’IA, en tant que technologie numérique, reste elle-même consommatrice d’énergie et productrice d’une empreinte carbone non négligeable. Pour cette raison, Thales travaille également à rendre l’IA plus verte, avec l’initiative "Green AI". Guidé par notre charte éthique du numérique, un impératif de frugalité énergétique est pris en considération dès le lancement des projets, lorsque nous évaluons par exemple les ressources de calcul requises. De même, dans l’esprit du Smart Data plutôt que du Big Data, nous développons des approches dites d’apprentissage frugal, à savoir des techniques et algorithmes d’IA utilisant aussi peu de données que possible.
Chiffres à l’appui, nous respectons notre cadre éthique et en présentons le bien-fondé à nos clients et partenaires, chez qui nous recherchons des compatibilités de principes, vers des bénéfices et des impacts environnementaux les plus positifs qui soient en matière de digital et d’IA.
Quelles sont vos priorités dans la mise en œuvre de cette IA de confiance ?
Non seulement chez Thales, mais dans l’ensemble de l’industrie française – voire européenne, nous voulons industrialiser le processus de mise en œuvre de solutions opérationnelles à base d’IA. Dans le cadre du Grand Défi National "Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle", Thales est particulièrement fier de présider le comité de direction du programme Confiance.ai. Créé en 2020, ce programme réunit neuf grands industriels du Cac 40, parmi lesquels Airbus, Air Liquide et Sopra Steria, ainsi que des instituts de recherche tels que le CEA (Commissariat à l'énergie atomique) et l’Inria, et deux IRT (Instituts de Recherche Technologique) : SystemX à Saclay et Saint-Exupéry à Toulouse. Plus récemment, le programme s’est adjoint également une constellation de start-up prometteuses du monde de l’IA.
"Unique en son genre, Confiance.ai est le seul programme d’envergure nationale à vocation industrielle"
Unique en son genre, Confiance.ai est le seul programme d’envergure nationale à vocation industrielle. En alignement avec les feuilles de route des industriels qui le composent, il a pour but de développer une ingénierie de l’IA de confiance en fournissant les outils, méthodes et processus pour soutenir son intégration dans des solutions opérationnelles. Cette industrialisation de l’IA devra permettre une plus grande fluidité sur l’ensemble de sa chaîne d’ingénierie et une marche plus rapide vers un horizon où les industriels français deviendraient, dans leurs secteurs respectifs, les champions du AI to business.
Propos recueillis par Alexandra Bui