10 minutes de lecture

Jean-Marc Labat, Professeur émérite, Lip6, Sorbonne Université, propos recueillis par Jean-Louis Dayan

Pour les uns, c’est la science des algorithmes, pour les autres une armada de machines capables d’apprendre et de décider, pour d’autres encore le triomphe de Big Brother, la victoire annoncée des robots ou la promesse d’une humanité « augmentée ». Pour y voir plus clair, Metis a interrogé Jean-Marc Labat, professeur des universités émérite en informatique, spécialiste de l’intelligence artificielle.

da

Que faut-il donc entendre par intelligence artificielle (IA) ?

Labat

Jean-Marc Labat, Professeur émérite, Lip6, Sorbonne Université

Jean-Marc Labat : L’idée de créatures artificielles capables de reproduire l’intelligence humaine hante nos mythes depuis l’Antiquité. En tant que projet scientifique, l’intelligence artificielle est beaucoup plus récente : son acte de naissance remonte à la conférence organisée à Darmouth (États-Unis) en 1956, quand d’éminents cogniticiens et cybernéticiens (la cybernétique ancêtre de l’informatique) postulent que « chaque aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut être si précisément décrit qu’une machine peut être conçue pour le simuler ». C’est le point de départ d’un projet de recherche qui vise à comprendre la cognition humaine pour la reproduire. Pour ce faire s’offrent deux approches :

– L’intelligence artificielle symbolique, qui entend analyser le raisonnement humain sur la base de l’interrogation d’experts puis tenter de le reproduire au moyen de systèmes numériques ;

– L’intelligence artificielle numérique qui s’en remet d’emblée à la conception d’algorithmes basés sur la puissance de calcul des machines. Il s’agit de reproduire des activités humaines, mais par des méthodes propres à la machine (de même qu’un avion et un oiseau ne volent pas par les mêmes méthodes).

L’IA ne saurait donc se réduire à la science des algorithmes : même si son développement s’est beaucoup appuyé sur celui des machines de calcul, elle est née d’un projet principalement conçu par des psycho-cogniticiens.

Au fil du temps, les deux approches n’ont pas connu le même développement. L’intelligence artificielle symbolique a vite montré ses limites, qui tiennent à une raison simple : l’homme a du mal à reproduire ses propres mécanismes cognitifs. C’est donc l’IA numérique qui a pris le pas, particulièrement à compter des années 2000, portée par deux mouvements :

  • La considérable montée en puissance des capacités de calcul des ordinateurs, désormais capables de traiter d’énormes matrices de données
  • L’accroissement spectaculaire du volume de données numériques disponibles (« Big Data »).

Pas de révolution en revanche en matière d’algorithmes, construits dès l’origine sur le modèle des « réseaux de neurones », et qui restent aujourd’hui analogues à ceux en usage il y a 40 ou 50 ans, mais bien sûr avec des améliorations importantes comme dans les algorithmes d’apprentissage profond (« deep learning »).

Un bon exemple du triomphe de l’IA numérique est celui de la traduction automatique. L’approche de l’IA symbolique consistait à comprendre et modéliser les structures de la phrase, là où l’IA numérique se contente de mesurer des corrélations entre occurrences linguistiques. Voilà d’ailleurs pourquoi il convient de relativiser la notion d’intelligence artificielle ; certains considèrent même qu’on ne devrait pas parler à son sujet « d’intelligence » stricto sensu, puisqu’elle repose sur la répétition et l’apprentissage automatique. Les « Carrefours intelligents » ne le sont par exemple pas tant que ça : ils se contentent de modéliser des flux de circulation automobile à partir d’un grand volume de données observées et numérisées. Finalement, l’IA n’est souvent qu’une gestion de l’information menée, autant que possible astucieusement, sur la base de données correctement constituée et de métadonnées définies par des humains.

Numérique ou symbolique, l’intelligence artificielle est-elle un métier ?

Dans les années 1990, le principal métier était celui « d’Ingénieur cogniticien », en référence à l’IA symbolique. Le terme n’est plus de mise aujourd’hui, où l’on parle la plupart du temps de « Data Scientist ». C’est par exemple le cas à l’Ecole Centrale qui offre désormais à ses élèves ingénieurs une option de sortie sous cet intitulé. Le métier de Data Scientist englobe toute une série de compétences : maîtriser l’informatique, bien sûr, mais aussi concevoir et modéliser les données en amont des traitements, les « nettoyer » (les données peuvent être incomplètes, inutiles, aberrantes…), concevoir l’architecture générale du système, concevoir ou choisir les algorithmes d’apprentissage machine qui sont pertinents dans le contexte. En revanche, il n’exige pas de savoir « mettre les mains dans le cambouis » du travail proprement informatique (programmation, codage).

Il s’agit donc pour beaucoup de compétences d’ingénieur, les savoirs plus techniques n’étant souvent requis que pour réaliser le système global, mettre les données aux standards internationaux, ou parfois mixer des données multimodales quand il y a de multiples capteurs (par exemple pour la conduite automatisée d’un véhicule). Tous les spécialistes de l’IA ne sont donc pas des informaticiens, et réciproquement : on trouve des informaticiens qui se spécialisent dans l’IA, mais aussi des mathématiciens et des chercheurs qui se forment à l’usage des algorithmes.

Ça reste dans tous les cas une affaire de spécialistes et de diplômés. Si la « littératie numérique » figure désormais à part entière dans le socle de « compétences-clés » dont devrait être doté tout un chacun, elle se limite à savoir utiliser les outils, comprendre les informations et créer des contenus numériques, toutes compétences loin de l’expertise exigée en matière d’IA.

Où s’apprend l’intelligence artificielle ?

Souvent comme, je l’ai dit, dans les écoles d’ingénieurs, nombreuses à développer des spécialités comme celle de Data Scientist. Mais aussi à l’Université, en licence où il ne s’agit que d’une introduction générale, mais où les Masters d’IA se sont multipliés dans la période récente au sein du champ disciplinaire de l’Informatique.

On voit aussi se développer en France des filières mixtes issues d’une alliance entre universités ou grandes écoles d’un côté, organismes de formation à distance de l’autre (OpenClassrooms par exemple), qui offrent des MOOC d’intelligence artificielle sous la supervision et avec l’accompagnement d’enseignants du supérieur. Il peut s’agir de formations légères d’adaptation ou de perfectionnement qui ne débouchent pas sur un titre, ou de formations longues et diplômantes avec un accompagnement humain — donc plus chères : de l’ordre de 4 000 euros l’année.

Existe-t-il en regard de ces filières un marché du travail pour les Data Scientists ?

Bien sûr, et c’est même un marché très tendu. Il y a aujourd’hui partout en France pénurie de Data Scientists (ou Data Analysts), comme si l’offre de formation restait insuffisante pour répondre aux besoins ; attention cependant aux effets de mode. Ce ne sont pas seulement les compétences très avancées en IA qui sont recherchées. Ce que les entreprises recherchent le plus ce sont des compétences de traitement de données (ces données qu’on considère parfois comme « le pétrole du XXIe siècle »), par exemple pour réaliser des études de marché en vue de l’implantation d’unités de production, de vente ou de service (pharmacie, salle de sport…). De telles études se mènent aujourd’hui à grande échelle, si bien que tout le monde a besoin de traiter des masses de données numériques, en mettant ça sous le chapeau du « Data scientist ». Le recueil et l’analyse de données y sont devenus des compétences essentielles.

Pour autant, il ne semble pas se constituer un secteur spécifiquement dédié au traitement des données, comme cela a été le cas pour les services informatiques avec le développement des sociétés de services en ingénierie informatique (SS2I). Ce sont plutôt les entreprises consommatrices d’IA qui cherchent à recruter directement les compétences nécessaires.

Quels sont en pratique les principaux domaines d’application de l’IA ?

Dans son récent rapport (« Donner un sens à l’intelligence artificielle », mars 2018), Cédric Villani identifie quatre grands domaines d’application de l’IA : la santé (c’est d’actualité !), le transport et les mobilités, l’agriculture et l’environnement, la défense et la sécurité. Les usages de l’IA y sont déjà relativement opérationnels, et il appelle à y investir encore massivement. Il y ajoute un focus sur l’éducation, où l’IA est appelée à « transformer les politiques éducatives » dans leurs différents volets.

Pour autant il s’agit d’un rapport principalement orienté vers l’industrie : à aucun moment il n’est question pour son auteur de développer l’IA pour elle-même, un choix qui à mon avis pourrait se défendre. J’ai eu par moment en le lisant le sentiment qu’il reflétait une attitude répandue chez les « matheux », qui tendent souvent, au moins jusque dans un passé récent, à considérer l’Informatique plus comme une technologie que comme une véritable science.

Ce même rapport consacre une de ses parties aux questions éthiques soulevées par l’IA. Qu’en est-il de votre point de vue ?

Il y a deux méthodes possibles d’apprentissage machine : l’apprentissage « supervisé », où on indique à l’avance à la machine ce qui est un « bon » résultat et ce qui ne l’est pas, et l’apprentissage « non supervisé », où on ne lui dit rien du tout. Plusieurs exemples (de l’apprentissage du calcul en primaire au robot joueur de Go) montrent que c’est la seconde méthode qui obtient les meilleurs résultats. Dit autrement, c’est l’algorithme sans connaissance humaine ajoutée qui marche le mieux. Une question reste cependant ouverte : l’IA sans connaissances humaines marche bien quand il n’y a que peu de concepts en jeu, mais qu’en est-il quand de multiples concepts interagissent, ce qui est tout de même le cas de la plupart des situations humaines ?

Pour moi, le problème éthique principal en IA vient de ce que, quand ils sont appliqués, ses algorithmes donnent généralement de bons résultats, mais ne savent pas les expliquer. En d’autres termes, on ne sait pas ce que l’IA apprend grâce aux algorithmes, mais on sait qu’elle peut apprendre des bêtises ou des absurdités. J’ai en tête à ce propos l’exemple d’un algorithme conçu lors de la guerre dans l’ex-Yougoslavie pour reconnaître sur des images vidéo des chars sortant d’un bois. Parfois il marchait bien, parfois il se trompait, sans que l’on sache pourquoi jusqu’à ce qu’on comprenne que la machine avait appris non pas à reconnaître les chars, mais à distinguer si les photos servant à l’apprentissage machine supervisé avaient été prises au soleil ou à l’ombre !

Tout ça n’est pas étonnant. On dit que la machine « apprend », mais ce qu’elle apprend, ce ne sont que des coefficients de corrélation entre les différentes variables qu’elle calcule à partir de l’analyse des données. Ou si l’on préfère, des « poids » statistiques attribués aux différents facteurs qui vont déterminer un résultat.

Voilà pourquoi il n’est pas possible dans le domaine de l’humain de s’en remettre aux seuls algorithmes sans comprendre ce qui s’y passe, et comment ils aboutissent aux résultats qu’ils produisent. C’est particulièrement évident dans le domaine de la décision médicale. Pour comprendre le pourquoi, l’idéal serait d’établir une synergie entre les deux IA, symbolique et numérique. Dans l’enseignement, cela veut dire laisser le choix final à l’enseignant. Et en médecine, comme le recommande le rapport Delfraissy, reconnaître au patient le droit d’accéder aux données et de recevoir des explications fournies par un humain. Bref, partout c’est l’humain qui doit garder le contrôle, car il garde in fine la responsabilité des décisions prises.

Un autre enjeu éthique de taille est celui des données. L’IA traite une masse énorme de données personnelles, qui doivent impérativement rester anonymes si l’on veut protéger la vie privée et les droits des personnes, qu’il s’agisse de patients, d’élèves, de consommateurs ou de citoyens. Ça n’est pas du tout gagné face à la prétention que montrent beaucoup de propriétaires de logiciels d’IA de garder la propriété des données qu’ils ont collectées. Heureusement, une telle appropriation est proscrite en France et en Europe par le RGPD.

Il y a aussi la question de la constitution du corpus des données (les Américains parlent ici de « fairness »). En IA, la machine acquiert de l’expertise sur la base de traitements statistiques, donc de grands nombres ; ce faisant elle risque d’exclure des groupes dont les effectifs pèsent peu dans la population traitée. On pense bien sûr aux groupes ethniques minoritaires, ou encore aux handicapés. Le principal danger est celui du biais statistique qui peut conduire à sous-estimer, voire ignorer la situation spécifique de personnes trop peu nombreuses à l’aune de la théorie des grands nombres. Or l’une des fonctionnalités majeures de ces algorithmes est de faire des prédictions ; aux USA, des chercheurs ont montré par exemple que la prédiction des taux de récidive chez les délinquants était biaisée entre les populations noires et blanches.

Voilà pourquoi nous accordons beaucoup d’importance aux enjeux éthiques de l’IA dans nos enseignements, particulièrement à celui de « l’explicabilité » des résultats.

Pour en savoir plus :

« Donner un sens à l’intelligence artificielle – Pour une stratégie industrielle et européenne », rapport de Cédric Villani au Premier ministre, mars 2018

« Numérique et Santé : Quels enjeux éthiques pour quelles régulations ? », rapport du CCNE-CERNA, novembre 2018

« La souveraineté à l’ère du numérique – Rester maîtres de nos choix et de nos valeurs », avis du CERNA, mai 2018

« Pourquoi parle-t-on de biais en machine learning ? », Charles Corbière, La Data en Clair, 25 juin 2018

Print Friendly, PDF & Email
+ posts

Socio-économiste, Jean-Louis Dayan a mené continûment de front durant sa vie professionnelle enseignement, étude, recherche et expertise dans le champ des politiques du travail, de l’emploi et de la formation. Participant à des cabinets du ministre du travail, en charge des questions d’emploi au Conseil d’analyse Stratégique, directeur du Centre d’Etudes de l’Emploi… Je poursuis mes activités de réflexion, de lectures et de rédaction dans le même champ comme responsable de Metis.