Avez-vous confiance en l’ intelligence artificielle?

En toute franchise - jusqu'où faites-vous confiance à l'intelligence artificielle (IA)?

Dr. Samuel Klaus, Partenaire TIC, Schellenberg Wittmer Avocats

L'algorithme de Netflix, vous suggérant le film à voir prochainement vous ferait sans-doute « cliquer ». Cependant confierez-vous à une IA le soin de gérer seule votre portefeuille boursier ? Ou encore dans la perspective d’une intervention médicale, vous fierez-vous à une analyse d’IA ? Vous n’irez sans doute pas aussi loin, car aujourd'hui les systèmes d’IA demeurent souvent des "boîtes noires" et nous hésitons à leur faire confiance.

L'intelligence artificielle ne désigne pas une technologie spécifique mais plutôt un terme générique pour de nombreuses méthodes qui simulent les capacités cognitives à l'aide de modèles statistiques. C'est sur la base d'une grande quantité de données non structurées (Big Data) qu'un algorithme approprié reconnaît certains schémas et en tire une conclusion. L'IA est applicable dans de nombreux secteurs, notamment dans la fabrication industrielle (Industrie 4.0), dans le secteur de l'énergie (Smart Grid), dans le secteur de la santé (Medtech) ou encore dans l'administration publique. Toutefois, une telle approche n'est possible que si les fournisseurs et les clients, les utilisateurs et les parties concernées sont convaincus de l'exactitude, de la fiabilité et de la pertinence des résultats fournis par l'IA. La confiance en l'IA est un facteur décisif pour la réussite de son utilisation. Comment y parvenir ?

Développer la confiance grâce à des normes et des standards

La réglementation offre d’emblée un climat de confiance. Cependant, pour les domaines techniques qui évoluent rapidement, les réglementations gouvernementales ne sont généralement pas très adaptées et peuvent difficilement être mises en œuvre dans des délais satisfaisants. Pour les questions essentielles (telles que la responsabilité), des règles supplémentaires sont parfois requises - toutefois seules les normes juridiques en vigueur sont applicables à la nouvelle technologie. Néanmoins, le fait de savoir qu’il est possible en cas d'erreur d'IA, d’obtenir des dommages et intérêts ne suscite pas la confiance.

Les normes internationales se révèlent souvent plus efficaces que la réglementation étatique. Pour que les systèmes d'IA puissent être utilisés de manière sûre et fiable, il faut disposer d’un champ d’action précis, de critères d'assurance qualité et de lignes directrices en matière d'audit. Plutôt que de recourir à de lourdes réglementations juridiques, il est conseillé d’appliquer les normes et standards internationaux. Les standards ainsi définis peuvent à leur tour être intégrés dans les contrats internationaux et les réglementations nationales.

L'élaboration de telles normes d'IA est actuellement en cours dans les principaux instituts de normalisation. Cela permettra de créer les bases pour la définition de normes spécifiques. Au niveau international, l'Organisation internationale de normalisation (ISO) et la Commission électrotechnique internationale (CEI) ont publié en mai dernier un rapport technique (ISO/IEC TR 24028:2020) avec un "Aperçu de la fiabilité de l'intelligence artificielle". Dans ce rapport, outre des clarifications terminologiques, les faiblesses éventuelles et la possibilité d'erreur des systèmes d'IA sont analysées et des contre-mesures appropriées sont examinées. Un comité spécialement mis en place par l'ISO et la CEI est chargé de poursuivre les travaux sur les sujets liés à l'IA. À moyen terme, des normes opérationnelles ISO pour le développement, la formation et l'utilisation des systèmes d'IA doivent être créées.

À l’étranger, au niveau national, des efforts de normalisation sont également en cours. Fin août 2020, l'Institut national américain des normes et de la technologie (NIST) a publié le livre blanc "Four Principles of Explainable Artificial Intelligence" (projet NISTIR 8312). Sous le mot-clé "Explainable AI", le document propose quatre principes sur la façon dont les systèmes d'IA peuvent être "expliqués" ainsi que la manière dont leur prise de décision peut être rendue compréhensible. Le NIST acceptera des commentaires liés à ce livre blanc jusqu'à la mi-octobre 2020.

Parallèlement, l'Institut allemand de normalisation (DIN) encourage la normalisation de l'IA, à travers une "feuille de route de normalisation pour l'IA" (prévue pour novembre 2020) assortie de certaines spécifications pour les systèmes d'IA. Ainsi, avec le DIN SPEC 92001-1, un méta-modèle de qualité général pour l'IA a déjà été élaboré. Celui-ci décrit les aspects les plus importants liés à la qualité de l'IA. D'autres spécifications détaillées sont en préparation

La pertinence des standards

Les standards émis par les organisations non-gouvernementales ne sont pas directement contraignantes. Cependant, si elles sont déjà introduites sur un marché, elles sont à prendre en considération dans la mesure où elles reflètent l'état actuel de la technique. Cela leur confère également une valeur juridique, par exemple en tant que valeur de référence pour "pratique généralement admise" ou encore pour la rédaction de contrats (par exemple dans la définition des obligations de prestations, le cadre de responsabilité, etc.). Les fournisseurs de systèmes d'IA se distinguent de leurs concurrents par leur engagement à respecter ces normes. Les clients ont la possibilité de stipuler contractuellement le respect de certaines normes, par exemple pour répondre aux exigences de leur système de contrôle interne (SCI), de la gestion des risques, ainsi que pour la fourniture d’informations transparentes et vérifiables à l’égard de leurs clients.

Bien que le statut de normalisation actuel ne permette pas encore la certification directe des systèmes d'IA (par exemple, comme un certificat ISO 9001), il existe déjà de nombreuses lignes directrices. Les entreprises ayant recours à des systèmes d'IA devront se familiariser avec les principes qui y sont décrits. Elles devront adapter leur SCI, leurs processus internes et au besoin leurs réglementations et veiller à ce que des clauses contractuelles appropriées soient mises en vigueur. En outre, le développement et la transformation des principes généraux en normes concrètes sont à suivre attentivement. Cela s'applique à toutes les entreprises dont les activités consistent à créer, distribuer ou utiliser des systèmes d'IA et pour lesquelles la fiabilité de ces systèmes est à garantir et à prouver au besoin.