Intelligence Artificielle et enjeux d'ordre civilisationnel

La seconde guerre mondiale, durant laquelle de nouveaux calculateurs ont été élaborés, inspire la vision “d’un nouveau monde” principalement administré par le Calcul. 

Après avoir participé à la lutte contre le fascisme, le philosophe et mathématicien américain Norbert Wiener publie en 1948 “Cybernetics or control and communication in the animal and the machine” – qui présente un ensemble d’idées relatives au développement de technologies capables de remplacer certaines fonctions mentales de l’être humain -“. (Ronand Le Roux, P 40, “Cybernétique et société”, Norbert Wiener, Ed Points, janvier 2014)

En substance, l’Homme y est envisagé comme “un système qui assimile des informations“, la pensée comme l’entité qui “traite les données” ; quant au cerveau, il est comparé “à un circuit composé de nœuds et de boucles de contre-réaction”.

Il est rappelé qu’à cette époque, Norbert Wiener fait l’objet d’une surveillance accrue par les services secrets, directement par John Edgar Hoover du FBI. 

Ainsi, au-delà de la technique, la création de l’automate cybernétique comporte, déjà, des enjeux (géo)-politiques. 

Le 28 décembre de la même année, le journal Le Monde publiait sous la plume de Dominique Dubarle, philosophe, physicien et aumônier Dominicain de l’Union catholique des scientifiques français, un article intitulé “Vers la machine à gouverner“. 

En 1949, après l’élaboration par Warren McCulloch du modèle mathématique du neurone (dénommé neurone formel) le neurologue Donald Hebb, “crée une règle” qui deviendra à la fin du siècle “la colonne vertébrale de la recherche sur l’IA” (l’intelligence artificielle) : celle “permettant de doter les neurones formels de capacités d’apprentissage.” (4) 

L’année suivante, c’est un Britannique qui entre dans l’histoire. En octobre 1950, le mathématicien Alan Turing invente un test, sous la forme d’un jeu d’imitation, qui permet d’évaluer les machines dites pensantes encore appelées “cerveaux artificiels”. 

Il faudra attendre 1956 pour que l’expression “Intelligence artificielle” apparaisse (elle est notamment attribuée à l’Américain John McCarthy), puis, 1958 pour que soit lancé le défi, qu’un jour, un ordinateur serait capable de battre un champion du monde d’échecs.

Cette performance, qui a lieu près de quarante ans plus tard, remet l’IA au centre des débats. 

S’y ajoute l’arrivée du Web 2.0 avec lequel les moteurs de recherche et les GAFAM investissent massivement dans des programmes de recherche (ce qui engendre/génère des avancées considérables). 

Dès lors, l’augmentation continue de la puissance de calcul des ordinateurs, l’apprentissage machine, ainsi que la disponibilité des données en grande quantité font progresser l’IA dans des secteurs aussi divers que la reconnaissance faciale, la justice et la médecine prédictives, les voitures autonomes, les tchat bots, les drones, les armes létales, etc. 

Plus particulièrement, les progrès fulgurants réalisés grâce au déploiement de l’auto-apprentissage permettent à une machine de construire de nouvelles connaissances à partir de sa propre expérience. 

Néanmoins, si la machine arrive à apprendre elle-même de ses erreurs et à en tirer les leçons lui permettant notamment d’augmenter ses performances, il apparaît que la fiabilité des algorithmes qui fondent les décisions prises par ces systèmes est souvent extrêmement discutable (fragmentation, biais, discrimination, exclusion, etc.). 

En outre, pour “les algorithmes issus du paradigme de réseaux de neurones artificiels, en particulier, de l’apprentissage profond (c’est-à-dire comptant plusieurs couches reliées de nœuds qui traitent des informations différentes et qui les agrègent ensuite)” il est souvent impossible pour les ingénieurs d’expliquer le résultat produit dans la mesure où “contrairement au système d’IA raisonnant de façon logico-déductive, il n’est pas possible d’extraire un arbre de décision clair et cohérent”.

Toutes ces problématiques mettent en lumière l’importance de l’intelligibilité des algorithmes, et, plus globalement, celle de l’intégration de fonctions qui permettraient, à tout moment, de reprendre le contrôle sur le système. 

Maxime des Gayets, Conseiller régional d’Ile de France indique “qu’on se plaît à considérer que la domination de la machine sur l’homme constituerait le danger suprême du progrès technologique. Mais ce n’est pas tant ce péril hypothétique mais plutôt ce qui se passe aujourd’hui qui devrait nous inquiéter : la cécité éthique qui nous amènerait à laisser une technologie se diffuser sans en maîtriser les effets”. (Maxime Des Gayets, « La grande dépossession : pour une éthique numérique européenne », Ed Jean Jaurès, 2018, p 57) 

En effet, si “la logique algorithmique a tendance à déporter la prise de décision vers les étapes techniques de conception d’un système (paramétrage, développement, codage), lequel ne ferait ensuite que déployer automatiquement les choix opérés initialement “, alors, la gouvernance des algorithmes devrait passer par la détermination d’une éthique de la conception.

Le concept d’éthique by design a été développé par Ann Cavoukian, ancien Commissaire à l’information et à la protection de la vie privée de la province canadienne de l’Ontario.

Il vise à intégrer des valeurs éthiques (pas de la moraline) et des préceptes humains dès la conception des programmes, des applications et des codes. 

Aussi, le programmeur, le développeur et/ou le concepteur implémentent des valeurs, permettent de préserver des libertés ou de les désactiver, protègent la vie privée ou la surveillent. 

Nonobstant la question de la corruption volontaire des données, convient-il de leur laisser cette lourde responsabilité qui comporte des enjeux d’ordre civilisationnel, et, dans les faits, engage toute la société? 

A titre de propos conclusifs, il est à noter que le 12 février 2019, une nouvelle résolution du Parlement européen insistait sur la nécessité de mettre en place un cadre juridique, pour l’intelligence artificielle et la robotique reposant sur l’identification de principes éthiques dès la conception, tout en évoquant l’importance, pour l’Europe, d’être pionnière dans ce domaine.

 “Considérant qu’il est nécessaire de définir une série de règles, notamment en matière de responsabilité et de déontologie, qui reflètent les valeurs intrinsèquement européennes et humanistes qui caractérisent la contribution de l’Europe à la société”. Considérant que l’Union européenne pourrait jouer un rôle essentiel dans la définition de principes éthiques fondamentaux à respecter lors de la conception, la programmation et l’utilisation de robots“. 

In fine, dans une démarche principalement orientée vers l’humain, “L’UNESCO a entrepris d’élaborer un instrument normatif mondial sur l’éthique de l’IA“. Désigné à cet effet, le groupe d’experts internationaux a débuté la rédaction d’une première recommandation le 27 avril dernier.

Par Alice Louis, Experte en Gouvernance du Patrimoine Informationnel

Directrice du projet de création du “Fonds Cyber Ethique pour une Souveraineté Numérique” 

DEA – Droit des médias (IP/IT) 

MBA -Management de la Cybersécurité 

Membre de l’AFCDP, du CEFCYS, de IE-IHEDN et des “Lundi de la cybersécurité”.

Share: