PRÉAMBULE

Droit de l’Homme face à l’IA ou droits des IAs face aux Hommes?

U ne réflexion sur l’IA et l’Ethique nécessite, pour qu’elle soit féconde, un premier temps de catégorisation conceptuelle et de définitions sans lesquels toute réflexion serait inaudible par absence de partage d’un référentiel commun de concepts clés.

Nous entendons dans cette introduction distinguer trois catégories conceptuelles distinctes et positionner le rôle de l’Homme au regard de ces nouvelles technologies et méthodologies de traitement de la donnée mais surtout de l’activation des résultats desdites IA en actions. En effet, toute Intelligence Artificielle, quand bien même il s’agit d’Intelligence Artificielle dite « forte », hypothétique à ce stade, n’est que le fruit d’un travail humain dont l’activation demeure une décision humaine, même quand il s’agit d’une activation automatisée.

Nous utiliseront donc les définitions suivantes comme fil rouge au sein de cette réflexion tout en désinstallant certains mythes contemporains :

Intelligence Artificielle

Il n’existe pas de discipline précise correspondant au terme Intelligence Artificielle. L’unique utilité de ce terme consiste à décrire une catégorie à la croisée de trois sciences : une science fondamentale, les Mathématiques, garante de la Raison algorithmique, une science appliquée, l’informatique, utilisée comme moyen de l’Intelligence Artificielle et non pas comme finalité en soi; et une science économique ou managériale, généralement finalité de l’application de l’Intelligence Artificielle. Néanmoins, la valeur mercatique du terme mais surtout le mythe d’une Intelligence Artificielle supérieure à celle de l’Homme, que nous préférons fermement nier dès cette introduction, nous impose de préférer le terme de science des données. Science des données ou Data Science est donc cette discipline à la croisée des mathématiques, de l’informatique et des sciences économiques dont la finalité est de transformer des données brutes en information et connaissances direct- intelligibles par l’Homme et activable, c’est-à-dire transformables en actions humaines. Nous reviendrons un peu plus sur ce qui distingue la science des données des approches informatiques traditionnelles et les risques encourus.

Big Data

Il n’existe pas technologie identifiée et nommée « le Big Data », mais il existe un ensemble de Technologies de Traitement Distribué des Données ayant démocratisé depuis l’avènement de MapReduce en 2004 puis de SPARK en 2008, l’accès à des capacités de calculs phénoménales à des entreprises et organisations qui historiquement, ne pouvaient disposer d’une telle capacité. Autrement dit, si les calculs séquentiels nécessitaient à l’époque des supercalculateurs que seuls une minorité d’acteurs internationaux pouvaient financièrement se permettre aujourd’hui, les traitements sont parallélisés sur des machines distinctes de petites tailles en même temps et sur des sous jeux de données et sous problématiques algorithmiques. Ces paradigmes ont pu diviser les temps de calcul par des facteurs 1000 à iso capacité physiques (nombre de machines) et de facto les coûts associés. En conclusion, les technologies de calculs et stockage distribués de la donnée, qui sont les moyens de l’application de la science des données à une large échelle, on permit un accès aisé à tous des traitements historiquement réservés à une minorité.

Automatisation des traitements ELT et robotique

Ces deux aspects sont moins connus du grand public alors qu’ils représentent le plus gros gisement de risques éthiques. Historiquement, les systèmes de gestion de bases de données utilisaient un paradigme ETL (Extraire, Transformer, Load ou Charger). Or aujourd’hui, les deux éléments préalablement définis combinés permettent un paradigme ELT voir LET. Ceci signifie que compte tenu des coûts réduits de stockage et de calcul, une entreprise ingère et conserve les données avant de l’utiliser mais peut aussi se permettre une automatisation de bout-en-bout et parfois en temps réel du calcul, de l’extraction des résultats et de leur transformation en action également déclenchée de manière automatique. Autrement dit, le monde de la robotique et des sciences de données embarquées d’une part se veut potentiellement plus autonome mais plus généralement, la donnée acquiert une valeur opérationnelle capable d’exécuter une action (marketing, financière, contractuelle, médicale, juridique etc.) en substitution de l’homme.

“Qui est le maitre à bord? L’Homme ou la Machine? “

A ce stade il apparait donc que ces trois concepts, tels que définis et une fois combinés, peuvent donner lieu à des cas d’usages dont l’exécution peut-être autonome, massive et algorithmique. Et c’est de ces trois éléments que naissent les risques liés à l’Intelligence Artificielle si l’on accepte, pour simplification du propos, d’utiliser le terme comme étant descriptif de cas d’usages des trois technologies définies.

C’est donc dans ce contexte qu’une question fondamentale se pose :
pour chacune des catégories conceptuelles identifiées, qui est le maitre à bord? L’Homme ou la Machine? Intuitivement, nous serions tentés de répondre Machine, vue les progrès des voitures autonomes, des algorithmes de profiling des réseaux sociaux ou autres géants du numérique par exemple. Mais avec plus de recul, un point simple mais extrêmement structurant s’exprime : l’Homme programme les Machines.

La science des données utilise l’apprentissage automatique (Machine Learning), consistant à universalliser une Machine pour lui permettre d’apprendre sur n’importe quel type de données pour répondre à des problématiques de classification, segmentation ou de prévision en reconnaissant des situations qu’elle a préalablement identifié lors de l’apprentissage. Mais cet apprentissage est programmé par l’homme, avec des données d’apprentissage sélectionnées par l’homme, labellisée par l’homme dans le cadre du Machine Learning dit supervisé. Ce qui distingue donc cette discipline d’une analyse informatique traditionnelle, c’est la capacités des sciences de la données à avoir une puissance combinatoire et des capacités d’apprentissage infiniment plus rapide que celle d’un être humain mais toujours sur des problématiques simples.

De fait, un modèle de science des données de détection de fraude à titre d’exemple ne fera absolument rien de plus que ce qu’un humain est capable de faire. Il est juste apte à le faire en quelques millisecondes là où il faudrait plusieurs jours à un humain pour réaliser une analyse similaire sur un jeu de données massif.

Le constat est identique concernant le calcul et le stockage distribués : le stockage et les traitements massifs des données, où l’application des sciences de la données à l’échelle massive et intégrant de plus en plus de variables est décidé par l’Homme. Les Big Data en soit ne feront rien de plus que ce qu’un registre papier est capable de faire. Elles sont juste capables de stocker et virtuellement et de traiter massivement des milliards d’observations là où il faudrait des kilomètres de papiers et des tonnes d’encre sur un registre.

Demeure alors l’automatisation des traitement LET et la robotique. Ici, deux complexités additionnelles se créent.

    1. L’acquisition de données massives selon le paradigme LET, donc chargement d’abord, porte un réel risque sur la souveraineté et conservation et la finalité de l’utilisation des données. Pour autant, c’est une procédure aujourd’hui considérée comme une bonne pratique si elle respecte des règles que nous aborderons par la suite.
    2. L’automatisation des tâches et actions, historiquement indépendantes des technologies su-mentionnées, devient également risquée car l’exécution des algorithmes en temps réel et parfois de manière embarquée, pose la question du positionnement de l’Homme dans le cycle de traitement de la donnée : de l’ingestion à l’action, l’Homme programme, mais l’Homme peut-il contrôler? Cette complexité est d’autant plus vrai dès qu’il s’agit d’apprentissage automatique profond ou par renforcement, dont les spécificités seront détaillées ci-après.

Nous voilà confronté à un paradoxe au sein de l’Intelligence Artificielle et de l’éthique : si l’homme programme, alors il est le maitre. Mais  si l’Homme programme jusqu’à l’exécution de l’action, et que le tout est automatisée à une vélocité et sur un périmètre qui le dépassent? Alors peut-il déprogrammer en cas d’erreur? Demeure-t-il maitre?

Dès lors, la question qu’il s’agit de se poser est : quels droits conférer aux IA, face aux hommes ?

ETHIQUES DES IAs, MORALE DE L’IA

Développe de telle sorte que la maxime de ton code puisse être érigée par ta volonté en une loi universelle

« Agis de telle sorte que la maxime de ton action puisse être érigée par ta volonté en une loi universelle ; agis de telle sorte que tu traites toujours l’humanité en toi-même et en autrui comme une fin et jamais comme un moyen ; agis comme si tu étais à la fois législateur et sujet dans la république des volontés libres et raisonnables. »

Emmanuel Kant

Nous traitons ici le sujet de l’IA et de l’éthique. Nous cherchons à scinder les IA en IA éthiques et non éthiques. Nous cherchons à conférer des droits aux IA et à en déconseiller d’autres.

Seulement, nous ne pouvons juger de l’Ethique d’une IA, des droits qui peuvent lui être conférés, sans fondements rationnels de ce qui serait éthique ou non. Seulement, un Ehtos est une coutume, donc une règle arbitraire et variable selon le contexte d’une civilisation. Une IA éthique au-delà de Pyrénées ne saurait forcement être reproductible en toute éthique en deçà. Le caratcère éthique diffère ainsi, entre des civilisations plus ou moins sensibles aux dichotomies liberté contre égalité, ou liberté contre sécurité.  En Hommes de Sciences, nous préférons un test plus aisé dans la qualification des IA, permettant d’intégrer des principes invariants dans la qualification non pas de l’éthique d’une IA mais de sa moralité.

Face à la définition des principes de la morale d’Emmanuelle Kant comme étant l’action dont la finalité se veut universelle, généralement simplifiée par une conception de la morale refusant à l’action de l’un envers autrui ce que cet un ne saurait accepter pour soi-même, il apparait possible de qualifier quelques usages de l’Intelligence Artificielle immoraux. Il parait aussi plus aisé, de pouvoir borner les droits des IA à des finalités morales et de décrire un paradigme moral de l’utilisation des Intelligences Artificielles. Il parait enfin possible, de conclure sur ce qui permet de dépasser le paradoxe de l’Intelligence Artificielle tel que formulé précédemment.

Illustration 1 – Quelles caractéristiques pragmatiques et vérifiables définieraient des IA morales selon les principes des fondements de la Morale ?

Caractéristiques de l'ia éthique

Moralement, une Intelligence Artificielle digne de confiance et orientée vers des objectifs nobles, une finalité bénéfique ou du moins non néfaste, serait en mesure de répondre aux différentes caractéristiques identifiées ci-dessus. L’absence d’une caractéristique pourrait en effet susciter un risque. En effet, ces principes permettent collectivement de dépasser le paradoxe de l’IA et individuellement d’assurer des droits fondamentaux et universels aux Hommes, car répondant tous au tests relatifs aux fondements de la Morale rappelés en préambule. Il est donc possible de juger une IA, indépendamment de l’Ethos d’un pays, d’une activité ou d’une coutume, mais sur la base de principes universels. Mais, ce qui devrait susciter le plus d’intérêt dans ce canevas n’est pas tant la faculté de juger mais plutôt les mécanismes préventifs que l’on peut s’imposer lors du développement d’une IA

Dès lors, un canevas moral de développement d’application IA, fussent-elles orientées vers le bien en commun ou vers des application purement mercantiles et intéressées est identifiable et ne peut se passer d’une logique d’adoption native de règles à respecter, dès la genèse du projet. Cette logique consistant à épouser dès la construction d’un projet d’Intelligence Artificielle dès modus operandi assurant les principes d’une IA morale sont souvent qualifiés par les anglo-saxons de concepts by design. Il en existe un certain nombre qui sont des principes directeurs du droits du numériques et qui prennent une dimensions toute particulière lorsqu’il s’agit de sciences et technologies de la données dans un paradigme automatisé ou non. Ils sont également constitutif des textes régissant les lois les plus avancées dans le domaine du respects de l’Homme et de ses droits face à la technologie.

Illustration 2 – Disposition à entreprendre lors de la construction d’une application d’Intelligence Artificielle et contribution au sein des caractéristiques des IA morale
Illustration 2 – Disposition à entreprendre lors de la construction d’une application d’Intelligence Artificielle et contribution au sein des caractéristiques des IA morale

Il apparait important à ce stade de pouvoir transposer ces concepts à des secteurs et métiers autres que ce de l’IA pour pouvoir, avant de prolonger technologiquement l’analyse de la faisabilité des concepts, prendre le recul nécessaire permettant une compréhension globale de ces concepts. Le principe de Privacy & Security by Design by Default n’est guère loin des injonctions qu’un notaire doit respecter dès qu’il s’agit de la protection des données de ces clients, la non autonomie des IA potentiellement nuisibles et la vigilance accrue s’apparentent aux mécanismes d’un fusible. L’explicabilité et la documentation des modèles est la notice d’un médicament quand le devoir de transparence est le livre comptable d’une société en bourse. Quant à la non prolifération des IA malveillantes, ce concept peut régir à peu près toute activité malveillante, du trafic de drogues à la prolifération des armes de destructions massives. Néanmoins cela ne nous éclaire pas encore suffisamment sur les actions technologiques réelles à appliquer dans le domaine de l’IA ni sur ce que les premiers textes imposent et recommandent.

MYTHOLOGIES DE L’IA, RISQUES DES SCIENCES DE LA DONNÉE

Déconstruire des fantasmes, identifier et dépasser des risques et passer au crible de notre analyse préliminaire des exemples d’actualité

Comment appliquer technologiquement nos concepts? Existe-t-il dès lors théoriquement des IA qui malgré les précautions identifiées pourraient faire persister un risque pour l’Homme, voire l’Humanité? En existe-t-il déjà?

Ces trois questions animent fortement le quotidien de nombreux régulateurs, entrepreneurs et experts en sécurité informatique car il est indéniable que les IA confèrent à leur possesseurs et programmeurs une supériorité de fait sur autrui.

A l’image d’une arme ou d’une substance, cette supériorité conféré déclenche de facto des comportements néfastes chez des Hommes immoraux, capable de fait de programmer des IA immorales.

C’est donc sous ce prise extrêmement pessimiste mais éminemment en phase avec la réalité du monde que l’analyse des solutions de protection de l’Homme face à la malveillance des hommes, dans son expression véhiculée par des cas d’usages d’Intelligence Artificielle volontairement néfastes ou simplement insuffisamment respectueueux des principes édictés ci-dessus, que le développeur d’Intelligence Artificielles tout comme le régulateur pense les solutions technologiques à chaque point précédemment cité. Il en découple un arsenal de disposition techniques qui, après des années d’usage et de recul face à l’IA, ont su prouver une forte plus-value, néanmoins limitée à l’ingéniosité de ceux qui cherchent à les contourner et généralement toujours conçues en réaction à un incident. Un aperçu non exhaustif est fourni ci-après et en annexe :

Moralement, une Intelligence Artificielle digne de confiance et orientée vers des objectifs nobles, une finalité bénéfique ou du moins non néfaste, serait en mesure de répondre aux différentes caractéristiques identifiées ci-dessus. L’absence d’une caractéristique pourrait en effet susciter un risque. En effet, ces principes permettent collectivement de dépasser le paradoxe de l’IA et individuellement d’assurer des droits fondamentaux et universels aux Hommes, car répondant tous au tests relatifs aux fondements de la Morale rappelés en préambule. Il est donc possible de juger une IA, indépendamment de l’Ethos d’un pays, d’une activité ou d’une coutume, mais sur la base de principes universels. Mais, ce qui devrait susciter le plus d’intérêt dans ce canevas n’est pas tant la faculté de juger mais plutôt les mécanismes préventifs que l’on peut s’imposer lors du développement d’une IA

Dès lors, un canevas moral de développement d’application IA, fussent-elles orientées vers le bien en commun ou vers des application purement mercantiles et intéressées est identifiable et ne peut se passer d’une logique d’adoption native de règles à respecter, dès la genèse du projet. Cette logique consistant à épouser dès la construction d’un projet d’Intelligence Artificielle dès modus operandi assurant les principes d’une IA morale sont souvent qualifiés par les anglo-saxons de concepts by design. Il en existe un certain nombre qui sont des principes directeurs du droits du numériques et qui prennent une dimensions toute particulière lorsqu’il s’agit de sciences et technologies de la données dans un paradigme automatisé ou non. Ils sont également constitutif des textes régissant les lois les plus avancées dans le domaine du respects de l’Homme et de ses droits face à la technologie.

Illustration 3 – Déclinaison technique des concepts préalablement identifiés en réponses aux exigences de moraité des IA
Illustration 3 – Déclinaison technique des concepts préalablement identifiés en réponses aux exigences de moralité des IA

Ces éléments pris en compte nativement réduisent fortement le risque porté par les sciences et technologies de la donnée dans un contexte de traitement massifs et automatisés. Il demeure néanmoins quelques exceptions technologiques qu’il s’agit de définir et de replacer dans un contexte de développement exponentiel des technologies de la donnée.

En effet, deux types d’approches, sous-catégories de l’apprentissage automatique définit auparavant font persister un risque généralement considéré comme supérieur aux autres modèles car il ne peut valider l’ensemble des précautions citées ci-dessus. En effet, quelques règles sont difficilement applicables lorsqu’il s’agit de l’apprentissage profond (deep learning) ou par renforcement (reinforcement learning). En l’absence d’une IA dite « forte », dont l’avènement dans le court terme demeure incertain, ce sont ces deux sous domaines de l’apprentissage automatique qui demandent une analyse complémentaire.

L’apprentissage profond : est un sous-domaine de l’apprentissage automatique mobilisant les sciences cognitives informatiques et des technologies de réseaux de neurones multicouches. Si la compréhension de l’apprentissage de ces modèles d’une part et des couches de résultats d’autre part est aisée, l’explicabilité des couches intermédiaires, des calculs et l’attribution des poids de chaque neurones au sein de ces couches demeure du domaine de la recherche mathématique fondamentale. Les principes non vérifiés sont donc les suivants :

    1. Explicabilité des modèles
    2. Devoir de transparence

L’apprentissage par renforcement : consiste en la capacité d’un modèle de devenir auto-apprenant en lui fixant un objectif à atteindre, des listes d’erreurs commises et une fonction d’optimisation lui conférant tel un enfant des bons et mauvais points dont il s’agit de maximiser le score. Les principes non vérifiés sont donc les suivants :

    1. Non autonomie des IA
    2. Vigilance et garde fous
Illustration 4 – Avantage, inconvénient et plan de réduction des risques en ce qui concerne les deux sous-catégories exceptionnelles
En combinaison de ces deux approches de l’apprentissage automatique, seule la non prolifération demeure un rempart adéquat.

Nous sommes à présent aptes à juger, analyser, documenter et qualifier des cas d’usages d’Intelligence Artificielle contemporaines et déployées dans le monde, ou du moins dépassant un simple seuil hypothétique et souvent sujettes à des allégations. Si certaines de ces IA semblent relever du fantasme, il existe néanmoins de plus en plus d’incidents et de preuves de l’existence de certaines formes d’IA nuisibles, malveillantes ou tout simplement non respectueuses des précautions ou principes d’usages que l’on a décrit tout au long de cette analyse.

Nous prendrons des exemples non exhaustifs et d’actualité de sorte à pouvoir faire à la part du mythe de l’IA de celle des risques avérés des sciences des données qu’elles embarquent. Ce travail est construit sur la base des analyses préalables et tentera d’utiliser dans tous les cas les résultats des canevas identifiés tant du point de vue de la morale de l’IA, des droits des IA, des implications technologiques et de l’existence du risque additionnel suscité par les deux sous domaines les plus prometteurs mais aussi les plus risqués de l’apprentissage automatique.

Illustration 5 – Fantasme envers l’IA ou réalité d’un risque des sciences et technologies de la données dans un contexte de traitement massif et d’automatisation de l’action
Illustration 5 – Fantasme envers l’IA ou réalité d’un risque des sciences et technologies de la données dans un contexte de traitement massif et d’automatisation de l’action

Une ouverture vers un avenir de démocratisation des IA

Big Brother ou Big Community?

Une conscience citoyenne est en marche concernant les usages de l’Intelligence Artificielle. Et plusieurs éléments militent en faveur d’un avenir mieux encadré et profitable au plus grand nombre. Les facteurs militant pour cette vision sont nombreux et justifieraient à eux seuls une analyse détaillée concernant l’avenir de l’Homme face aux IA des hommes. Il apparait simple mais éminemment pertinent de construire cette ouverture sur un nouveau paradoxe, non spécifiquement relié  l’IA : la morale intéressé.

Un tel oxymore susciterait pour beaucoup un sentiment d’erreur conceptuelle dans la définition même de la morale mais pour autant, il qualifie une réalité des démocraties contemporaines et du capitalisme en soi : l’hégémonie politique ou économique ne peut subsister que par l’adhésion du citoyen et du client envers le pouvoir ou l’entreprise. En conséquence, les mouvement citoyens face aux IA canaliseraint ainsi leur usage néfaste, politiques ou économique, de peur de la destitution, de la révolte ou du boycott. Des mouvements historiques en ce sens animent le monde de l’Intelligence Artificielle, et ce dès son berceau (Berkeley, ville native de l’IA mais aussi des civils rights, des droits des femmes aux USA, des mouvement libertariens etc.). De ces tendances de fond de l’IA nous retiendront :

  • L’accès croissant à l’éducation, notamment à la technologies, se démocratisant à travers le monde et même dans les régions les plus reculés.
  • Les mouvements Open Source, permettant le partage des codes sources des algorithmes d’IA et technologies Big Data à la communauté pour revue des pairs
  • Les systèmes de gisement de données ouvertes, véritable gisement de valeur pour les organisations

 

Les avatars du point de vue de la morale intéressée, que nous saluons comme des modèles viables pour des IA morales sont les suivants :

  • L’utilisation croissante des régulateurs du « name and shame » en cas d’abus
  • La réutilisation des paradigmes open source par les géants du numérique et les universités à l’échelle internationale
  • Plus anecdotiquement, la mise en place de VRM (Vendor Relationship Management) et la systématisation des CGU et opt-ins par les géants de l’industrie.

Leave a Reply