Liste des articles
Partager sur :
Vue 66 fois
17 février 2020

Enjeux éthiques et systémiques des IA, individuelles et collectives

Cet article fait suite à l’article : « Intelligence ou Intuition Artificielle ? Les enjeux de l’automatisation » paru jeudi 13 février dans variances.eu.

***

Une IA omnipotente (ou encore « générale »), autonome, capable de raisonnement déductif innovant n’est pas encore à l’ordre du jour. L’humain augmenté encore moins. Les questions juridiques, nouvelles, de la responsabilité, d’un robot, IA ou homme hybridé, appelant à légiférer en anticipation via une réponse ad hoc, sui generis, ne sont, à mon sens, pas opérationnellement les plus urgentes à se poser.

En revanche, la diffusion progressive des « IA actuelles » à tous les secteurs, pour des tâches variées, suscite déjà des inquiétudes légitimes. Avant de faire confiance sans réserve à des mécanismes de prises de décision dont les règles sont difficilement accessibles, et changeantes selon les données utilisées en entrée lors des apprentissages, tout un chacun se pose confusément les questions : est-ce une bonne chose ? Les IA agissent-elles équitablement, avec justice ? Est-ce bien légal ?

Le défi posé ici est donc que les algorithmes d’IA n’échappent pas au contrôle humain.

Or l’Histoire est riche d’exemples pour lesquels ces catégories du bien, du juste, et du légal ont impérativement dû être distinguées. L’Europe, particulièrement sensible à ces questionnements, a déjà posé de premiers jalons légaux (le RGPD notamment), obligeant les acteurs privés à exposer la finalité des traitements des données personnelles, reflétant ainsi dans le droit les inquiétudes publiques quant aux intentions et au niveau de contrôle des utilisateurs des données. A l’origine de ces questionnements est donc l’idée de la finalité, de la volonté des acteurs : de leur éthique. Revenons tout d’abord sur ce terme.

ETHIQUE DE L’IA, PLUS QU’IA ÉTHIQUE, ET IA RESPONSABLE 

S’il semble prématuré de parler d’« IA éthique », actuellement, comme l’on parlerait d’un individu éthique[1] il apparaît indispensable de parler, dès à présent, d’« éthique des IA », et des nouveaux enjeux sociétaux qu’elles soulèvent.

LE RÊVE D’UNE IA ÉTHIQUE UNIVERSELLE, LA RÉALITÉ D’UNE ÉTHIQUE DES IA

L’éthique est étymologiquement le « caractère habituel ». Elle prit le sens de « morale » dès lors qu’on se référa à la posture platonicienne visant à accorder ses actions habituelles à ce que l’on perçoit de l’harmonie du monde.

L’approche littérale nous aide ainsi à tirer des conséquences de l’expérience planétaire de la Moral Machine du MIT. Celle-ci consistait à répondre à un questionnaire pour savoir qui vous choisiriez d’épargner si vous étiez une voiture autonome contrainte de trancher entre plusieurs manœuvres toutes fatales. Les résultats furent étonnants, et séparaient le globe en trois grandes géographies de résultats[2], fruit des habitudes et valeurs locales des populations.

De la même façon, parler d’éthique pour des processus de décision en entreprises (« personnes morales »…), dans toute leur diversité, n’a de sens précis que dans la recherche, pour chacune, de mise en conformité de ses décisions opérationnelles quotidiennes au regard de sa raison d’être proclamée, de ses valeurs d’entreprise. La récente loi PACTE va dans un sens favorable à cet éclaircissement, invitant chaque entreprise à définir formellement une raison d’être, et un objectif d’intérêt social.

Au vu de la diversité des cultures pour les hommes, ou des missions et valeurs pour les entreprises, viser une éthique universelle apparaît ainsi comme un beau rêve, mais hors sol.

Comment alors penser une éthique des IA ? La principale caractéristique nouvelle est que ces intelligences ou « intuitions artificielles » reflètent justement une quintessence des caractères habituels des hommes ou des phénomènes qu’elles singent. Si les données d’apprentissage reflètent des biais cognitifs, affectifs, culturels, alors les comportements des IA seront tout autant biaisés, discriminants.[3] Elles n’ont aucunement, comme préalable à leur construction de définir une équité, éthique particulière, mais reflètent le comportement et donc l’éthique tacite d’un groupe, ou de sous-groupes d’humains.

Charge donc aux responsables des déploiements des « IA » de veiller activement à réaliser des automatisations non discriminantes, exemptes de biais, tout au long des cycles de vie de ces IA. Ainsi nous faut-il veiller à une éthique de lIA, pour chacun des usages, et dès sa conception. Quitte à en demander à présent plus aux machines que nous ne le faisions des hommes qu’elles secondent, ou remplacent.

ETHIQUE DES IA : ALLER AU-DELÀ DE LA TRANSPARENCE, VERS UNE IA RESPONSABLE

Pour ces raisons, apporter la plus parfaite transparence sur les traitements ne suffit pas. On retrouve, certes exacerbés, les termes d’une problématique déjà bien connue de manque de transparence des traitements classiques, déterministes, rendus insuffisamment publics (type : GAFAM et Cambridge Analytica). Celle-ci se résoudrait aisément suivant des mécanismes et processus classiques : référencer et tracer les données d’apprentissage et les algorithmes utilisés ; adopter une charte éthique à laquelle les développeurs ne peuvent déroger, pour se prémunir des biais humains lors des phases de construction ; veiller à l’absence de dérive dans le temps ; tester l’absence de biais ; documenter les finalités de chaque traitement et les algorithmes associés, et les faire avaliser par un comité d’éthique interne, composé de l’ensemble des parties prenantes ; enfin, auditer les processus, les données utilisées, et finalement les modèles statistiques par des tiers de confiance[4]

Tout ceci correspond à la mise en place ou l’adaptation de « gouvernance » classique.

Mais deux problématiques radicalement nouvelles, et probablement d’égale importance, se font jour.

ENJEUX NOUVEAUX : EXPLIQUER LES MODÈLES ET PRÉSERVER LA DIVERSITÉ

EXPLIQUER LES MODÈLES D’IA : BÂTIR LA CONFIANCE

La première est que la transparence unitaire, algorithme par algorithme, même totale, ne suffit pas à comprendre le comportement des modèles entraînés. Celle-ci se pose dans des termes d’explicabilité, d’interprétabilité finale des traitements. Quand les enjeux des prises de décision sont vitaux, un comportement trop probabiliste est à proscrire (par ex : diagnostic médical, véhicules autonomes). L’euphorie des débuts a ainsi amené à utiliser les algorithmes aux meilleures performances prédictives, au détriment de l’explicabilité de leur fonctionnement. Et si le phénomène à prédire est complexe, alors le modèle prédictif devra l’être également.

Tout un pan de recherche est ainsi à mener pour, tout d’abord, développer les nouveaux outils d’explication/interprétation des modèles[5] ; mais également afin de faire évoluer ces algorithmes vers plus de sobriété, et de mettre au point, à terme, de nouveaux algorithmes, les plus parcimonieux possibles, là où l’explicabilité est clef. Et quand il est d’ores et déjà impératif de devoir expliquer afin de donner des garanties de fonctionnement (par exemple, suite à la crise financière de 2008, dans le cadre du Model Risk Management imposé par les régulateurs pour certains modèles financiers), un compromis entre performance et explicabilité doit être trouvé[6].

Ceci passera certainement à terme par un souci de ré-introduction de plus de rationalisme dans ces modèles statistiques, et notamment probablement d’hybridation entre des modèles peu explicables sur des sous-tâches non critiques, et d’autres très explicables dans les tâches explicites de prise de décision.

Plus généralement, quantifier cette sobriété maximale des IA, tant en données d’apprentissage qu’en puissance de calcul nécessaire, et quelle que soit leur « nature », appelle l’équivalent ni plus ni moins d’une théorie de Shannon des modèles, comme celui-ci la développa pour l’information. Et notamment sa notion d’entropie, – mesure de la quantité irréductible d’informations contenue dans une image, un son -, mais pour les modèles eux-mêmes, qu’il sera certainement nécessaire de développer. Beau défi pour une prochaine vague d’IA : pour celle-ci, la qualité des mathématiciens et ingénieurs système devrait compter au moins autant que la disponibilité des données abondantes et des super-calculateurs. Réjouissant, finalement, « quand on n’a pas de (ce nouveau) pétrole… »

SE PRÉMUNIR DES EFFETS PERVERS DU PANOPTIQUE, L’UNIFORMISATION

La deuxième problématique réside dans la résultante systémique de la transparence. Elle se pose dans les termes d’un panoptique numérique. C’est l’utilisation de techniques algorithmiques poussées qui dote acteurs privés et agences de renseignement d’outils puissants pour connaître continûment, et de façon ubiquitaire, des caractéristiques intimes de chaque client ou citoyen[7].

Reprenant les travaux des frères Bentham du XVIIIème siècle sur les structures carcérales « panoptiques » permettant une transparence de tous les instants, Michel Foucault soutenait que la problématique majeure ne venait pas tant de la possibilité de « voir sans être vu », que de celle d’« imposer une conduite quelconque à une multiplicité humaine quelconque »[8].

Les mécanismes d’IA basés sur l’analogie poussent effectivement par nature à la prolongation du passé, et à l’uniformisation des prédictions, à la réduction des atypies, tant par les acteurs privés que publics. Une prime est donc accordée aux comportements moutonniers. Ces algorithmes exacerbent donc de façon systémique les tendances sociales, politiques que Tocqueville[9] ou Bernanos[10] anticipaient, et qui devaient déboucher sur une sorte de molle tyrannie, où prédomineraient progressivement « l’Etat sur la Patrie », la Technique (et la bureaucratie) sur l’Etre, et les rivalités mimétiques entre tous[11]. Y sommes-nous déjà ?

PRÉSERVER LA DIVERSITÉ : IMPÉRATIF ÉTHIQUE AUTANT QUE FACTEUR-CLEF DE SUCCÈS DES IA COLLECTIVES

LES INTELLIGENCES ARTIFICIELLES PERFORMANTES ACTUELLES SONT COLLECTIVES

Si les promesses de véritable intelligence artificielle individuelle renvoient à un horizon encore lointain, ce sont de façon encore assez méconnue les formes d’intelligence artificielle collective qui portent d’ores et déjà le plus de fruits.

Paul Valéry, dans « Regards sur le monde actuel » dès 1931, traduit dans une préface visionnaire nombre de ces enjeux actuels, sa méthodologie[12] (ici appliquée à l’étude historique, évoluant d’une analyse événementielle à l’étude des grandes tendances structurelles) dépassant le recours à de simples similitudes. Ces grandes tendances « porteuses d’avenir », façonnant le monde à long terme ont pu être ainsi matérielles, tel l’avènement de l’électricité, ou plus conceptuelle, telle la diffusion mondiale d’une singularité européenne des Lumières. Il les résume ainsi au début du XXème siècle : « Accroissement de netteté et de précision, accroissement de puissance, voilà les faits essentiels de l’histoire des temps modernes ».

En quoi l’IA prolonge-t-elle cette tendance ? L’accroissement de précision de l’IA individuelle via la prise en compte de beaucoup plus de facteurs prédictifs que ne peut le faire un cerveau humain contribue à renforcer la qualité des prédictions. Mais paradoxalement, dans le même temps, cela réduit de façon systémique la variété des prévisions possibles (par exemple l’amplification des emballements mimétiques, conséquences de la généralisation des algorithmes de recommandation).

Or, cette réduction de diversité a également pour effet d’amoindrir la qualité des intelligences collectives. Emile Servan-Schreiber[13] souligne par exemple que le phénomène de sagesse des foules ne fonctionne que si la diversité des biais de chacun est suffisante pour que l’effet de moyenne sur le grand nombre permette une prédiction efficace. Et les formes les plus efficaces d’intelligence collective actuelle (moteurs de recherche[14], graphes de causalité,…) tirent leur force précisément de l’exploitation bien au-delà des capacités humaines individuelles ou collectives, de cette diversité d’avis humains. Jusqu’aux algorithmes d’IA eux-mêmes, de types Random Forest ou Boosting trees ou Bootstrap qui génèrent un foisonnement d’algorithmes ou d’échantillons et en moyennent les prédictions, pour éviter le surapprentissage… et qui s’appuient de plus, très souvent, sur un intense travail humain préalable (notamment pour l’apprentissage profond)[15].

L’IA porte donc intrinsèquement les deux tendances, systémiquement opposées, d’amélioration de la précision individuelle (IA individuelle), mais en retour d’une perte de diversité des points de vue, limitant à terme ses performances (IA collective).

L’enjeu sociétal principal ne serait-il pas finalement plus encore que dans l’éthique des IA (une IA entraînée sur des données chinoises par exemple et utilisée en France reflèterait des mœurs chinoises) dans l’uniformisation croissante du savoir, des actions humaines ?

L’usage des IA mimétiques actuelles renforce ainsi finalement une autre tendance majeure que percevait Claude Lévi-Strauss dès 1955 : « L’humanité s’installe dans la monoculture ; elle s’apprête à produire la civilisation en masse, comme la betterave. Son ordinaire ne comportera plus que ce plat. » [16]

IA ÉTHIQUE, LÉGALE, JUSTE ?

Résumons-nous. Une IA éthique ne pourra être approchée qu’en veillant à définir des éthiques de l’IA. Une IA reposant sur des technologies d’apprentissage automatique reflétera par défaut les biais et discriminations qu’elle aura observées. Une IA sera donc juste si on travaille à s’affranchir activement des biais et discriminations existantes, et donc si l’on se définit explicitement des objectifs éthiques : d’équité, de non-discriminations.

Quel sens donner à une IA légale ? Ce dernier point est finalement presque le plus simple : les régulateurs de chaque secteur y travaillent actuellement, et les acteurs politiques s’attellent sérieusement à définir en Europe le prolongement du RGPD : un groupe de 40 experts travaillent actuellement auprès de la Commission Européenne pour définir « une IA digne de confiance » pour l’Union Européenne. Le CEPEJ y travaille également. L’IEEE[17] travaille par exemple également à des éléments normatifs de process de développement : une possible norme type ISO sur ces sujets est envisagée.

Les acteurs travaillant sur ces sujets d’éthique des IA parviennent finalement à une conclusion commune, face aux difficultés et aux connexions nombreuses entre les aspects certes éthiques, mais également opérationnels et juridiques, et convergent vers la nécessité de faire que ces IA soient « responsables » [18], que l’on puisse leur « poser la question : pourquoi ? » et qu’elles puissent répondre. Besoin humain de ne faire confiance que lorsque l’histoire explicative qu’on lui délivre se formule en relation de causalité… et non comme le résultat d’une coïncidence, corrélation possiblement fortuite.

Et tout comme on ne saurait définir une éthique universelle acceptable par tous, expliquer des IA s’avère un exercice sensiblement différent en fonction du public et des buts poursuivis. Cette démarche est cependant indispensable, et … bienvenue pour tous.

Quels enjeux revêt cette responsabilisation nécessaire de l’IA en fonction des acteurs ?

On pourra déjà brièvement citer ici qu’expliquer à un régulateur ou un législateur, c’est s’assurer des garanties de fonctionnement des algorithmes. Et c’est nécessaire pour assurer la stabilité, la robustesse et la résilience d’un écosystème. Expliquer à des collaborateurs ce que fait leur nouvel outil d’IA, défini idéalement avec eux tout au long de son élaboration, c’est un facteur-clef de succès d’acceptation et de déploiement réussi en entreprise. Enfin, expliquer aux clients finaux et aux citoyens est indispensable aux succès commerciaux des nouveaux produits et services, ainsi que pour éviter les pièges tendus d’un horizon de panoptique[19].
Pour ces derniers en effet, les traitements des données poussés par les Etats eux-mêmes entraîneraient pour les meilleures intentions de sécurité des citoyens, une tendance croissante à identifier tout comportement déviant, statistiquement, et sans possibilité de rendre public les critères de sélection retenus. Se pose donc de façon cruciale pour un avenir démocratique la question de la responsabilité publique des acteurs privés détenteurs de données, certes mais également de la responsabilité citoyenne des acteurs publics.

RÉUSSIR UNE AUTOMATISATION INTELLIGENTE UBIQUITAIRE ET RESPONSABLE

A l’heure donc où les technologies d’apprentissage statistique machine se généralisent, que retenir donc des enjeux individuels et sociétaux majeurs ?

Si le terme d’Intelligence Artificielle est ancien, et encore abusivement employé pour désigner les systèmes d’apprentissage statistique actuels, le retour en force de la notion d’apprentissage automatique a permis de réaliser des percées opérationnelles et conceptuelles majeures (« apprentissage profond »). Ces systèmes prolongent cependant d’autres technologies parfois plus performantes sur certaines tâches et plus explicables, tels les systèmes experts, ou des modèles de recherche opérationnelle, moins mises en valeur actuellement. Charge aux responsables d’enseignement de ne pas céder à la mode exclusive de l’apprentissage statistique, mais de veiller à maintenir vives ces technologies, généralement plus explicables et parfois plus efficaces.

Encore insuffisamment soulignée, c’est également l’intelligence artificielle collective qui apporte les avancées majeures, utilisant les possibilités informatiques afin de démultiplier notre capacité d’analyse et de synthèse des savoirs humains[20]. L’efficience sidérante des moteurs de recherche en témoignent.

Qu’ils soient « individuels » ou « collectifs », ces mécanismes d’IA reposant sur l’analogie posent principalement deux nouveaux défis majeurs : leur opacité (par nature), et leur capacité normative à tendanciellement renforcer l’uniformisation globale. La question de l’éthique de ces IA appelle une vigilance nouvelle de la part de toutes les parties prenantes : citoyens, collaborateurs en entreprises, clients comme régulateurs et législateurs.

Vigilance à maintenir, au regard de la célérité d’avènement de ruptures majeures : qu’attendre éthiquement, concrètement, par exemple de futurs systèmes massivement multi-agents, des groupements d’intelligences autonomes, communiquant entre elles, créant ainsi une intelligence collective distribuée, multicorporelle, matérialisée par exemple dans un essaim de drones interconnectés ?

Quelles que soient les caractéristiques des futurs systèmes d’IA, “super intelligence humaine”, ou toute autre forme plus originale encore, un contrôle humain sera nécessaire. L’enjeu alors sera de doter ces systèmes d’une capacité à toujours pouvoir répondre de leurs décisions, et s’expliquer. Il est impératif donc d’œuvrer dès à présent à une IA Responsable.

 


[1] Sont souvent évoquées et amplement débattues ailleurs les « lois d’Asimov », simples mais aboutissant à des paradoxes non surmontables, pour garantir la non-nocivité des décisions de robots autonomes envers leur créateur.

[2] Une plaque asiatique, privilégiant les anciens et le groupe. Une plaque occidentale, sans préférence marquée. Et une plaque « sud », incluant en Europe la France, accordant sa préférence aux jeunes et aux femmes.

[3] Cathy O’Neil, Weapon of Math Destruction. Cf la note de lecture d’Alain Minczeles, http://variances.eu/?p=3859,

[4] Préconisation du « rapport Villani », appelant à la création d’un organisme public de contrôle.

[5] Cf. le programme X-IA de la DARPA, par exemple.

[6] Ceci étend et complète le concept connu des Data Scientists de compromis « Biais/variance ».

[7] Cf. Eric Schmidt, ex-CEO de Google. IFA Berlin 2019. « We know where you are. We know where you’ve been. We can more or less know what you’re thinking about ».

[8] Gilles Deleuze, Foucault, Editions de Minuit, 1986/2004, p.41

[9] « De la Démocratie en Amérique, vol II » (Quatrième Partie : Chapitre VI) publié en 1840.

[10] « La France contre les Robots » , « La liberté, pour quoi faire ? »

[11] Sur les tendances spontanées et universelles au mimétisme, cf René Girard « La violence et le sacré ».

[12] « Introduction à la méthode de Léonard de Vinci »

[13] « SuperCollectif » essai. Fayard, oct. 2018

[14] A titre d’exemple, une des briques essentielles des algorithmes originaux de Google (PageRank) reposait sur l’observation des pages les plus référencées par les autres pages pour établir une hiérarchie entre elles. L’utilisation d’une IA pour produire des référencements vers d’autres pages web aurait pour conséquence d’appauvrir drastiquement la variété des résultats.

[15] Environ 500 000 personnes étiquettent des données quotidiennement pour nourrir les algorithmes « automatiques », prolongation indirecte du « turc mécanique ».

[16] in Tristes Tropiques, Claude Lévi-Strauss. 1955

[17] IEEE Standards Association – https://ethicsinaction.ieee.org/

[18] « Intégrer l’éthique dans les algorithmes soulève des défis titanesques » David Bounie, Winston Maxwell. https://www.lemonde.fr/idees/article/2019/12/07/integrer-l-ethique-dans-les-algorithmes-souleve-des-defis-titanesques_6022013_3232.html

[19] Cf. Les asymétries d’information, comme menaces au fonctionnement démocratique. Nozha Boujemaa, Bertrand Thirion : Institut DataIA. http://dataia.eu/

[20] Techniques de NLP (Natural Language Processing) + graphes de connaissances notamment.

Auteur

Articles liés

Commentaires

Aucun commentaire

Vous devez être connecté pour laisser un commentaire. Connectez-vous.