VOYAGE EN INFOSPHÈRE communiqué de l’Université Pierre et Marie Curie

Physique, intelligence artificielle et philosophie sont-elles compatibles ? « Oui », répond Jean-Gabriel Ganascia, professeur UPMC au laboratoire d’informatique de Paris (LIP6, UPMC/CNRS), qui baigne depuis longtemps dans la transversalité scientifique. En quelques années, il est passé du livre électronique aux humanités numériques. Et si c’est lui qui était le plus connecté de tous ?

 

On parle de plus en plus de sciences cognitives. L’intelligence artificielle serait-elle devenue « has-been » ?

Jean-Gabriel Ganascia. La question « Une machine peut-elle penser ? » peut s’aborder sur trois plans : philosophique/informatique/cognitif. L’intelligence artificielle l’envisage au plan informatique : sa finalité est de décomposer l’intelligence en processus mentaux si élémentaires qu’on est en mesure de les simuler sur des ordinateurs, ce qui peut conduire à fabriquer des machines qui remplacent les hommes dans certaines tâches.

 

Ses répercutions ont été considérables au cours des 60 dernières années. Ainsi, les sciences cognitives qui étudient les facultés mentales avec des modèles informatiques ont recours à des techniques d’intelligence artificielle. L’hypertexte qui est à l’origine du Web, vient d’un modèle de mémoire conçu avec ces mêmes techniques.

 

Dans l’équipe « Agents cognitifs et apprentissage symbolique automatique » (ACASA) que je dirige au LIP6, nous travaillons aujourd’hui sur l’apport de l’intelligence artificielle aux versants littéraires des humanités numériques et à l’éthique des agents autonomes, en particulier des robots et des « bots », c’est-à-dire des agents virtuels qu’on utilise aujourd’hui sur le web.

 

Vous avez importé en France le concept de « sousveillance » de l’américain Steve Mann. Que recouvre-t-il exactement ?

J.-G. G. Dans nos sociétés contemporaines qui aspirent à une transparence absolue, on assiste à l’apparition d’un état dit de « sousveillance » où le contrôle ne vient plus d’en haut, comme dans la société de surveillance, mais d’en bas, c’est-à-dire de l’ensemble des citoyens qui parviennent à prendre et à diffuser des photos, des vidéos et des sons, à un coût quasiment nul. En contrepartie, l’attention se trouve saturée, au point que l’on déploie des stratégies pour se distinguer dans le flux d’information et être reconnu.

 

Il s’ensuit que ce n’est plus celui qui voit qui a le pouvoir, puisque tout le monde est en mesure de tout voir, mais celui que l’on voit parce qu’il a su attirer l’attention. Or, comme la plupart des théories classiques de la communication ne prennent pas en compte cette saturation de l’attention, elles éprouvent des difficultés à aborder les dimensions éthiques du monde contemporain. En particulier, elles mettent l’accent sur l’ouverture des données et leur partage, sans voir qu’il y a une dissymétrie dans les capacités d’assimilation de ces données et que le partage des masses de données (Big Data) quoiqu’il apparaisse généreux au premier abord, pourrait se révéler à terme très inéquitable.

 

Les technologies de l’information et de la communication sont indispensables au progrès, mais ne faut-il pas s’inquiéter des conséquences éthiques de leur prolifération ?

J.-G. G. En effet, avec le numérique, les institutions qui régissent la vie en société (santé, école, administration, travail, etc.) se transforment et, en conséquence, la vie sociale change. Il s’ensuit que la morale, c’est-à-dire au sens étymologique, les moeurs, autrement dit les habitudes de vie en société, évoluent. Il faut en prendre la mesure dans une réflexion éthique. C’est la raison pour laquelle j’ai publié plusieurs articles sur le sujet dans des revues internationales spécialisées et dans des actes de conférences consacrées à l’éthique des technologies de l’information. Je fais également partie du Comité d’éthique du CNRS (COMETS) et de la commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistène (Cerna).

 

Dans un ordre d’idées plus concret, mon équipe et moi-même, nous travaillons sur la formalisation des conceptions éthiques classiques (déontisme, conséquentialisme, utilitarisme, etc.) à l’aide de techniques d’intelligence artificielle. Dans la mesure où chacun des appareils conceptuels mis en oeuvre pour décrire ces conceptions philosophiques définit un cadre normatif, il n’y a aucune raison de ne pas parvenir à les décrire en termes formels, puis de les implanter sur des machines. Ce travail se poursuit actuellement dans le cadre du projet ANR EthicAA qui porte sur l’éthique des agents autonomes, et, en particulier, sur l’éthique des agents artificiels et des robots dans le but d’approcher les questions de délibération et d’argumentation afin d’éclairer la prise de décision collective.

 

Comment passe-t-on du « livre électronique » à l’observatoire de la vie littéraire ?

J.-G. G. Après avoir réalisé en collaboration avec l’institut des textes et manuscrits modernes (ITEM) un logiciel de comparaison de versions de texte pour la génétique textuelle, j’ai eu le sentiment que l’intelligence artificielle pouvait apporter beaucoup aux études littéraires. C’est dans cette perspective que j’ai monté, avec les équipes de littérature de l’université Paris-Sorbonne, le Labex OBVIL (Observatoire de la vie littéraire) qui vise à concevoir et à valider de nouveaux opérateurs d’interprétation de textes littéraires en tirant partie de la numérisation des contenus et de procédés algorithmiques issus de l’intelligence artificielle. Dans ce cadre qui relève du versant littéraire des humanités numériques, nous travaillons sur la stylistique, sur l’étude de l’intertextualité, sur la détection des citations, des reformulations, des topiques, etc. Cela conduit à un renouvellement en profondeur des disciplines d’érudition.

POUR EN SAVOIR PLUS :

Laboratoire d’informatique de Paris (LIP6, UPMC/CNRS)