Compte rendu : Journée d’étude EMI « Les bibliothèques sont-elles prêtes pour l’intelligence artificielle ? »

La journée d’étude Éducation aux médias et à l’information « Les bibliothèques sont-elles prêtes pour l’intelligence artificielle ? » s’est tenue au Centre Pompidou, le 7 novembre 2023. Ce compte rendu résume l’ensemble des interventions et des tables rondes de l’évènement.

Visuel journée d'étude « Les bibliothèques sont-elles prêtes pour l'intelligence artificielle ? »
© Image réalisée avec l’IA DALL-E

Ouverture de la journée d’étude

L’introduction de la journée d’étude a été consacrée à un rappel des différents enjeux de l’intelligence artificielle (IA) et de leur prise en compte par les services de l’État.
Valérie Travier, cheffe du bureau de la lecture publique au Service du livre et de la lecture du ministère de la Culture, a ainsi réaffirmé tant l’importance de l’éducation aux médias et à l’information (EMI) que la nécessité d’accompagner les développements de l’IA au service des citoyens.
Elle a notamment noté le rapport du Conseil d’État du 31 mars 2022 : Intelligence artificielle et action publique : construire la confiance, servir la performance, insistant sur l’importance de développer une « IA de service public ». Par ailleurs, sous l’impulsion de la Première ministre a été créé en septembre 2023 le Comité de l’intelligence artificielle générative qui devra notamment travailler sur les enjeux de la fiabilité de l’information, à l’heure des potentielles dérives des IA génératives.
Face aux impacts toujours plus importants de l’IA dans nos sociétés, il convient de comprendre ce que recouvre exactement le terme d’IA ainsi que de cerner leurs enjeux pédagogiques.

Les défis du numérique et enjeux pédagogiques de l’IA

Pour comprendre l’IA, la journée a pu compter sur la présence de Daniel Andler qui a dressé un historique de l’IA, notamment en s’appuyant sur son dernier ouvrage, Intelligence artificielle, intelligence humaine : la double énigme.
Le professeur émérite de l’Université Paris-Sorbonne observe trois grandes phases dans le développement de l’IA.

I) Le projet initial

Née il y a deux siècles, l’IA était d’abord conçue comme un projet de « machine pensante » d’après une certaine interprétation du psychisme humain. Il fallait donc pour cela bien connaître ce dernier en amont, ce qui fut facilité par le travail de chercheurs tel que Herbert Simon à partir des années 50, l’un des pionniers de l’IA aux États-Unis.
L’IA était représentée à cette époque par des algorithmes visant à résoudre différents problèmes.

II) La phase symbolique

Paradigme dominant du milieu des années 50 aux années 90, la phase symbolique se caractérise quant à elle par une vision de la pensée humaine comme calcul et de la cognition comme une logique étendue.
Cette phase a cependant rapidement rencontré des difficultés, notamment techniques (algorithmes trop complexes et sciences cognitives pas assez développées pour soutenir les différents projets en cours).
C’est également à cette époque que fut abandonnée l’idée que la machine puisse réellement « comprendre » ses actions. Des expériences de pensée comme celle de la « chambre chinoise » nous amène ainsi à constater que l’IA peut parfaitement simuler l’intelligence humaine sans pour autant être elle-même dotée d’une telle intelligence.
Enfin, l’idée d’une IA universelle fut également sérieusement compromise, les différentes machines ne pouvant que simuler certaines formes de cognitions, loin de l’intelligence humaine pouvant effectuer différentes opérations mentales tout en gardant le même « logiciel ».

III) La phase connexionniste

La dernière étape toujours en cours est la phase connexionniste débutée dans les années 80. Désormais, la cognition humaine est comprise comme « perception ». Cela aboutit notamment à l’invention du perceptron, soit le réseau de neurones (compris comme unités de traitement) le plus simple, ainsi que des « machines apprenantes » pouvant modifier ces neurones par apprentissage. On abandonne ainsi toute vision de la machine comme « réflexion » : désormais on apprend la machine à réagir après stimulus.
Bien que les différents modèles utilisés ne soient pas tous parfaitement fiables, c’est aujourd’hui le deep learning (type d’IA capable d’apprendre par elle-même en s’appuyant sur un réseau de neurones artificiels) qui suscite le plus d’enthousiasme.

Daniel Andler a conclut son intervention en nous encourageant à ne pas avoir une vision figée de ce qu’est l’IA car cette dernière est historiquement un concept mouvant.

Décryptage d’IA génératives et science-fiction

La deuxième partie de la journée fut ouverte par Dorian Bardavid, adjoint au sous-directeur – Projets et produits, Service du numérique, ministère de la Culture, sur la base d’un décryptage des IA génératives.
Si ces IA génératives, notamment d’images telles que Midjourney ou DALL-E, posent des problèmes au niveau de l’information (photos réelles ou créées par l’IA), elles impliquent également de nombreuses problématiques autour du droit d’auteur. Aujourd’hui, la paternité des œuvres créées par l’IA oscille entre le concepteur de l’IA, l’usager de cette dernière, voire l’IA elle-même.
Bien que les réponses à ces questions soient en pleine construction, il semblerait que le travail effectivement fourni soit un critère important pour déterminer la paternité d’une œuvre. Ainsi, un usager ayant « créé » une œuvre en quelques secondes à partir d’œuvres existantes ne pourra se voir attribuer la paternité de l’œuvre. En revanche, il n’en sera pas de même pour un artiste ayant travaillé des centaines d’heures sur une IA pour aboutir à un résultat original.

Dorian Bardavid a ensuite évoqué les influences possibles de l’IA sur le secteur culturel. Il a tout d’abord rappelé que les nouvelles technologies avaient historiquement transformé les professions plutôt que de les supprimer tout à fait. Dans le cas du journalisme, par exemple, on peut penser que le développement de l’IA amènera celui-ci à se concentrer sur le travail d’enquête et d’investigation, plutôt que sur la rédaction et la création d’images.
Concernant les bibliothèques, on peut d’ores et déjà songer à des outils de générations automatiques de métadonnées pour tout type de documents. Sur le plan de la recherche documentaire, on peut également citer Google Talks to Books, qui proposait des livres à l’usager selon les requêtes de ce dernier.
L’influence de l’IA se développera sans doute considérablement dans d’autres domaines culturels comme le cinéma ou le jeu vidéo.

La Journée s’est conclue par une courte intervention de Romain Lucazeau, écrivain de science-fiction et membre de la Red-Team défense. Ce fut l’occasion de découvrir cette mission consistant en la coopération d’écrivains de science-fiction et des organismes de défense nationale dont l’État major des Armées, afin d’alimenter la réflexion sur les conflits futurs caractérisés par l’utilisation de nouvelles technologies. En effet, la science-fiction peut aider à comprendre voire anticiper les impacts éventuels de l’intelligence artificielle alors que la science ne peut parfaitement se prononcer sur les conséquences à long terme de cette dernière.
Romain Lucazeau nous a ensuite enjoint à penser les œuvres de l’IA d’un point de vue de la phénoménologie et notamment du concept d’intentionnalité. Selon lui, une œuvre d’art créée par une IA n’a pas la même « qualité » que celle d’un être humain car il lui manquerait l’intentionnalité, autrement dit la capacité à se référer à un « autre » dans le monde sensible. Ainsi une IA ne se réfère qu’à des données représentant le réel mais n’aurait pas accès au monde en tant que tel. On peut alors penser que l’œuvre de l’IA est en quelque sorte moins riche que la création humaine car dépossédée de la complexité du réel.

Publié le 29/01/2024 - CC BY-SA 4.0