Comment l'IA aide les historiens à mieux comprendre notre passé
Les historiens de demain utilisent l'informatique pour analyser comment les gens vivaient il y a des siècles.
C'est un soir de 1531, dans la ville de Venise. Dans l'atelier d'une imprimerie, un apprenti travaille sur la mise en page d'une page destinée à un manuel d'astronomie - une ligne de caractères dense et une illustration sur bois d'une tête de chérubin observant des formes se déplaçant dans le cosmos, représentant une éclipse lunaire.
Comme tous les aspects de la production de livres au XVIe siècle, c'est un processus qui prend du temps, mais qui permet aux connaissances de se propager à une vitesse sans précédent.
Cinq cents ans plus tard, la production d'informations est une tout autre bête : des téraoctets d'images, de vidéos et de textes dans des torrents de données numériques qui circulent presque instantanément et doivent être analysés presque aussi rapidement, permettant - et nécessitant - la formation de modèles d'apprentissage automatique pour trier le flux. Ce changement dans la production d'informations a des implications pour l'avenir de tout, de la création artistique au développement de médicaments.
Mais ces avancées permettent aussi de regarder différemment les données du passé. Les historiens ont commencé à utiliser l'apprentissage automatique, en particulier les réseaux de neurones profonds, pour examiner des documents historiques, y compris des tables astronomiques comme celles produites à Venise et dans d'autres villes modernes, tachées par des siècles passés dans des archives moisies ou déformées par le glissement de la main d'un imprimeur.
Les historiens disent que l'application de l'informatique moderne au passé lointain aide à établir des liens sur une plus large bande de documents historiques qu'il ne serait autrement possible, corrigeant les distorsions qui proviennent de l'analyse de l'histoire un document à la fois. Mais il introduit ses propres distorsions, y compris le risque que l'apprentissage automatique glisse des biais ou des falsifications pures et simples dans les archives historiques. Tout cela s'ajoute à une question pour les historiens et autres qui, dit-on souvent, comprennent le présent en examinant l'histoire : avec les machines appelées à jouer un plus grand rôle à l'avenir, combien devrions-nous leur céder du passé ?
Les mégadonnées sont arrivées dans les sciences humaines grâce à des initiatives visant à numériser un nombre croissant de documents historiques, comme la collection de millions de pages de journaux de la Bibliothèque du Congrès et les archives judiciaires des archives finlandaises datant du XIXe siècle. Pour les chercheurs, c'est à la fois un problème et une opportunité : il y a beaucoup plus d'informations, et souvent il n'existe aucun moyen de les parcourir.
L'automatisation de l'IA tout au long du pipeline de développement de médicaments ouvre la possibilité de produits pharmaceutiques plus rapides et moins chers.
Ce défi a été relevé avec le développement d'outils informatiques qui aident les chercheurs à analyser la complexité. En 2009, Johannes Preiser-Kapeller, professeur à l'Académie autrichienne des sciences, examinait un registre des décisions de l'Église byzantine du XIVe siècle. Réalisant que donner un sens à des centaines de documents nécessiterait une enquête numérique systématique sur les relations des évêques, Preiser-Kapeller a construit une base de données d'individus et a utilisé un logiciel d'analyse de réseau pour reconstruire leurs relations.
Cette reconstruction a révélé des schémas d'influence cachés, amenant Preiser-Kapeller à affirmer que les évêques qui parlaient le plus lors des réunions n'étaient pas les plus influents ; il a depuis appliqué la technique à d'autres réseaux, y compris l'élite byzantine du XIVe siècle, découvrant les moyens par lesquels son tissu social était soutenu grâce aux contributions cachées des femmes. "Nous avons pu identifier, dans une certaine mesure, ce qui se passait en dehors du récit officiel", dit-il.
Le travail de Preiser-Kapeller n'est qu'un exemple de cette tendance en matière d'érudition. Mais jusqu'à récemment, l'apprentissage automatique était souvent incapable de tirer des conclusions à partir de collections de textes de plus en plus volumineuses, notamment parce que certains aspects des documents historiques (dans le cas de Preiser-Kapeller, le grec mal manuscrit) les rendaient indéchiffrables pour les machines. Aujourd'hui, les progrès de l'apprentissage en profondeur ont commencé à remédier à ces limitations, en utilisant des réseaux qui imitent le cerveau humain pour identifier des modèles dans des ensembles de données volumineux et complexes.
Il y a près de 800 ans, l'astronome du XIIIe siècle Johannes de Sacrobosco publiait le Tractatus de sphaera, un traité d'introduction au cosmos géocentrique. Ce traité est devenu une lecture obligatoire pour les premiers étudiants universitaires modernes. C'était le manuel le plus largement diffusé sur la cosmologie géocentrique, qui perdure même après que la révolution copernicienne ait bouleversé la vision géocentrique du cosmos au XVIe siècle.
Le traité est également le protagoniste d'une collection numérisée de 359 manuels d'astronomie publiés entre 1472 et 1650 - 76 000 pages, comprenant des dizaines de milliers d'illustrations scientifiques et de tables astronomiques. Dans cet ensemble de données complet, Matteo Valleriani, professeur à l'Institut Max Planck d'histoire des sciences, a vu une opportunité de retracer l'évolution des connaissances européennes vers une vision du monde scientifique partagée. Mais il s'est rendu compte que discerner le modèle nécessitait plus que des capacités humaines. Alors Valleriani et une équipe de chercheurs de l'Institut berlinois pour les fondements de l'apprentissage et des données (BIFOLD) se sont tournés vers l'apprentissage automatique.
Cela a nécessité de diviser la collection en trois catégories : parties de texte (sections d'écriture sur un sujet spécifique, avec un début et une fin clairs) ; des illustrations scientifiques, qui ont aidé à éclairer des concepts tels qu'une éclipse lunaire ; et des tables numériques, qui ont été utilisées pour enseigner les aspects mathématiques de l'astronomie.
Tout cela s'ajoute à une question pour les historiens : les machines étant appelées à jouer un plus grand rôle à l'avenir, combien devrions-nous leur céder du passé ?
Au départ, dit Valleriani, le texte défiait l'interprétation algorithmique. D'une part, les polices de caractères variaient considérablement; les premières imprimeries modernes en ont développé des uniques pour leurs livres et avaient souvent leurs propres ateliers métallurgiques pour mouler leurs lettres. Cela signifiait qu'un modèle utilisant le traitement du langage naturel (TAL) pour lire le texte devait être recyclé pour chaque livre.
La langue posait également un problème. De nombreux textes ont été écrits dans des dialectes latins spécifiques à une région souvent méconnaissables pour les machines qui n'ont pas été formées sur les langues historiques. "C'est une grande limitation en général pour le traitement du langage naturel, lorsque vous n'avez pas le vocabulaire pour vous entraîner en arrière-plan", explique Valleriani. Cela fait partie de la raison pour laquelle la PNL fonctionne bien pour les langues dominantes comme l'anglais, mais est moins efficace, par exemple, pour l'hébreu ancien.
Au lieu de cela, les chercheurs ont manuellement extrait le texte des documents sources et identifié des liens uniques entre des ensembles de documents, par exemple, lorsqu'un texte était imité ou traduit dans un autre livre. Ces données ont été placées dans un graphique, qui a automatiquement intégré ces liens uniques dans un réseau contenant tous les enregistrements (les chercheurs ont ensuite utilisé un graphique pour former une méthode d'apprentissage automatique qui peut suggérer des connexions entre les textes). Restaient les éléments visuels des textes : 20 000 illustrations et 10 000 tableaux, que les chercheurs ont étudiés à l'aide de réseaux de neurones.
La vision par ordinateur pour les images historiques fait face à des défis similaires à la PNL ; il a ce que Lauren Tilton, professeur agrégé d'humanités numériques à l'Université de Richmond, appelle un biais "présentiste". De nombreux modèles d'IA sont formés sur des ensembles de données des 15 dernières années, explique Tilton, et les objets qu'ils ont appris à répertorier et à identifier ont tendance à être des caractéristiques de la vie contemporaine, comme les téléphones portables ou les voitures. Les ordinateurs ne reconnaissent souvent que les itérations contemporaines d'objets qui ont une histoire plus longue - pensez aux iPhones et aux Teslas, plutôt qu'aux standards et aux modèles T. Pour couronner le tout, les modèles sont généralement entraînés sur des images couleur haute résolution plutôt que sur les photographies granuleuses en noir et blanc du passé (ou les premières représentations modernes du cosmos, d'apparence incohérente et dégradées par le passage du temps). Tout cela rend la vision par ordinateur moins précise lorsqu'elle est appliquée à des images historiques.
"Nous parlerons à des informaticiens, et ils diront:" Eh bien, nous avons résolu la détection d'objets "", dit-elle. "Et nous dirons, en fait, si vous prenez une série de photos des années 1930, vous allez voir que cela n'a pas été aussi résolu que nous le pensons." Les modèles d'apprentissage en profondeur, qui peuvent identifier des modèles dans de grandes quantités de données, peuvent être utiles car ils sont capables d'une plus grande abstraction.
Dans le cas du projet Sphaera, les chercheurs de BIFOLD ont formé un réseau de neurones pour détecter, classer et regrouper (en fonction de la similarité) les illustrations des premiers textes modernes ; ce modèle est désormais accessible à d'autres historiens via un service Web public appelé CorDeep. Ils ont également adopté une nouvelle approche pour analyser d'autres données. Par exemple, divers tableaux trouvés dans les centaines de livres de la collection ne pouvaient pas être comparés visuellement car "le même tableau peut être imprimé de 1 000 façons différentes", explique Valleriani. Les chercheurs ont donc développé une architecture de réseau de neurones qui détecte et regroupe des tables similaires sur la base des nombres qu'elles contiennent, en ignorant leur disposition.
Jusqu'à présent, le projet a donné des résultats surprenants. Un modèle trouvé dans les données a permis aux chercheurs de voir que pendant que l'Europe se fracturait selon des lignes religieuses après la Réforme protestante, les connaissances scientifiques fusionnaient. Les textes scientifiques imprimés dans des lieux tels que la ville protestante de Wittenberg, devenue un centre d'innovation scientifique grâce au travail des savants réformés, ont été imités dans des centres comme Paris et Venise avant de se répandre sur tout le continent. La Réforme protestante n'est pas exactement un sujet sous-étudié, dit Valleriani, mais une perspective médiatisée par la machine a permis aux chercheurs de voir quelque chose de nouveau : "Ce n'était absolument pas clair auparavant." Les modèles appliqués aux tableaux et aux images ont commencé à renvoyer des modèles similaires.
Les ordinateurs ne reconnaissent souvent que les itérations contemporaines d'objets qui ont une histoire plus longue - pensez aux iPhones et aux Teslas, plutôt qu'aux standards et aux modèles T.
Ces outils offrent des possibilités plus importantes que le simple suivi de 10 000 tables, explique Valleriani. Au lieu de cela, ils permettent aux chercheurs de tirer des conclusions sur l'évolution des connaissances à partir de modèles dans des groupes d'enregistrements, même s'ils n'ont en fait examiné qu'une poignée de documents. "En regardant deux tableaux, je peux déjà faire une énorme conclusion sur 200 ans", dit-il.
Les réseaux de neurones profonds jouent également un rôle dans l'examen de l'histoire encore plus ancienne. Le déchiffrement des inscriptions (connu sous le nom d'épigraphie) et la restauration des exemples endommagés sont des tâches fastidieuses, en particulier lorsque les objets inscrits ont été déplacés ou manquent d'indices contextuels. Les historiens spécialisés doivent faire des suppositions éclairées. Pour aider, Yannis Assael, chercheur à DeepMind, et Thea Sommerschield, chercheuse postdoctorale à l'Université Ca' Foscari de Venise, ont développé un réseau de neurones appelé Ithaca, qui peut reconstruire les parties manquantes des inscriptions et attribuer des dates et des lieux aux textes. Les chercheurs affirment que l'approche d'apprentissage en profondeur - qui impliquait une formation sur un ensemble de données de plus de 78 000 inscriptions - est la première à aborder conjointement la restauration et l'attribution, en apprenant à partir de grandes quantités de données.
Jusqu'à présent, selon Assael et Sommerschield, l'approche met en lumière les inscriptions de décrets d'une période importante de l'Athènes classique, qui ont longtemps été attribuées à 446 et 445 avant notre ère, une date que certains historiens ont contestée. À titre de test, les chercheurs ont entraîné le modèle sur un ensemble de données ne contenant pas l'inscription en question, puis lui ont demandé d'analyser le texte des décrets. Cela a produit une date différente. "La date moyenne prévue d'Ithaca pour les décrets est de 421 avant notre ère, ce qui correspond aux avancées les plus récentes en matière de datation et montre comment l'apprentissage automatique peut contribuer aux débats autour de l'un des moments les plus importants de l'histoire grecque", ont-ils déclaré par e-mail.
D'autres projets proposent d'utiliser l'apprentissage automatique pour tirer des conclusions encore plus larges sur le passé. C'était la motivation derrière la Venice Time Machine, l'une des nombreuses "machines à remonter le temps" locales à travers l'Europe qui ont maintenant été établies pour reconstruire l'histoire locale à partir de documents numérisés. Les archives d'État vénitiennes couvrent 1 000 ans d'histoire répartis sur 80 kilomètres d'étagères ; l'objectif des chercheurs était de numériser ces documents, dont beaucoup n'avaient jamais été examinés par les historiens modernes. Ils utiliseraient des réseaux d'apprentissage en profondeur pour extraire des informations et, en traçant les noms qui apparaissent dans le même document à travers d'autres documents, reconstruire les liens qui unissaient autrefois les Vénitiens.
Frédéric Kaplan, président de Time Machine Organization, affirme que le projet a maintenant numérisé suffisamment de documents administratifs de la ville pour capturer la texture de la ville au cours des siècles passés, permettant d'aller bâtiment par bâtiment et d'identifier les familles qui y vivaient à différents moments. "Ce sont des centaines de milliers de documents qui doivent être numérisés pour atteindre cette forme de flexibilité", explique Kaplan. "Cela n'a jamais été fait auparavant."
Pourtant, en ce qui concerne la promesse ultime du projet - rien de moins qu'une simulation numérique de la Venise médiévale jusqu'au niveau du quartier, à travers des réseaux reconstruits par l'intelligence artificielle - des historiens comme Johannes Preiser-Kapeller, le professeur de l'Académie autrichienne des sciences qui a dirigé l'étude des évêques byzantins, disent que le projet n'a pas été en mesure de tenir parce que le modèle ne peut pas comprendre quelles connexions sont significatives.
QUI : Institut Max Planck pour l'histoire des sciences
QUOI : Une application Web permettant de classer le contenu de documents historiques comprenant des tableaux numériques et alphanumériques. Le logiciel peut localiser, extraire et classer les éléments visuels désignés « illustrations de contenu », « initiales », « décorations » et « marques d'impression ».
Qui : DeepMind
Quoi : Un réseau neuronal profond formé pour effectuer simultanément les tâches de restauration textuelle, d'attribution géographique et d'attribution chronologique, précédemment effectuées par les épigraphes.
Who: École Polytechnique Fédérale de Lausanne, Ca’ Foscari, and the State Archives of Venice
Quoi : Une collection numérisée des archives de l'État de Venise, qui couvre 1 000 ans d'histoire. Une fois terminé, les chercheurs utiliseront l'apprentissage en profondeur pour reconstruire les réseaux sociaux historiques.
Preiser-Kapeller a fait sa propre expérience en utilisant la détection automatique pour développer des réseaux à partir de documents - en extrayant les informations du réseau avec un algorithme, plutôt que de demander à un expert d'extraire des informations pour alimenter le réseau comme dans son travail sur les évêques - et dit que cela produit beaucoup de "complexité artificielle" mais rien qui ne serve à l'interprétation historique. L'algorithme n'a pas été en mesure de distinguer les cas où les noms de deux personnes figuraient sur la même liste de contribuables des cas où ils figuraient sur un certificat de mariage, de sorte que, comme le dit Preiser-Kapeller, "ce que vous obtenez vraiment n'a aucune valeur explicative". C'est une limitation que les historiens ont soulignée avec l'apprentissage automatique, similaire à ce que les gens ont fait à propos des grands modèles de langage comme ChatGPT : parce que les modèles ne comprennent finalement pas ce qu'ils lisent, ils peuvent arriver à des conclusions absurdes.
Il est vrai qu'avec les sources actuellement disponibles, une interprétation humaine est nécessaire pour fournir un contexte, dit Kaplan, bien qu'il pense que cela pourrait changer une fois qu'un nombre suffisant de documents historiques seront rendus lisibles par machine.
Mais il imagine une application de l'apprentissage automatique plus transformationnelle et potentiellement plus problématique. L'IA générative pourrait être utilisée pour faire des prédictions qui étoffent les espaces vides dans les archives historiques - par exemple, sur le nombre d'apprentis dans l'atelier d'un artisan vénitien - en se basant non pas sur des enregistrements individuels, qui pourraient être inexacts ou incomplets, mais sur des données agrégées. Cela peut apporter plus de perspectives non élitistes dans le tableau, mais va à l'encontre de la pratique historique standard, dans laquelle les conclusions sont basées sur les preuves disponibles.
Pourtant, une préoccupation plus immédiate est posée par les réseaux de neurones qui créent de faux enregistrements.
Sur YouTube, les téléspectateurs peuvent désormais regarder Richard Nixon prononcer un discours qui avait été écrit au cas où l'alunissage de 1969 se terminerait par un désastre, mais qui n'a heureusement jamais eu besoin d'être prononcé. Les chercheurs ont créé le deepfake pour montrer comment l'IA pourrait affecter notre sens commun de l'histoire. En quelques secondes, on peut générer de fausses images d'événements historiques majeurs comme le débarquement du jour J, comme l'a récemment expliqué le professeur d'histoire du Nord-Est, Dan Cohen, avec des étudiants d'un cours consacré à l'exploration de la manière dont les médias et la technologie numériques façonnent l'étude historique. "[Les photos sont] entièrement convaincantes", dit-il. "Vous pouvez coller tout un tas de gens sur une plage et avec un char et une mitrailleuse, et ça a l'air parfait."
La nouvelle version du grand modèle linguistique de l'entreprise invente des trucs, mais peut aussi admettre quand c'est faux.
La fausse histoire n'a rien de nouveau - Cohen souligne la façon dont Joseph Staline a ordonné que les ennemis soient effacés des livres d'histoire, par exemple - mais l'échelle et la rapidité avec lesquelles les contrefaçons peuvent être créées sont à couper le souffle, et le problème va au-delà des images. L'IA générative peut créer des textes qui se lisent de manière plausible comme un discours parlementaire de l'ère victorienne, comme Cohen l'a fait avec ses étudiants. En générant une écriture manuscrite ou des polices de caractères historiques, cela pourrait également créer ce qui ressemble de manière convaincante à un document historique écrit.
Pendant ce temps, les chatbots IA comme Character.ai et Historical Figures Chat permettent aux utilisateurs de simuler des interactions avec des personnages historiques. Les historiens ont soulevé des inquiétudes au sujet de ces chatbots, qui peuvent, par exemple, faire paraître certaines personnes moins racistes et plus pleines de remords qu'elles ne l'étaient en réalité.
En d'autres termes, il y a un risque que l'intelligence artificielle, des chatbots historiques aux modèles qui font des prédictions basées sur des enregistrements historiques, fasse très mal les choses. Certaines de ces erreurs sont des anachronismes bénins : une requête adressée à Aristote sur le chatbot Character.ai concernant son point de vue sur les femmes (qu'il considérait comme inférieures) a renvoyé une réponse selon laquelle elles ne devraient "pas avoir de réseaux sociaux". Mais d'autres pourraient être plus conséquents, en particulier lorsqu'ils sont mélangés dans une collection de documents trop volumineux pour qu'un historien puisse les vérifier individuellement, ou s'ils sont diffusés par quelqu'un qui s'intéresse à une interprétation particulière de l'histoire.
Même s'il n'y a pas de tromperie délibérée, certains chercheurs craignent que les historiens utilisent des outils qu'ils ne sont pas formés pour comprendre. "Je pense qu'il y a un grand risque à cela, car nous, en tant qu'humanistes ou historiens, externalisons effectivement l'analyse vers un autre domaine, ou peut-être une machine", déclare Abraham Gibson, professeur d'histoire à l'Université du Texas à San Antonio. Gibson dit que jusqu'à très récemment, les collègues historiens à qui il a parlé ne voyaient pas la pertinence de l'intelligence artificielle pour leur travail, mais ils prennent de plus en plus conscience de la possibilité qu'ils pourraient éventuellement céder une partie de l'interprétation de l'histoire à une boîte noire.
Ce problème de "boîte noire" n'est pas propre à l'histoire : même les développeurs de systèmes d'apprentissage automatique ont parfois du mal à comprendre leur fonctionnement. Heureusement, certaines méthodes conçues pour les historiens sont structurées pour offrir une plus grande transparence. Ithaca produit une gamme d'hypothèses classées par probabilité, et les chercheurs de BIFOLD travaillent sur l'interprétation de leurs modèles avec une IA explicable, qui vise à révéler quelles entrées contribuent le plus aux prédictions. Les historiens disent qu'ils promeuvent eux-mêmes la transparence en encourageant les gens à considérer l'apprentissage automatique avec un détachement critique : comme un outil utile, mais qui est faillible, tout comme les gens.
Alors que le scepticisme à l'égard de ces nouvelles technologies persiste, le domaine l'adopte progressivement et Valleriani pense qu'avec le temps, le nombre d'historiens qui rejettent les méthodes informatiques diminuera. Les inquiétudes des chercheurs concernant l'éthique de l'IA sont moins une raison de ne pas utiliser l'apprentissage automatique, dit-il, qu'une opportunité pour les sciences humaines de contribuer à son développement.
Comme l'écrivait l'historien français Emmanuel Le Roy Ladurie en 1968, en réponse aux travaux d'historiens qui avaient commencé à expérimenter l'histoire computationnelle pour enquêter sur des questions telles que les modèles de vote du parlement britannique dans les années 1840, "l'historien de demain sera un programmeur, ou il n'existera pas".
Moira Donovan est une journaliste scientifique indépendante basée à Halifax, en Nouvelle-Écosse.
Cette histoire faisait partie de notre numéro de mai/juin 2023.
"J'ai soudainement changé d'avis sur la question de savoir si ces choses vont être plus intelligentes que nous."
Le récit autour des étudiants infidèles ne raconte pas toute l'histoire. Rencontrez les enseignants qui pensent que l'IA générative pourrait réellement améliorer l'apprentissage.
Hinton prendra la parole à EmTech Digital mercredi.
ChatGPT a suscité des spéculations sur l'intelligence artificielle générale. Mais la prochaine véritable phase de l'IA se situera dans des domaines et des contextes spécifiques.
Découvrez les offres spéciales, les meilleures histoires, les événements à venir et plus encore.
Merci d'avoir soumis votre e-mail !
On dirait que quelque chose s'est mal passé.
Nous rencontrons des difficultés pour enregistrer vos préférences. Essayez d'actualiser cette page et de les mettre à jour une fois de plus. Si vous continuez à recevoir ce message, contactez-nous à l'adresse [email protected] avec une liste des newsletters que vous souhaitez recevoir.
Tout cela s'ajoute à une question pour les historiens : les machines étant appelées à jouer un plus grand rôle à l'avenir, combien devrions-nous leur céder du passé ? Les ordinateurs ne reconnaissent souvent que les itérations contemporaines d'objets qui ont une histoire plus longue - pensez aux iPhones et aux Teslas, plutôt qu'aux standards et aux modèles T.