z-logo
open-access-imgOpen Access
Les nouvelles technologies face à l’historiographie positiviste de l’histoire de France : étude sur le 19ème siècle en français : enjeux et perspectives
Author(s) -
Olivier Bailblé,
Eric Bailblé
Publication year - 2015
Publication title -
matices en lenguas extranjeras
Language(s) - French
Resource type - Journals
ISSN - 2011-1177
DOI - 10.15446/male.n9.54913
Subject(s) - humanities , philosophy
Cet article a donné la possibilité de rendre compte d’une analyse lexicale du 19ème siècle français dans l’édition mondiale produite durant les 19ème et 20ème siècles à l’aide d’un nouvel outil lexicométrique nommé « N-gram-Viewer » (visualisateur de fréquence de mots). Cet instrument numérique en ligne sur l’Internet nous a permis de réaliser une approche assez précise des occurrences lexicales des deux derniers siècles. Ce logiciel qui manipule un corpus de 5 millions de livres numérisés est à la fois linguistique et historique. Il offre en effet des possibilités nouvelles pour apprécier et expliquer l’histoire du 19ème siècle français entre mythe et réalité.La problématique centrale de cet article a donc été la suivante : dans quelle mesure peut-on dire que les nouvelles technologies linguistiques permettent d’obtenir un autre re- gard sur l’histoire dite traditionnelle d’un pays ? Et plus avant encore : dans quelle mesure peut-on dire aussi qu’une analyse structurelle macro-lexicale peut débusquer des représen- tations inédites et constitutives gravitant autour des « Grands Hommes » liés naturellement à l’histoire événementielle ou des positivistes d’un pays ?Les données obtenues ont permis de construire des courbes d’occurrences lexicales (nommées N-grammes) qui nous ont donné accès à un monde numérique jusqu’ici caché. Cet outil nous a permis surtout de voir un double immatériel de la mémoire de l’humanité car il offre l’accès à des traitements algorithmiques accélérés et à des enregistrements mas- sifs d’information connectés à l’édition mondiale.La science de fouilles de données (data mining), la science de réseaux (les graphes obtenus par l’Internet) et leur mise à jour par des « datas centers », tels ont été les trois pa- ramètres essentiels de cette recherche. Ces trois aspects techniques ont constitué la toile de fond de cette étude qui dispose au final de plus de 500 milliards de mots, soit environ 5 téraoctets. La création numérique de ce méga-texte réalisé par les laboratoires « Google » et l’université d’Harvard en 2010 a donc ouvert des perspectives inédites entre culture et nu- mérique, d’où le néologisme récent de « Culturomique » pour nommer ce microscope d’analyse linguistique au service de l’histoire.

The content you want is available to Zendy users.

Already have an account? Click here to sign in.
Having issues? You can contact us here