Revue SOLARIS Décembre 1999 / Janvier 2000 ISSN : 1265-4876 |
![]() ![]() ![]() ![]() |
Introduction à "Normes et documents numériques : quels changements"
Ghislaine Chartron
URFIST de Paris/École Nationale des Chartes - 17 rue des Bernardins - 75005 Paris - chartron@cnam.fr
Jean-Max Noyer
Maître de conférence à Rennes II, Professeur invité à l'Université Libre de Bruxelles
URFIST de Rennes. Tél. : 02 99 14 14 46 - Fax : 02 43 36 20 47 -
Jean-Max.NOYER@uhb.fr
Ce numéro de Solaris ne s'inscrit pas directement dans la longue suite des approches théoriques qui ont eu en vue, souvent avec succès, de penser, dans une perspective anthropologique, sociologique, juridique, critique forte, l'histoire des processus de normalisation ayant participé et participant de la création continué du monde, de ses sociétés, de ses cultures.
L'angle d'approche " plus technique ", plus proche du terrain, des pratiques professionnelles, vise à rendre compte de certaines dimensions des évolutions et débats en cours dans le domaine des normes du document numérique. Ce faisant, nous avons toutefois essayé de proposer quelques agencements conceptuels susceptibles de favoriser une meilleure appréhension des effets des nouveaux systèmes d'écriture, des nouveaux types de documents. Sont ainsi abordées un certain nombre de pistes permettant de penser les divers. À normalisation des systèmes d'écriture numériques comme résultant d'un quadruple processus de création, sélection-convergence, réplication-dissémination, émergence et ce, dans une perspective " auto-organisationnelle et non linéaire ".
Les dimensions socio-cognitives et politiques liées au développement sont bien évidemment présentes dans ce dossier, même si l'angle d'attaque choisi a consisté, avant tout, à fournir un certain nombre de repères, principalement autour et à partir de la notion de document numérique " textuel ", dédiés à la relance du débat critique sur les nouvelles formes d'intelligences collectives, les pratiques qui les habitent, leurs enjeux. Plus particulièrement ont été mis en évidence, au-delà de l'évolution documentaire stricto sensu, les effets de formatage et de performation que l'utilisation des nouvelles normes du document numérique textuel engendre et ce, au sein de multiples communautés. Nous pensons précisément ici à l'émergence de nouveaux dispositifs homme(s)-machine(s) prenant en compte les caractères de plus en plus distribués des intelligences collectives.
En effet dans les domaines de la formation, de la recherche, de la diffusion, l'appropriation des univers socio-cognitifs émergents est relativement avancée. Ces communautés, en s'appuyant sur les nouvelles normes, ont développé et continuent de développer des nouveaux outils, de nouvelles mémoires, ont exploité et continuent d'exploiter diverses dimensions liées à l'hypertextualité numérique, aux modes de représentations émergeant des caractères de plus en plus distribués, coopératifs, différenciés des dispositifs de production et de circulation des savoirs.
Il apparaît de plus en plus nettement que les communautés d'oeuvres, de chercheurs, cherchent à prendre en compte plus fortement que par le passé, les multiples " incomplétudes en procès de production " dont elles sont l'expression et l'exprimé. Et ce, en particulier au moyen de la prise en compte des nouvelles traces (noeuds, liens, hyperliens...) exprimant de manière plus précise et complète que par le passé, la vie des univers de référence, de co-production, répétition, altération-création, dissémination des oeuvres, travaux divers... mais aussi au moyen des nouvelles pratiques cartographes permettant la mise en visibilité des modes collectifs de co-émergence des activités, des productions de telle ou telle communauté. Au coeur de ces nouvelles pratiques, les possibilités offertes par les normes et standards émergents affectent l'évolution de l'édition électronique scientifique, des bases de connaissances en réseaux. De plus, ces normes ouvrent des possibilités d'exploitation renouvelées de la " plasticité numérique ", et ce, de manière toujours plus singulière, en favorisant la différenciation des pratiques d'écritures-(s)-lecture(s), des " éthologies " socio-cognitives.
Ce que l'on rassemble sous le terme " document " est non seulement devenu plus vaste, mais nous avons à faire à présent à une population de plus en plus dynamique, ouverte, qui ne cesse de se différencier et de participer à d'autres différenciations à l'oeuvre, à des niveaux d'échelles variés, par exemple, au coeur des pratiques socio-cognitives les plus diverses.
Déjà P. Otlet [1] avait en son temps étendu très loin, ce qui sous ce terme de document devait être subsumé : hyperdocument. " L'évolution de la Documentation se développe en six étapes. (...) Au sixième stade, un stade de plus et tous les sens ayant donné lieu à un développement propre, une instrumentation enregistreuse ayant été établie pour chacun, de nouveaux sens étant sortis de l'homogénéité primitive et s'étant spécifiés, tandis que l'esprit perfectionne sa conception, s'entrevoit dans ces conditions, l'Hyper-intelligence. " Sens-Perception-Document" sont choses, notions soudées. Les documents visuels et les documents sonores se complètent d'autres documents, les tactiles, les gustatifs, les odorants et d'autres encore. À ce stade aussi l'"insensible", l'imperceptible, deviendront sensible et perceptible par l'intermédiaire concret de l'instrument-document. L'irrationnel à son tour, tout ce qui est intransmissible et fût négligé, et qui à cause de cela se révolte et se soulève comme il advient en ces jours, l'irrationnel trouvera son " expression " par des voies encore insoupçonnées. Et ce sera vraiment alors le stade de l'Hyper-documentation. "
Nous sommes aujourd'hui, pour une part essentielle dans cette postérité-là. Et plus que jamais l'émergence des normes numériques nous rappelle, à la suite de bien d'autres [2], l'importance des " humbles pratiques d'écritures et d'enregistrements " et de ce qui les affecte mais aussi des résistances que certains ont à " reconnaître le rôle des inscriptions, à s'intéresser au rôle de la pratique instrumentale " et à ce qui les affecte.
En ce sens, ce que ce numéro a en vue est aussi ancien que l'histoire de l'écriture et donc pour partie essentielle de l'histoire de l'homme. L'émergence de l'écriture est émergence d'une stabilisation créatrice, (supposant donc divers procès de standardisation), de modes de production de traces répétables et combinables, transportables, quels que soient les milieux associés où ces traces sont répétées, dupliquées, combinées, transformées, déplacées, où quelqu'un répète, duplique, transforme...
" Ainsi l'histoire de l'écriture revient à dire une double décontextualisation : des pictogrammes sumériens à l'alphabet consonantique sémitique, de là à l'alphabet grec, autrement dit à partir de l'union première entre le signe, le langage et le monde que réalise l'univers cunéiforme, via l'énigme du mot dans les alphabets sémitiques, pour aboutir à l'illusion sonore de l'alphabet grec, l'écriture s'est détachée du contexte; dans cette distanciation, diversement réalisée par les différentes cultures graphiques, elle a fini par rendre visible, en l'homme, les choses du langage et les choses du monde " [3].
Premier et lent processus de normalisation autour et à partir de Sumer, autour et à partir de Sarde, qui conduit respectivement à l'émergence de l'Écriture, de la Monnaie [4].
Plus près de nous, en Europe, entre l'an mille jusqu'à nos jours, langages, systèmes d'écritures, dispositifs de réplication-dissémination, n'ont cessé d'évoluer, de se différencier selon des processus complexes, impliquant des chaînes d'actants (au sens latourien) très variés. Ces processus, expression et exprimé du vaste creusement du couplage originaire " cortex-silex " [5], sont pour une large part de type associationnistes et autopoïétiques. Nous renvoyons, pour un exposé brillant de ces problèmes, à la deuxième partie (intitulée " Memes and Norms ") de l'ouvrage de Manuel de Landa, A thousand years of non-linear history [6].
Parmi ces systèmes d'écritures, les plus importants, les plus connus, qui nous font nous interroger sur la nature du document numérique, sont à la suite du procès de numérisation lui-même, le code ASCII, les normes et standards de réseau et de protocoles de télécommunications (ETHERNET, ATM, TCP-IP, HTTP...), les normes de balisage des textes et documents (SGML, HTML, XML, TEI, HyTime...), les normes d'échanges industriels, institutionnels et commerciaux (EDI), les normes MPEG, les normes et standards spécifiant les supports et formats logiques et matériels de l'information (disquettes, CD-Rom, DVD, ZIP...), les standards de traitement de textes, etc...
Ces systèmes d'écriture génèrent une strate anthropologique nouvelle, sorte de nouveau " milieu associé " pour reprendre le concept de G. Simondon.
Ces documents qui viennent à l'existence aujourd'hui présentent un certain nombre de caractéristiques générales, caractéristiques qui sont comme autant de problèmes à explorer, comme autant de questions à questionner.
La seconde caractéristique du document numérique c'est sa grande " plasticité ", c'est-à-dire les possibilités étendues que ce dernier offre, de traitements automatiques (qu'il s'agisse de textes, d'images ou de sons), de types de manipulations, de transformations. La troisième caractéristique, très vite perçue par exemple par Ted Nelson, ce sont les possibilités d'association des documents entre eux, de parties de documents entre elles et ce, quelle que soit la nature des documents associés, liés. On a évoqué à ce propos, selon nous de manière parfaitement justifiée, " une nouvelle alliance " images/textes/sons. Cette caractéristique est au coeur de la problématique des écritures et des mémoires " hypertextuelles ", " hypermédias ", problématique qui a trouvé, dans la création et le développement du réseau Internet, son incarnation la plus forte et la plus ouverte.
Nous reviendrons plus longuement sur ce point.
D'autres caractéristiques expriment cette plasticité. Très rapidement, l'extrême transformabilité des formats de stockage, par exemple, mais aussi l'étendue des modes de recherche, d'analyse, d'interprétation des documents ainsi qu'une grande capacité de duplication, de circulation via des réseaux électroniques, dans un espace-temps pour partie déterritorialisé, et impliquant entre autres choses, des nouvelles temporalités, des nouveaux rapports de vitesse et de lenteur concernant les pratiques d'écriture(s)/lectures.
Ces caractéristiques nouvelles affectent l'histoire des traces, de l'écriture, de la pensée, les modes de répétition et de combinaison de ces traces, des signes, les modes de production et de dissémination des documents et des effets de ces modes de dissémination (ce qui hantait déjà Platon - voir le Phèdre) [7].
La plasticité du document numérique doit toutefois être encore précisée.
Au coeur des systèmes d'écritures, et des modes de production des documents, se joue en même temps que la question de la mémoire, pour une partie essentielle, la question des conditions nouvelles de la cognition. Avec le document numérique, le développement des réseaux et l'émergence de technologies intellectuelles permettant de démultiplier les capacités d'associations, les mémoires numériques sont entrées dans un procès de différenciation sans précédent dans l'histoire des mémoires externes. Ce procès de différenciation se doublant d'un procès de mise en mouvement complexe des documents les uns par rapport aux autres.
Les deux notions centrales de l'hypertextualité à savoir celle de noeud et celle de lien, exprimant la dimension processuelle et collective du document numérique. Cette dimension processuelle du document à dire vrai, est depuis toujours présente. Il n'y a pas de texte (Derrida, Latour...) qui ne soit par et au milieu d'un collectif de pratiques d'écritures-lectures, de duplication-circulation-dissémination de textes ou fragment de textes, de leur reprise, citation, altération... dans des agencements divers et ouverts. Procès sans fin...
Ce qui est véritablement nouveau aujourd'hui c'est la mise en visibilité de ce procès, la mise en visibilité de ce travail, entre autres par les capacités à écrire et à inscrire une partie importante des processus associationnistes et collectifs de la cognition en acte, à des niveaux d'échelles potentiellement indéfiniment ouverts.
C'est là raison pour laquelle ces caractères du document numérique doivent être " creusés ", dès lors que l'on considère les ensembles de mémoires numériques associées en réseau de type hypertextuel.
Pierre Lévy a, au tout début des années 90 [8] caractérisé, " afin d'en préserver les chances de multiples interprétations ", le modèle hypertextuel, par six principes abstraits.
Ces dimensions du document numérique, dans l'espace-temps des mémoires hypertextuelles, sont au coeur d'un vaste travail d'expérimentation et d'exploration collective.
Et la question des normes est la question de la production-appropriation ouverte, conflictuelle parfois, de ces dimensions processuelles, collectives-collaboratives, hybrides. Elle est l'expression des efforts que font des individus, des groupes, des institutions, des industriels... pour maîtriser et exploiter à leurs avantages, à leurs profits des systèmes d'écritures puissants et les mémoires qui vont avec.
Avertis pour une part importante, des émergences, des gains en complexité et différenciation, qui n'ont pas manqué de suivre les grandes révolutions graphiques de l'histoire humaine, les grandes et petites révolutions de l'écriture, des mémoires externes, ils anticipent et accompagnent les variations qui affectent les puissants dispositifs auto-organisateurs que sont les hypertextes-hypermédias numériques en réseau.
Selon les domaines d'activités socio-cognitifs, les acteurs qui les constituent, et les niveaux d'écritures considérés, mis en jeu dans la création de ces dispositifs cognitifs hypercomplexes, ces efforts convergent ou divergent, ces efforts privilégient ou négligent tel ou tel aspect de la plasticité numérique.
Le débat sur les normes émergentes du document numérique est le débat le plus complexe et le plus ouvert qui n'ait jamais eu lieu quant à la question de l'écriture, de la mémoire et quant aux conséquences de la mutation présente de cette dernière.
Si l'on reprend les événements dans l'ordre et pour aller à l'essentiel,
Ces événements répartis sur près d'un demi-siècle à présent, ont été engendrés par un ensemble d'acteurs, de réseaux d'acteurs hétérogènes, oeuvrant aux marges ou sur des fronts de recherche ayant pour but l'amélioration des intelligences collectives, les capacités innovantes, la maîtrise économique et politique des sociétés complexes. Ces marges, ces fronts ont consisté et consistent toujours, à partir du procès de numérisation, à définir des modes d'écritures rendant possible l'exploitation intelligente des ressources documentaires en croissance exponentielle dès avant la seconde guerre mondiale (préoccupation forte déjà présente dans les travaux d'Otlet, Goldberg, Bush...) la maîtrise autant que faire se peut, des processus de fragmentation-différenciation affectant les multiples sphères de production des savoirs, d'informations nécessaires à la bonne marche de sociétés, d'organismes de plus en plus complexes.
Les caractéristiques du document numérique, telles que nous les avons décrites et mises en perspectives ont généré et génèrent un grand nombre de problèmes. Ces problèmes concernent tous les aspects de la vie des documents, c'est-à-dire de leur production, de leur circulation, de leur diffusion, de leur conservation, de leur protection.
Les systèmes qui rendent possible la réalisation du plus grand nombre des modes de chacune de ces fonctions, reposent entre autres sur la création de standards, de normes [9], qui correspondent donc à des objectifs, des intérêts extrêmement variés et parfois variables.
Ces objectifs et intérêts peuvent être conflictuels voire contradictoires selon par exemple qu'il vise un partage le plus large possible des ressources, ou bien la protection maximun d'un certain nombre de ressources, selon qu'ils visent la production de savoirs complexes dans et par des espaces socio-cognitifs eux-mêmes complexes ou bien l'accès simple et largement partagé à un type particulier, limité de ressources.
Les dispositifs numériques, hypertextuels, en réseau étant composés d'un emboîtement complexe d'écritures, de programmes, la définition de nouvelles normes et la manière dont elles vont s'affronter, s'imposer sont affaires complexes. De plus, chaque norme spécifique bien qu'opérant, au sein d'un système d'emboîtement, d'une combinatoire de systèmes de traduction et d'interopérabilité complexes, à des places-niveaux-strates spécifiques, n'en produit pas moins des effets de création-altération à des niveaux supérieurs. Le protocole HTTP, la norme HTML, par exemple, venant à la suite de normes antérieures (ces dernières en étant pour une large part conditions de possibilité) comme des axiomes supplémentaires dans le vaste système d'écritures, des normes héritées, créés des conditions de production et de créativité nouvelles en appelant à son tour l'émergence de nouvelles normes, selon des rythmes et des temporalités divers.
À partir donc des normes fondamentales que nous avons énoncées précédemment, les problèmes posés par l'appropriation cognitive, socio-économique, politique... des documents numériques en croissance rapide, prennent forme et consistance, ou bien si l'on préfère, s'actualisent à travers l'invention et la définition de normes d'écritures, d'échange... Ces inventions-définitions répondent à des problèmes qui répondent eux-mêmes à des séries spécifiques de conditions portées par des ensembles d'actants plus ou moins hybrides qui peuvent être très variés.
La plasticité du document numérique, ses principales caractéristiques, posent donc un ensemble de problèmes et défis, ouvrent une certaine période d'instabilité... Ceux qui relèvent de la nature hypertextuelle, processuelle du document numérique à l'ère des réseaux nous paraissent les plus importants.
À savoir :
Tous les standards, les normes du document électronique qui sont à l'heure présente développés, ont donc pour but, de près ou de loin, de répondre à ces questions générales.
À consulter aussi l'ouvrage d'A. Desrosières, La politique des grands nombres. Histoire de la raison statistique, Éditions de La Découverte, Paris, 1993, ainsi que le Numéro 8 de Raisons Pratiques : Cognition et Information en Société, Éditions de l'Ehess, Paris, 1997
Enfin voir le travail de G.C. Bowker, S.L. Star et L.J. Neumann : http://alexia.lis.uiuc.edu/
" In the world of electronic document formats, the following levels of standardization can be identified :
" La norme est un document établi par consensus et approuvé par un organisme reconnu, qui fournit, pour des usages communs et répétés, des règles, des lignes directrices ou des caractéristiques, pour des activités ou leurs résultats, garantissant un niveau d'ordre optimal dans un contexte donné " (Sutter, [10]).
Dans le monde industriel, la norme est avant tout un document technique qui accompagne le développement de secteurs économiques en assurant notamment la comptabilité des services et produits développés par les différents acteurs en concurrence. Le processus semble s'être accéléré depuis la fin de la première guerre mondiale, "le système normatif est en grande partie fille de la guerre" nous rappellent S. Fayet-Scribe et C. Canet : la reconstruction des activités économiques d'après guerre a engendré cette forte demande de règles communes dans tous les domaines d'activités et en particulier pour les industriels de la mécanique, des chemins de fer et de l'électricité où la sécurité des utilisateurs imposa une concertation afin d'éviter en particulier les accidents liés à des disparités de matériels. C'est à cette époque que vont se mettre en place les principales institutions nationales vouées à l'activité de normalisation : c'est le cas en Hollande, en Suisse, en Allemagne, aux États-Unis et en France avec la mise en place de la Commission Permanente de Standardisation, puis progressivement au niveau international avec la création de la Fédération Internationale des Associations de Normalisation (ISA).
Si le début du XXe siècle était préoccupé en grande partie par la mise en place de procédures de normalisation liées au développement de l'industrie lourde et manufacturière, avec l'enjeu d'une production de masse naissante, la fin du XXe siècle et le début du XXIe se trouvent fortement préoccupés par les standards dédiés aux technologies des biens et services informationnels, associés à la mise en place de cette "société de l'information" dont on parle tant.
Aujourd'hui, l'AFNOR, recense tout domaine économique confondu, 19000 normes françaises (NF), 5800 normes européennes (EN et ETS) et 14500 normes internationales (ISO et CEI), avec notamment pour les pays européens l'obligation d'adopter les directives européennes en substitution aux normes nationales préexistantes; en vue de la construction de cet Espace Économique Européen devant faciliter les échanges intra-communautaires.
Mais le processus de normalisation avec les procédures officielles qui lui sont rattachées est un processus souvent lent, pouvant parfois durer plusieurs années, intégrant différentes phases de validation en vue d'un consensus général : la phase technique confiée à une commission experte, la phase de validation associée à une enquête probatoire, la phase d'homologation par les directions des institutions de normalisation.
L'industrie informatique et des télécommunications supporte difficilement ces délais dans un secteur économique en évolution rapide et très concurrentielle. La notion de standard, même si la distinction n'est pas toujours faite, semble alors plus opérante que la notion de norme : elle désigne un accord consensuel entre acteurs économiques, opérationnel rapidement, avant une validation officielle par les instances normatives comme l'ISO. La différenciation entre "norme" et "standard" parait se situer en grande partie au niveau des acteurs en jeu et des procédures de consensus attachées, le renvoi à la langue anglaise pour le monde industriel est d'ailleurs un indice intéressant sur le poids des acteurs à l'oeuvre.
Dans le contexte américain où les nouvelles technologies sont considérées comme un moteur essentiel de l'économie de demain, avec l'enjeu stratégique d'innover rapidement, des structures spécifiques travaillent avec le monde des entreprises pour la mise au point accélérée de standards, c'est le cas du NIST (National Institute of Standards and Technology) dont M. Pernoo nous rapporte l'actualité du dernier congrès sur le livre électronique et le lancement du standard Open eBook. L'IETF et le W3C s'imposent aussi comme les instances majeures pour la standardisation d'Internet.
Les économistes parlent d'ailleurs uniquement de standards, et non de normes. En se référant à la figure emblématique du monde de production fordiste, la Ford T Noire, F. Horn précise "le processus de standardisation avait pour conséquence inéluctable la standardisation des produits, dont l'intérêt (économie d'échelle, effets d'apprentissage améliorant la productivité) était qu'elle reposait sur une standardisation des composants et des méthodes de production...". Le standard apparaît donc comme un processus réactif des acteurs économiques concernés. L'ISO ainsi que ses structures directement associées font plutôt figure ensuite de "chambre d'enregistrement". Certains standards deviendront des normes comme SGML, mais de nombreux standards resteront standards car il y a là un facteur-temps créant un décalage certain entre une industrie en mutation permanente et instable et un processus normatif souvent trop long pour ériger des recommandations devenues alors obsolètes.
Le texte de F. Horn et les écrits récents des économistes des réseaux (voir en particulier Shapiro et Varian, [11]), nous éclairent sur les caractéristiques inhérentes au processus de normalisation lorsqu'il s'agit de produits et services liés aux technologies de l'information. Le document numérique, quelle qu'en soit sa forme, est un élément de cet ensemble et se trouve donc directement concerné par les spécificités dominantes de cette industrie.
La question de la standardisation des produits informationnels revêt aujourd'hui une importance fondamentale du fait de leur numérisation en cours, de l'élaboration naissante de corpus de connaissances induisant des choix quant aux codifications et formalisations associées, aux procédures d'échange, de diffusion et de reproduction. Nous sommes aux débuts d'une nouvelle ère économique; les questions que nous nous posons aujourd'hui rejoignent très certainement en bien des points celles que se posaient les ingénieurs du début du siècle face aux industries naissantes mais le degré de complexité qui s'impose aujourd'hui tient, en partie, à la convergence nouvelle de différents secteurs économiques, les télécommunications, l'informatique, les réseaux et les différentes industries culturelles...
Face à une industrie en évolution très rapide, à une instabilité constante, à une complexité certaine, la limite actuelle du rôle de l'État et des instances de normalisation est une caractéristique majeure; le rôle des États, face à cette logique de marché, étant de plus en plus de veiller au respect de la législation sur la concurrence pour vérifier la loyauté du combat. Les affaires récentes de Microsoft avec la justice américaine en sont un exemple. Aux États-Unis, c'est la division antitrust du Department of Justice qui veille au grain, en Europe, la Commission Européenne de la Concurrence.
L'effervescence, la course, voire la guerre de la standardisation des technologies informationnelles conduisent à l'élaboration de préconisations stratégiques destinées aux chefs d'entreprises, les incitant à suivre différentes tactiques dont celles de préemption (rapidité du cycle d'innovation, accords précoces, pénétration du marché par les prix) et de maniement des anticipations (utilisation d'un marketing agressif), (Shapiro, Varian).
Mais si ces conseils, ces logiques se vérifient comme opératoires pour le marché des téléphones portables, des modems de communication, des supports de stockage, des consoles de jeux... Il nous semble que certains biens informationnels destinés à des publics spécialisés résisteront en partie à ces schémas, à ces verrouillages planifiés pour défendre un contrôle sur cette production, contrôle revendiqué par des utilisateurs-producteurs (et non exclusivement consommateurs) et facilité aujourd'hui par la mise à disposition des technologies de production. C'est notamment le cas pour la diffusion des articles scientifiques, domaine qui voit s'affronter les acteurs marchands en place, consolidant leur espace par l'initiation de nouveaux standards (par exemple le standard Digital Object Identifier (DOI)) et des acteurs lecteurs-producteurs liés au monde créatif évoqué par Horn. Parmi les réactions de ce monde créatif, citons par exemple, les standards en cours pour l'interopérabilité des bases de preprints, et d'un statut plus mixte le standard Dublin Core et Text Encoding Initiative. Quelle en sera l'issue? Des standards propres à chaque sphère? Une absorption progressive... Le rôle important du W3C (World Wide Web Consortium) dans la standardisation de l'Internet, sa composition hybride où sont présents et actifs les acteurs économiques de poids dans cette nouvelle industrie laissent présager des rapports de force de plus en plus difficiles pour le monde créatif.
L'observation des évolutions en cours, les contributions à ce numéro et les nombreux débats actuels au sein des milieux professionnels permettent de dégager un ensemble de caractéristiques liées au document numérique et aux processus normatifs à l'oeuvre :
L'exemple de la norme MPEG-7 converge aussi vers cette tendance : alors que les normes MPEG précédentes visaient principalement à codifier les représentations des contenus audiovisuels, MEPG-7 a pour objectif de fournir un jeu complet d'outils standardisés pour décrire le contenu multimedia (méta-données).
Du même ordre, les langages de structuration électroniques des textes déplacent en amont des procédures de normalisation/standardisation liées à la sémantique du document comme le souligne en particulier M.A. Chabin. L'exemple de la Text Encoding Initiative (TEI) nous montre qu'au-delà de la description bibliographique, certains standards intègrent un processus de lecture-écriture permettant de capitaliser le travail intellectuel sur le texte notamment dans un souci de faciliter "une critique de l'interprétation des textes". Cette préoccupation est celle de J.L Benoît de l'Inalf pour l'évolution des grands fonds de textes littéraires à l'heure du numérique, c'est aussi celle en partie de M.J. Pierrat qui initie une bibliothèque numérique en sociologie. De la même façon, le succès actuel du langage XML se fonde en grande partie sur la structuration du document dès sa création, lui donnant alors un caractère processuel très large car cette structuration permet d'envisager une très grande diversité de traitements ultérieurs.
Dans le domaine de la Biologie moléculaire, G. Gallezot et P. Bessières nous démontrent aussi ce déplacement vers la sémantique à travers l'étude des standards liés aux objets biologiques, aux langages et aux processus de traitement des documents numériques, concluant "de la syntaxe à la sémantique exprime ce changement de point de vue, un recentrage sur la connaissance, sur l'essence du document".
Les institutions de normalisation ont subi de plein fouet cette complexité : réorganisation, coopération entre groupes de travail, nouveau comité stratégique d'orientation... E. Giuliani souligne notamment quelques réorganisations récentes des instances de l'ISO et de l'AFNOR chargées du secteur "Information et documentation" et "technologie de l'information". Par ailleurs, le partenariat et la liaison permanente entre institutions de culture différente (notamment l'ISO et le W3C) sont devenus indispensables.
Apparemment, avant tout, un affrontement ravivé face aux fonctionnalités offertes par le support électronique et aux intérêts de chacun. Le support numérique, dès la création d'un objet "informationnel", permet d'y inclure des données permettant à chaque communauté de défendre ses intérêts (nous avons introduit précédemment la notion de "document endogène"). Les éditeurs et les producteurs ont notamment la ferme volonté de faire appliquer et respecter la question juridique et économique des droits attachés aux documents dans les processus normatifs d'identification et de description. La traçabilité qu'offre l'électronique leur permettrait de gérer au mieux les revenus associés et la vente directe au consommateur (pay per view).
L'intérêt du monde documentaire et des usagers, sans nier ces besoins, se focalise légitimement plus sur l'accès optimal aux informations. Le problème étant alors la question de l'interopérabilité des codes, métadonnées, protocoles mis en place par chaque communauté. Ce besoin d'interopérabilité est l'intérêt de l'usager comme celui de chaque partie misant sur l'adoption de ces nouveaux produits et services. Les débats sont ainsi engagés, par exemple, entre la communauté marchande INDECS/DOI (Interoperability of Data in E-Commerce Systems/ Digital Object Identifier) et la communauté plus "académique" DC (Dublin Core) pour l'interopérabilité de leurs métadonnées respectives (Bearman, [12]).
Quelle en sera l'issue? Des systèmes parallèles ou connectés? Les accords, s'ils ne sont pas trouvés, pourraient rendre difficile l'adoption des nouveaux produits par l'utilisateur-consommateur.
Les stratégies de verrouillage ont, en tout cas, démarré, sous forme d'accords entre partenaires partageant des intérêts communs, citons par exemple l'annonce récente du 16 novembre 1999 précisant l'interopérabilité des bibliothèques numériques de 12 grands éditeurs scientifiques du marché [13].
Dans son article, C. de Loupy souligne, dans une perspective très proche d'intérêts marchands et non marchands, la difficulté de mise en oeuvre de la norme Unicode pour le respect des langues sur le réseau mondial dominé par une industrie de pays anglophones.
L'appropriation des nouvelles technologies par les communautés d'usagers-producteurs a développé l'expression des besoins spécifiques et des formes d'auto-organisation de ces communautés ont vu le jour. Sous des formes diverses d'organisations, le travail du terrain a abouti dans bien des cas à la définition de spécifications reconnues, dessinant des micro-organisations. Par l'exemple de la biologie moléculaire, G. Gallezot et P. Bessières nous montrent ces formes d'auto-organisation, traduites ici par des nomenclatures, des protocoles de traitement, des standards spécifiques de description, s'appuyant, par ailleurs, dans de nombreux cas, sur des standards plus généraux formulés dans des instances tel le W3C.
Dans la même logique, M.J. Pierrat et J.L. Benoît nous témoignent de l'appropriation de la TEI dans un contexte spécifique qui est celui de leurs communautés scientifiques, avec des singularités, des spécialisations qui leur sont associées. On observe aussi la même diversité pour les métadonnées de type Dublin Core, spécialisées pour chaque domaine d'application, à l'identique pour XML qui a vu se développer par exemple sa spécialisation MathML pour le domaine des mathématiques...
La diversité des besoins de chaque communauté, de chaque domaine d'application renforce cette logique dominante pour la standardisation (au moins vérifiée pour les métadonnées et les langages structurés) : normes ou standards génériques ouverts dont l'appropriation de traduira par des spécialisations locales adéquates. Ainsi le nouveau standard RDF (Resource Data Framework) pourrait bien aussi résoudre les formes multiples de métadonnées en proposant un cadre général de schémas sémantiques.
Les contributions de ce numéro nous donnent ainsi des éclairages variés, complémentaires, certainement encore insuffisants mais déjà riches, pour nous permettre de souligner les caractéristiques convergentes que nous venons d'évoquer. Dans le souci de prolonger cette lecture, un ensemble de liens est proposé sur des institutions, des projets, des réflexions critiques associés à cette problématique bouillonnante de la normalisation/standardisation du document numérique.
Autres standards pour les métadonnées liées au document
numérique (répertoire de l'IFLA)
<http://www.ifla.org/II/metadata.htm>
© "Solaris", nº 6, Décembre 1999 / Janvier 2000.