Revue SOLARIS Décembre 1999 / Janvier 2000 ISSN : 1265-4876 |
![]() ![]() ![]() ![]() |
Diversité des informations traitées par des moyens informatiques, standardisation optimale et acteurs du processus de standardisation
François Horn
Université Charles de Gaulle - Lille
III
IFRESI-CNRS, 2 rue des Canonniers, 59800 Lille, tél. 03 20 12 54 38
Mél : horn@l3av03.univ-lille3.fr
Cet article est déjà paru dans la revue: Communications & Stratégies, n°33, 1999
![]() |
Résumé La diffusion des informations traitées par des moyens informatiques requiert, à un certain niveau, l'existence d'un processus de standardisation. Une question importante est de savoir si ce processus de standardisation ne risque pas de nuire à la variété des produits informationnels. Par définition les notions de standardisation et de diversité des produits apparaissent comme relativement contradictoires, puisque le propre d'un standard est de doter de caractéristiques communes un groupe de produits et est donc toujours à un certain niveau réducteur de variété. Pour les produits informationnels, la contradiction apparente entre standardisation et diversité a un caractère plus aigu : un processus de standardisation est indispensable pour que les produits informationnels puissent être consommés par un nombre important d'utilisateurs, tandis que la valeur d'un stock d'informations est directement liée à la diversité de celles-ci. Cependant, il semble que ce problème connaisse une solution simple basée sur la distinction entre les supports de l'information qu'il convient de standardiser pour assurer sa diffusion et le contenu de l'information qui peut être des plus diversifiés, sans qu'en apparence il existe de relation entre ces deux aspects. Sur un plan plus théorique, cette approche basée sur l'analyse de la nature particulière de l'information et de son processus de production, correspond à la combinaison de la standardisation des "informations-méthodes" et de la diversité des "informations-services" (première partie). Toutefois, nous montrerons que la façon dont s'opère le processus de standardisation, la nature des acteurs à l'œuvre dans ce processus et donc les possibilités d'évolution des standards ne sont pas sans influence sur la diversité des informations produites. Dès lors, il est nécessaire d'analyser les différents processus de création et d'évolution des standards (deuxième partie) et les particularités de ces processus dans le cas des informations traitées par des moyens informatiques (troisième partie). Par rapport aux situations parfois insatisfaisantes auxquelles aboutissent des processus de standardisation initiés par l'Etat, les instances de normalisation ou le marché nous conclurons en soulignant les potentialités d'une standardisation par le "monde de la création" (quatrième partie). Abstract Releasing computer - processed information does require a certain amount of standardisation. The two notions of variety and standardisation necessarily clash, but the latter becomes necessary if large numbers of users are to have access to information. An approach based on an analysis of the very nature of information can associate information as a method and information as a service. Standardisation can affect diversity, however, especially in the case of computer-processed information. Such government-induced methods have often proved unsatisfactory, and we shall finally explore the opportunities offered by the "world of creation". |
De plus en plus de produits informationnels, quelle que soit leur nature, sont diffusés par l'informatique. Il est vraisemblable que cette tendance va s'accélérer dans les années à venir. Elle correspond à l'évolution de l'informatique : après une première phase caractérisée par l'utilisation de grands systèmes informatiques centralisés, puis une deuxième phase correspondant à l'explosion de la micro-informatique, nous sommes entrés dans une phase dont les traits principaux sont le développement des réseaux, la mise en place d'architectures de type clients-serveurs et l'importance du multimédia. Ces transformations résultent notamment de la baisse rapide et continue du coût des matériels et, dans une moindre mesure, des communications.
La diffusion des informations traitées par des moyens informatiques que ce soit "on-line" ou "off-line" requiert, à un certain niveau, l'existence d'un processus de standardisation. Une question importante est de savoir si ce processus de standardisation ne risque pas de nuire à la variété des produits informationnels. En d'autres termes est-il possible d'atteindre à la fois deux objectifs qui semblent souhaitables : faciliter la diffusion des produits informationnels et développer la diversité des informations ?
Si la question de la standardisation pour la diffusion de produits informationnels n'est pas nouvelle, elle acquiert avec l'utilisation de l'informatique une importance décisive pour trois raisons : la numérisation possible de l'ensemble des produits informationnels, qu'ils reposent sur l'écrit, le son et/ou l'image ; la codification et la formalisation d'une partie croissante du stock des connaissances (David et Foray, 1995) ; la diffusion et la reproduction de ces informations diverses à un coût marginal extrêmement faible.
Par définition les notions de standardisation et de diversité des produits apparaissent comme relativement contradictoires, puisque le propre d'un standard est de doter de caractéristiques communes un groupe de produits et est donc toujours à un certain niveau réducteur de variété. Cette conception, appliquée au niveau de l'entreprise, où la standardisation est synonyme d'efficacité mais réductrice de diversité, est à la base du "monde de production fordiste" dont la figure emblématique est la Ford T noire. Le processus de standardisation avait pour conséquence inéluctable la standardisation des produits, dont l'intérêt (économie d'échelle, effets d'apprentissage améliorant la productivité) était qu'elle reposait sur une standardisation des composants et des méthodes de production, mais dont l'inconvénient était l'uniformité des produits (satisfaction de besoins standards ou nécessité d'une adaptation de l'utilisateur au produit standard). Toutefois, il existe maintenant d'autres processus de standardisation permis notamment par les innovations techniques et organisationnelles, qui combinent standardisation des composants et des méthodes de production (facteurs d'efficacité) et différenciation des produits (adaptation du produit aux besoins précis de l'utilisateur).
Parmi les composants une place particulière doit être accordée aux composants d'interface. La standardisation de ceux-ci augmente la valeur d'usage des produits. Ces composants d'interface peuvent être matériels (dispositifs techniques) ou immatériels (spécifications). Ils concernent les interfaces entre le produit et l'utilisateur (exemple des commandes d'une voiture, de la disposition des touches sur un clavier), les interfaces entre des produits complémentaires (magnétophone et cassette). Ils acquièrent une importance décisive quand les produits s'intègrent dans des réseaux (électrique, ferroviaire...) où la présence d'interrelations techniques et l'existence de bénéfices associés à l'intégration de réseaux nécessitent une compatibilité entre les différents composants constituant le réseau pour assurer interconnectivité et interopérabilité technique.
On retrouve d'une certaine façon cette problématique de standardisation des composants et de diversité des produits dans le cas des produits informationnels. Pour ces produits, la contradiction apparente entre standardisation et diversité a un caractère plus aigu : un processus de standardisation est indispensable pour que les produits informationnels puissent être consommés par un nombre important d'utilisateurs, tandis que la valeur d'un stock d'informations est directement liée à la diversité de celles-ci. Cependant, il semble que ce problème connaisse une solution simple basée sur la distinction entre les supports de l'information (par exemple le type de disque dans le cas de la musique) qu'il convient de standardiser pour assurer sa diffusion et le contenu de l'information qui peut être des plus diversifiés (les titres proposés), sans qu'en apparence il existe de relation entre ces deux aspects. Sur un plan plus théorique, cette approche basée sur l'analyse de la nature particulière de l'information et de son processus de production, correspond à la combinaison de la standardisation des "informations-méthodes" et de la diversité des "informations-services" (première partie). Toutefois, nous montrerons que la façon dont s'opère le processus de standardisation, la nature des acteurs à l'oeuvre dans ce processus et donc les possibilités d'évolution des standards ne sont pas sans influence sur la diversité des informations produites. Dès lors, il est nécessaire d'analyser les différents processus de création et d'évolution des standards (deuxième partie) et les particularités de ces processus dans le cas des informations traitées par des moyens informatiques (troisième partie). Par rapport aux situations parfois insatisfaisantes auxquelles aboutissent des processus de standardisation initiés par l'État, les instances de normalisation ou le marché nous conclurons en soulignant les potentialités d'une standardisation par le "monde de la création" (quatrième partie).
Ribault (1993) considère que les "informations-ressources" (ou "informations-supports") "constituent le noyau dur du patrimoine informationnel d'une société ", les "informations-services" étant "les produits dérivés des "informations-supports" qui ont pour vocation de répondre à une demande spécifique, via des services individualisés ". L'intérêt de cette approche patrimoniale de l'information, construite par analogie avec le patrimoine monumental, en considérant que le patrimoine "est facteur d'identité, élément structurant d'une culture et créateur de sens ", est de souligner deux caractéristiques des informations-ressources conçues comme des biens patrimoniaux : l'irréversibilité (avec la possibilité de dégradation du bien[1]) et l'incertitude quant aux types de satisfactions futures que peut apporter ce bien. Il est donc nécessaire de "penser un mode de gestion spécifique pour le patrimoine informationnel : la gestion patrimoniale " ; celle-ci doit stimuler la création d'une sorte d'écosystème informationnel qui garantirait la préservation de l'"information-support" et l'émergence de services adaptés aux besoins ; la difficulté est "de parvenir à assurer l'exploitation de la variété et la mobilisation du patrimoine informationnel, tout en garantissant cette variété pour les usages futurs, non encore existants " (Ribault, 1995, p. 221).
Dans le cas de l'information traitée par des moyens informatiques, la question de la standardisation est cruciale dans la mesure où elle conditionne la diffusion potentielle de cette information. Le processus de standardisation porte sur les "informations méthodes". Le choix des composants d'interface[2] qui seront standardisés et le choix des standards retenus, le moment où cette standardisation intervient et les possibilités d'évolution des différents standards ont une influence sur la diversité des "informations-services" potentiellement consommables par les utilisateurs. En effet, tout processus de standardisation augmente l'efficacité de l'information en élargissant son public potentiel mais contribue inévitablement à une certaine homogénéisation de celle-ci[3].
Tout d'abord à partir des mêmes "informations-ressources" les choix effectués déterminent la variété des services fournis en termes de formes d'information utilisables (textes écrits avec des alphabets plus ou moins diversifiés, images dont la définition peut être plus ou moins précise, sons...), de possibilités et de facilités de recherche, de sélection, de traitement et de présentation de l'information. Cette diversité dépend de la variété et des performances des logiciels applicatifs utilisés qui dépendent eux-mêmes des caractéristiques du matériel, des systèmes d'exploitation, des protocoles et des logiciels de communication. Le Minitel en France constitue un exemple des limites de l'évolution de la nature des services proposés en raison des standards adoptés à l'époque (1981) et de leur difficulté à évoluer.
Ensuite et surtout, les options choisies déterminent la partie du patrimoine informationnel qui sera accessible, celle dont les spécifications de codification sont compatibles avec les autres composants du processus de production de l'information. Il ne faut pas considérer cet aspect fondamental uniquement sous un angle technique de choix de standards efficaces par rapport à un patrimoine informationnel immuable dans ses caractéristiques. En effet, les processus de standardisation ont une dimension stratégique en conférant du pouvoir (et éventuellement des bénéfices) à ceux qui maîtrisent le processus de standardisation des "informations-méthodes". Ces acteurs peuvent utiliser ce pouvoir pour agir sur la gestion du patrimoine informationnel : acquisition et codification des "informations-ressources", création des liens hypermédias entre les différentes "informations-ressources", question qui face à un stock d'informations potentiellement accessibles de plus en plus important devient décisive pour assurer un accès réel à l'information. On pourrait définir la notion de standardisation optimale des "informations-méthodes" sous deux aspects : son efficacité statique (les choix techniques permettant la plus grande diversité des services proposés et la possibilité d'accéder à une part importante du patrimoine informationnel), et son efficacité dynamique (les possibilités d'évolution ultérieure des standards retenus, et leur influence sur l'évolution de ce patrimoine dont la valeur repose sur la diversité des informations qu'il contient, tant en nombre de références et de liens entre ces références qu'en terme de possibilités de traitements actuels et futurs de ces informations).
C'est pourquoi il est nécessaire de revenir sur les différents processus de création et d'évolution des standards et sur les acteurs qui les contrôlent, d'abord dans le cas général, avant d'examiner les particularités de ces processus concernant les moyens informatiques.
A l'obtention de la compatibilité reposant sur la standardisation (compatibilité ex-ante) est parfois opposée (David et Bunn, 1988) une compatibilité ex-post par des dispositifs de conversion (gateways) ; la première solution aurait pour inconvénient de générer une perte de variété tandis que la seconde induirait des coûts de conversion. Il ne me semble pas que les dispositifs de conversion représentent véritablement une alternative à la standardisation. En effet, soit ces dispositifs sont relativement inefficaces (David, 1994) et la perte de performance qui en résulte n'empêche pas la nécessité à terme d'une standardisation (on peut citer l'exemple de l'émulation par un ordinateur du fonctionnement d'un ordinateur d'un autre type), soit ces dispositifs sont relativement performants et dans ce cas ce sont ces technologies d'interface qui deviennent l'objet du processus de standardisation. On a ainsi assisté dans l'informatique à des déplacements du problème de la standardisation d'un niveau à un autre niveau : du matériel vers les systèmes d'exploitation (MS.Dos puis Windows pour la microinformatique, Unix pour le reste de l'informatique), puis vers les communications entre des machines ayant des systèmes d'exploitation différents (TCP/IP pour les protocoles de communication, HTML pour la présentation des informations) et peut-être demain vers les applications qui pourront s'exécuter indépendamment du type de machines ou de systèmes d'exploitation (le langage Java). C'est pourquoi nous nous limiterons aux processus de création de standards en intégrant le fait que le niveau où s'opère la standardisation peut changer et qu'il est donc indispensable d'intégrer la nécessaire évolution des standards.
Dans le cas des standards ce sont principalement les externalités de réseaux qui sont à la base des rendements croissants d'adoption (Foray, 1990). Les externalités de réseau sont des externalités de consommation qui proviennent de l'interdépendance des décisions de consommation individuelle : la valeur d'un bien ou d'un service change quand il est acheté et consommé par d'autres utilisateurs. Ces externalités de réseaux peuvent être directes (effet de club direct) comme dans les cas du téléphone, du fax ou du courrier électronique où l'existence d'un nouvel abonné augmente pour chaque usager l'utilité de son propre appareil ; si elles sont généralement positives, il faut mentionner la possibilité d'externalités négatives en cas de saturation d'un réseau physique de communication où l'arrivée de nouveaux automobilistes ou de nouveaux "internautes" peut faire baisser la valeur du bien ou du service pour l'ensemble des utilisateurs (Cohendet, 1996). Les externalités de réseaux indirectes reposent sur le fait que l'importance de l'offre de produits complémentaires dépend de la taille du réseau (exemple des magnétoscopes d'un standard donné et de la diversité des films proposés pour ce type d'appareil) ; le réseau est constitué par les possesseurs du produit principal qui ne sont pas nécessairement reliés entre eux au sens physique du terme (Katz et Shapiro, 1985).
Les externalités de réseaux sont cependant différentes des autres rendements croissants d'adoption (Foray 1989). En effet, dans le cas général, la valeur de la technologie ne change pas pour l'usager une fois qu'il l'a adoptée ; les critères d'adoption d'un utilisateur dépendent seulement des comportements d'adoption passés des autres utilisateurs (le processus d'adoption est uniquement "path-dependent"). Par contre dans le cas des externalités de réseaux les rendements associés à une technologie sont déterminés par les comportements passés et futurs des autres utilisateurs, le processus d'adoption est "path-and-future-dependent" (Foray, 1990, p. 122). Dans ce cas, "l'anticipation constitue l'élément fondamental du choix de l'utilisateur potentiel" (Foray, 1990, p. 124), l'usager doit adopter la technologie qui l'emportera à terme mais il peut être extrêmement difficile de prédire quelle sera cette technologie : " certaines structures dynamiques ne généreront jamais de séries temporelles assez longues, pour que les agents concernés puissent former des estimations probabilistes robustes sur les futurs possibles " (Foray et Freeman, 1992, p.16).
L'importance des anticipations explique que malgré la force des rendements croissants d'adoption, il ne se produit pas nécessairement une standardisation spontanée. On retrouve avec la production des standards, en raison de l'existence des externalités de réseaux, les problèmes ayant trait à la production des biens collectifs (David, 1994).
Ce continuum recouvre une évolution des formes de propriété depuis des biens libres, où la valeur sociale du bien vient uniquement de son adoption, jusqu'à des possibilités de breveter ou de protéger par un droit d'auteur le standard ou le support matériel ou logiciel sur lequel il repose. La frontière entre ces deux situations dépend de la nature du standard mais est aussi l'enjeu de controverses juridiques célèbres depuis les brevets déposés sur le morse jusqu'aux possibilités de protéger l'utilisation d'une icône représentant une corbeille sur un écran d'ordinateur.
Les standards peuvent être considérés comme des biens collectifs. Dans le cas où les standards portent sur des caractéristiques inappropriables, il s'agit de biens collectifs purs dont on retrouve les déterminants d'indivisibilité (les dépenses de mise au point du standard sont indépendantes du nombre d'utilisateurs), de bien non-rival (le standard ne se détruit pas dans l'usage et peut donc être adopté par un nombre infini d'utilisateurs), et de non-exclusion de l'usage (on ne peut empêcher un utilisateur d'adopter le standard) (Foray, 1995). Dans le cas où il est possible de protéger le standard, il s'agit de biens collectifs mixtes avec externalités (Crozet, 1997) caractérisés par une indivisibilité partielle ; en effet, dans ces situations, d'une part, les systèmes de protection légale (brevets, copyright) nécessitent de fournir de l'information notamment sur les caractéristiques du produit ou du procédé qui sont souvent des éléments déterminants d'un standard (Weinstein, 1989) ; d'autre part, si le producteur peut vendre l'utilisation du produit ou du procédé concerné, il lui est impossible de facturer ex-ante (avant la réalisation du processus de standardisation) son hypothétique futur caractère standard, qui demeure donc un bien collectif ; certes, ex-post (une fois le processus de standardisation réalisé) le producteur pourra internaliser la valeur supplémentaire qui résulte du caractère standard qu'a acquis son produit, mais cela suppose que le processus de standardisation (ou production d'un standard) ait été effectué ou que les utilisateurs anticipent le succès d'un tel processus ; comme le notent Foray et Freeman (1992, p. 18) "il n'y a pas matière à différencier des phases de création et de diffusion : c'est l'adoption et l'usage qui confèrent au bien son mode d'existence. (...) Le processus de création recouvre dans ce cas la constitution du réseau, non pas la mise au point de l'artefact. "
Concrètement lorsque apparaît un nouveau produit ou une nouvelle technique et que donc différentes solutions peuvent apparaître aussi légitimes ou performantes, la tentation est forte de chercher une "différenciation des produits et des méthodes de production, y compris par l'utilisation de stratégies créant des incompatibilités de réseau de façon à rendre certains consommateurs captifs" (David, 1994, p.265). Dans ce type de situation, l'existence de barrières à la mobilité élevées augmente le pouvoir de marché de l'initiateur d'un système propriétaire (Brousseau, 1993). C'est ce qui explique que "l'émergence de toute technologie de réseau (canaux, chemins de fer, télégraphe et téléphone) s'est accompagnée de la prolifération de systèmes concurrents incompatibles et, en conséquence, de l'impossibilité d'exploiter des externalités latentes de réseau" (OCDE, 1991, p. 40). Chaque producteur espère que c'est sa solution technique qui constituera le futur standard et on a de multiples exemples de coexistence durable de plusieurs techniques incompatibles : l'existence des grands systèmes informatiques qualifiés de propriétaires, le demi-siècle nécessaire pour normaliser l'écartement des voies de chemin de fer en Angleterre (Foray, 1989), le réseau ferré australien sur lequel subsistent encore trois écarts de voies différents (Cowan, 1995), la concurrence pour un standard entre 18 protocoles différents pour les programmes de télévision numérique par voie terrestre aux Etats-Unis (LMB Actu, 15/01/1998).
Ces situations de sous-standardisation, quand elles perdurent, peuvent entraver le développement du secteur considéré ; on peut citer l'exemple de la dépression de l'industrie du disque après 1948 lorsque surgirent en même temps deux standards techniques nouveaux pour succéder au 78 tours : le 33 tours de CBS et le 45 tours de RCA. La crainte de devenir des "orphelins révoltés" (Angry Technological Orphan), c'est-à-dire de se retrouver piégé sur un mauvais choix technologique quand un standard s'imposera, peut aller jusqu'à l'absence de production comme l'illustre l'échec du son quadriphonique sur le marché grand public avec l'existence de deux standards concurrents en 1971, Columbia et JVC (Le Nagard, 1997), ou les difficultés à s'imposer du DVD (Digital Video Disc) support réinscriptible destiné à remplacer les CD et CDROM. De même, l'importance des externalités indirectes peut bloquer le développement d'un produit par défaut de standardisation de celui-ci dans une situation de cercle vicieux ou "syndrome de l'oeuf et de la poule" (Le Nagard, 1997) ; les débuts de la microinformatique étaient caractérisés par une telle situation : les différents types de micro-ordinateurs étaient incompatibles, générant des marchés segmentés et donc de taille trop limitée pour rentabiliser la production de progiciels diversifiés indispensables à leur utilisation par un large public, freinant ainsi le développement des micro-ordinateurs et donc la production des progiciels.
On retrouve ici typiquement les problèmes de production des biens collectifs : les agents économiques n'ont, chacun isolément, aucun intérêt à prendre une initiative qui serait pourtant profitable à chacun si tous la prenaient simultanément. Toutefois ceci n'implique pas que la seule solution pour atteindre une situation de standardisation soit le recours à la contrainte notamment étatique. En effet, pour que puisse s'enclencher un processus de standardisation, il suffit qu'il existe "une accumulation précoce de choix en faveur d'une même variante - même si ces choix ont été largement influencés par un ensemble de circonstances exceptionnelles et transitoires" (David, 1994, p. 268-269). En effet, l'utilité pour un agent du ralliement à une variante constitue une fonction croissante du nombre d'agents ayant adopté cette variante. Dès que cette utilité dépasse les avantages escomptés d'une stratégie de différenciation, la variante considérée semble dotée d'un "magnétisme intrinsèque", jouer un rôle de "point focal" vers lequel convergent les comportements constituant une "convention auto-renforçante" (Boyer et Orlean, 1994, p. 220). Des comportements de "mimétisme rationnel" peuvent permettre l'existence d'équilibres sans autre raison que la croyance partagée dans leur existence : le nombre d'adhérents partageant le même point de vue impose celui-ci (Gomez, 1994). Les interactions dynamiques entre les utilisateurs ralliés à une solution et les utilisateurs potentiels, les feedback positifs qui en résultent (David, 1994), font qu'une solution adoptée au départ par une proportion significative mais minoritaire des acteurs concernés peut devenir un standard. Le fait que le nombre des adopteurs (réels ou potentiels) d'une solution technique dépasse un seuil critique permet de faire converger les anticipations vers cette solution, la transformant en standard de facto. Différents acteurs peuvent à la faveur de certains événements être à l'origine du déclenchement d'un tel processus.
Le processus de standardisation peut également être enclenché par une entreprise (ou une alliance entre entreprises) en position de force sur le marché du produit concerné voire sur un marché complémentaire. Dans le cas où la standardisation porte sur des caractéristiques non-appropriables (standard-interface) elle aboutit à la production de produits compatibles[4] par les autres producteurs ralliés au standard. L'entreprise à l'initiative de la standardisation détient néanmoins un avantage sur les entreprises concurrentes dans sa capacité à faire évoluer le standard en fonction de ses intérêts. Dans le cas où il est possible pour l'entreprise de protéger par brevet ou copyright le produit ou le procédé qui fait l'objet du standard, l'entreprise peut en retirer un profit important soit parce qu'elle peut se retrouver en situation de monopole sur le marché, soit par la vente de licences aux autres producteurs. C'est ce qui explique que pour imposer un standard une entreprise peut recourir à différents moyens : baisse des prix (voire même distribution gratuite du produit comme dans le cas de Microsoft pour imposer son navigateur Explorer face à son concurrent Netscape) qu'elle pourra compenser par une hausse quand elle sera en situation de monopole technologique ou par des stratégies de rentabilité croisée sur des produits complémentaires, multiplication des effets d'annonce et des alliances pour déclencher des anticipations autoréalisatrices qui se forment souvent de manière subjective (Le Nagard, 1997).
Enfin indépendamment des cas précédents, il peut exister des situations, notamment lorsque le produit ou le procédé sont radicalement nouveaux, où de "petits événements" exogènes suffisent pour produire un effet de localisation du progrès technique sur une technologie particulière à partir des choix des premiers utilisateurs qui ont dans ce cas une extraordinaire importance (Foray, 1990).
Les différents cas précédents peuvent se combiner ; par exemple des circonstances particulières peuvent permettre à une entreprise de développer un standard qui peut être validé par un organisme de normalisation et légitimé par l'Etat. Mais dans tous les cas rien ne garantit que le standard qui s'imposera soit optimal.
On peut caractériser la convention qui se crée autour d'un standard comme relevant d'une stratégie évolutionnairement stable ou SES (Boyer et Orlean, 1994, p. 222-224). Celle-ci se définit par le fait que quand cette stratégie est suivie par l'ensemble des acteurs concernés, aucune autre stratégie ne peut s'imposer, même si cette nouvelle stratégie est elle-même une SES et qu'elle est supérieure à l'ancienne. En effet, un petit groupe qui suit une autre stratégie obtient de moins bons résultats et est condamné à disparaître progressivement. "Une telle situation d'excès d'inertie, qui peut donc se maintenir en dépit de préférences individuelles pour le changement, affectera principalement les marchés au sein desquels les externalités de réseau sont importantes et où donc un comportement de changement isolé ferait supporter à son auteur des coûts particulièrement élevés" (Foray, 1990, p. 126). Toutefois si les rendements croissants d'adoption proviennent principalement des externalités de réseau la situation de lock-in n'est pas irréversible (Foray, 1989) : une nouvelle convention peut émerger si elle est adoptée simultanément par une proportion d'individus dépassant un certain seuil critique[5] .
La question de l'évolution des standards (efficacité dynamique) est pourtant décisive notamment lorsqu'il existe des évolutions techniques et que s'élargit l'espace pertinent de la standardisation (sur un plan géographique ou sur le plan du rapprochement de publics auparavant segmentés). Nous verrons que la standardisation par le "monde de la création" peut, au moins dans le cas des moyens informatiques, mieux prendre en compte l'évolution ultérieure des standards retenus (efficacité dynamique), ce qui nécessite auparavant d'examiner les particularités des processus de standardisation concernant les moyens informatiques.
Des technologies auparavant relativement séparées connaissent un processus d'enrichissement réciproque dont le meilleur exemple est le rapprochement entre l'informatique et les télécommunications (OCDE, 1991), et plus récemment avec la télévision. Ceci a pour conséquence d'élargir l'espace de la standardisation sur le plan géographique (de plus en plus de problèmes doivent être réglés directement au niveau international) et sur le plan technologique (des domaines auparavant relativement séparés comme la micro-informatique, les stations de travail, les mini-ordinateurs et les grands ordinateurs le sont de moins en moins). L'ampleur des externalités de réseaux directes et indirectes, comme des autres rendements croissants d'adoption (apprentissage par l'usage, économies d'échelle en production, rendements croissants d'informations et interrelations technologiques) qui en résultent, entraîne une nécessaire accélération des processus de standardisation alors que chaque standard ne relève plus seulement d'une seule technologie mais doit prendre en compte l'ensemble du complexe technologique constitué par les technologies de l'information.
Or ce complexe technologique évolue très rapidement, mais dans un climat d'incertitude considérable sur les potentialités des nouvelles techniques, sur la vitesse et l'ampleur de la chute des coûts, sur les solutions qui s'imposeront. Dans ce contexte où intervient de surcroît le coût élevé de certains nouveaux projets d'infrastructure, l'efficacité dynamique des standards, leur capacité à évoluer dans le sens des développements futurs, devient une question centrale.
Dans le cadre de ces procédures longues[6] , de plus en plus complexes et souvent opaques (OCDE, 1991), confrontées à un environnement technologique changeant rapidement, les instances de normalisation soit se contentent de jouer un rôle de "chambre d'enregistrement des décisions du marché" (Foray, 1990, p 133), les normes étant appliquées avant même que les décisions formelles soient prises, soit élaborent des normes fonctionnelles très générales à la portée pratique limitée : on peut citer l'exemple des normes fonctionnelles OSI (Open-Systems Interconnexion) ; ces normes concernant les réseaux informatiques définissent les performances à réaliser à sept niveaux (ou couches) de systèmes technologiques tout en laissant une large plage de liberté pour décider de la manière dont les normes seront respectées ; le choix d'un modèle de référence uniquement fonctionnel était lié au fait qu'IBM disposait depuis 1974 d'un ensemble de standards opérationnels définissant les spécifications de ses propres produits (SNA) permettant la normalisation interne de ses réseaux (Foray, 1990) ; dans la pratique, si la production des normes OSI augmente régulièrement depuis 30 ans leur impact reste limité : seules quelques-unes sont effectivement acceptées sur le marché, de nombreuses normes sont inapplicables car se référant à des technologies périmées ou parce qu'elles se situent à un niveau trop théorique (Hawkins, 1995), et rien ne garantit que deux machines respectant dans leurs grandes lignes les exigences d'une norme OSI acceptée répondront effectivement à la demande de compatibilité et d'interfonctionnement et pourront communiquer entre elles (OCDE, 1991).
Dans tous les cas, ce sont en fait les entreprises qui semblent jouer le rôle le plus important dans la standardisation, ce qui n'est pas sans conséquence.
Si l'entreprise qui maîtrise les standards déterminants possède un avantage décisif sur ses concurrents, elle doit toutefois en permanence utiliser cette position privilégiée pour agir sur les nouveaux standards stratégiques (ceux qui concernent les technologies au coeur du complexe technologique), qui changent dans la filière informatique en fonction des évolutions technologiques. C'est par exemple ce que n'a pas su effectuer IBM dans la micro-informatique à partir de son rôle dominant dans le reste de l'informatique ; en effet, dans la micro-informatique ce sont actuellement les standards autour des microprocesseurs et des systèmes d'exploitation qui sont devenus déterminants ; en confiant la fabrication de ces composants à Intel et Microsoft lors du lancement de l'IBM-PC, IBM a hypothéqué ses chances de jouer un rôle majeur dans l'évolution de la micro-informatique ; et, quand plus tard IBM essaiera de réagir notamment en essayant de promouvoir un nouveau système d'exploitation pour PC (OS2) ce sera un échec face à l'importance acquise par Windows de Microsoft.
Par contre jusqu'à maintenant Microsoft a su accompagner les changements majeurs du complexe technologique des technologies de l'information[11] . Après avoir sous-estimé l'importance d'Internet en créant un réseau commercial fermé de services en ligne (Microsoft Network), elle a rapidement changé d'attitude en donnant à partir de son réseau un accès complet à Internet, en développant des logiciels pour Internet et en investissant massivement dans les "informations-ressources".
De ce point de vue, la bataille livrée par Microsoft pour imposer Explorer comme outil de navigation sur Internet est exemplaire de la stratégie de Microsoft pour promouvoir ses produits logiciels comme standards de fait : confrontée à un standard existant (le langage HTML) et à une entreprise détenant la plus grande part du marché (Netscape), Microsoft distribue gratuitement Explorer, l'intègre dans les dernières versions de son système d'exploitation et surtout rajoute au langage HTML des spécifications propres ; cette situation de "déstandardisation" a pour conséquence que certaines pages Web s'affichent différemment voire refusent de s'afficher suivant le navigateur utilisé, ou que les serveurs sont obligés de développer deux fois leurs sites[12] . C'est également ce type de pratique qu'effectue Microsoft par rapport au langage Java, qui risque de devenir un des standards déterminants de l'informatique de demain par sa capacité d'écrire des applications s'exécutant sur n'importe quel type de machines, en ajoutant à Java des caractéristiques supplémentaires Microsoft.
Surtout la maîtrise par Microsoft de certains chaînons décisifs des technologies de l'information et sa puissance financière lui permettent, en alliance avec d'autres acteurs importants du matériel informatique, de la communication et de la culture, de détenir un pouvoir croissant sur la gestion du patrimoine informationnel dans un sens qui ne favorise pas sa diversité. En effet, la numérisation et le stockage des "informations-ressources" ont un coût et il est à craindre que des producteurs privés ne gèrent que celles qui seront rentables. De plus une des richesses du patrimoine informationnel est constituée par les liaisons (notamment les liens hypertextes) existant entre des documents variés. Là aussi, il n'est nullement évident que des producteurs privés d'"informations-ressources" développent des liaisons avec des documents fournis par des producteurs concurrents. Le danger est d'avoir une offre dominée par quelques grands groupes vendant des produits informationnels diversifiés dans leur forme mais basés sur des contenus d'une variété limitée, rapidement très rentables ce qui leur permettrait de renforcer leur domination.
Il s'effectue une prise de conscience du danger que peut représenter une telle évolution. Par exemple Microsoft fait l'objet de plusieurs procès pour abus de position dominante, le dernier concernant l'intégration de son navigateur Explorer dans Windows 98. La législation européenne oblige un développeur à révéler ses spécifications d'interface et en cas de refus autorise les opérations de décompilation (Zimmermann, 1995) permettant de reconstituer le code-source du programme (son secret de fabrication). Pour limiter les avantages que retire le producteur d'une technologie privée qui est devenu un standard, certains comités de standardisation exigent un système de licence obligatoire cédée à un prix "raisonnable" (Foray, 1995). Toutefois cette mesure n'est efficace que si la technologie ne devient pas un standard de facto et de façon plus générale ce type d'actions a toujours eu une portée limitée dans l'histoire de l'informatique.
Par contre, une action, peut-être plus efficace, serait l'aide qui peut être apportée au développement du "monde de la création" dont les potentialités en terme d'une standardisation profitable à tous semblent importantes.
Le point de départ est la prise en compte de l'incertitude dans les relations entre acteurs économiques : "Ainsi placés en situation d'avoir à coordonner leurs actions de travail, d'offre et de demande (sinon le produit ne pourrait arriver à réalité), les acteurs économiques doivent être considérés comme s'affrontant à une incertitude radicale : sur le futur, sur l'action de l'autre, sur ses projets et ses attentes, sur les usages des objets présents" (Salais et Storper, 1993, p.13).
Ces incertitudes peuvent être surmontées par l'existence de conventions ; "une convention c'est un ensemble d'éléments qui à tout instant pour les participants de la convention vont ensemble, et sur lesquels par conséquent ils partagent un accord. (...) Une convention est un système d'attentes réciproques sur les compétences et les comportements, conçu comme allant de soi et pour aller de soi." (Salais, 1989, p.213)
La nature différente des formes d'incertitude auxquelles sont confrontés le producteur et le demandeur et surtout les conventions différentes qui sont requises pour que, par-delà l'incertitude les "acteurs portent à la réalité le produit dans le cours de situations d'action économiques au sein desquelles ils se coordonnent" (Salais et Storper, 1993, p.13), définissent les mondes possibles de production : "Il existe plusieurs mondes possibles de production, chacun centré sur un type de produit. Changer de produit, c'est se déplacer vers un autre monde possible de production" (...) "Chaque monde possible de production apparaît comme un schéma de coordination entre les personnes mobilisées autour du produit : celles qui le fabriquent et celles qui l'utilisent" (Salais et Storper, 1993, p.31).
Les formes de l'incertitude caractérisant les relations entre producteurs et clients-utilisateurs sont différentes selon le type de processus de production aboutissant à la création d'un produit[13] . Deux critères sont utilisés pour construire une typologie des mondes de production : premièrement, le degré de dédicace du produit ; à des produits dédiés, spécifiques où la production est "tirée" par la demande sont opposés des produits génériques, anonymes quant à leur destination où la production est "poussée" vers le marché ou les usagers ; deuxièmement l'absence ou l'existence de phénomènes de standardisation dans la fabrication du produit, en soulignant que la standardisation ne s'étend pas nécessairement au produit lui-même mais peut se limiter aux méthodes et aux composants utilisés en autorisant donc une "gamme" de produits différenciés.
Les formes différenciées de traitement de l'incertitude, caractéristiques des mondes de production, sont séparées sur le plan analytique, selon qu'elles visent à répondre à l'incertitude du client-usager sur la qualité du produit fourni (ce qui renvoie à une incertitude sur la qualité du processus de production mais aussi à une incertitude sur la compréhension des attentes du client-utilisateur par le producteur), ou à l'incertitude du producteur sur les comportements actuels et futurs (demande anticipée) des clients -utilisateurs.
Il en découle des différences selon les mondes de production
concernant l'évaluation ex-ante de la qualité du produit, les
modalités de la concurrence entre producteurs, les modes de coordination
(marché, hiérarchie, formes intermédiaires), la nature des
compétences déterminantes des producteurs et le type dominant
d'entreprise. La typologie proposée est résumée dans le
schéma suivant :
Absence de |
Standardisation du produit |
||
Produits dédiés |
|
Monde interpersonnel |
Monde de la production flexible |
Type de produit : |
Sur-mesure ; service personnalisé |
Des gammes de produits diversifiés livrées en juste à temps jusqu'au sur-mesure de masse |
|
Forme d'incertitude |
Incertitude réciproque sur les besoins précis et sur la qualité du produit |
Incertitude réciproque sur les besoins précis et sur la qualité du produit |
|
Traitement par rapport au produit : |
Intercompréhension, métier, qualités professionnelle et relationnelle |
Formes plus ou moins développées de coproduction |
|
Traitement par rapport à la demande future : |
Adaptation ; barrières institutionnelles |
Flexibilité qualitative |
|
Evaluation de la qualité : |
Confiance, réputation, certification de la qualification |
Certification de l'organisation ou des processus de production |
|
Concurrence : |
Qualité |
Qualité et prix |
|
Mode de coordination : |
Marché de "proximité" ou hiérarchie |
Marché segmenté (produit final), réseau (produit intermédiaire) |
|
Mode de rationalisation : |
Economie de variété, expérience professionnelle |
Economie d'organisation ou d'envergure |
|
Type dominant d'entreprise : |
Travailleurs indépendants, départements d'entreprise ou P.M.E. |
Entreprises en réseau, firme J |
|
Produits génériques |
|
Monde de la création |
Monde fordiste |
Type de produit : |
Création originale |
De masse, standardisé |
|
Forme d'incertitude |
Radicale (sur l'émergence du produit et son utilité) |
Faible, risque probabilisable |
|
Traitement par rapport au produit : |
Règles éthiques et scientifiques ; critères esthétiques |
Besoin standard |
|
Traitement par rapport à la demande future : |
Financement principalement non marchand |
Prévision, action sur la demande et flexibilité quantitative |
|
Evaluation de la qualité : |
Jugement des pairs |
Standard industriel de produit |
|
Concurrence : |
Prestige |
Prix |
|
Mode de coordination : |
Hiérarchie administrative |
Marché anonyme, de masse (grandes séries) |
|
Mode de rationalisation : |
Recherche et inventions ; inspiration |
Economies d'échelle |
|
Type dominant d'entreprise : |
Université, centre de recherche (privé ou public), créateur indépendant |
Bureaucratie industrielle ou tertiaire "mécanistes" ; firme A |
Le "monde de la création" se caractérise par une grande incertitude sur l'émergence même d'un produit au terme du processus de création, son aptitude à satisfaire des besoins actuels ou futurs à un coût acceptable, et la capacité du producteur à bénéficier du fruit de sa production. Face à une incertitude aussi radicale, l'activité ne peut s'effectuer que si le marché ne joue pas un rôle déterminant : la production peut être effectuée par une unité économique non marchande (université, centre de recherche public) ou par un département de l'entreprise non soumis à une contrainte de rentabilité à court terme ou, quand la production est marchande, son succès marchand n'est pas jugé comme étant le critère essentiel de la réussite (création artistique, littéraire) et n'est pas l'unique critère d'allocation de ressources (mécénat, subvention) ; dans la plupart des cas le financement public direct ou indirect (aides) joue un rôle important. C'est le monde de la création originale de nouvelles technologies et de nouvelles familles de produits, de leur conception ainsi que de la définition des besoins qu'ils satisfont, du développement des connaissances générales par opposition aux connaissances spécialisées. Dans ce monde l'évaluation de la qualité obéit à des règles éthiques et scientifiques ou à des critères esthétiques, et une place importante est accordée au jugement des pairs. L'allocation des ressources s'effectue principalement par une évaluation de type institutionnel. Les compétences mobilisées sont l'inspiration et les capacités à la recherche et à l'invention, le moteur de la concurrence étant le prestige résultant de l'originalité de la création.
Le "monde de la création" a toujours joué un rôle important dans l'histoire de l'informatique notamment dans la création originale de logiciels très divers (depuis des systèmes d'exploitation ou des langages de programmation jusqu'à des petits "utilitaires", en passant par des logiciels de navigation sur réseaux, des jeux...) par des producteurs aussi différents que de simples particuliers (éventuellement regroupés en club), des universités, des centres de recherche publics ou dépendants d'entreprises privées mais dont l'activité n'est pas soumise à des contraintes de rentabilité à court terme, dont l'exemple le plus célèbre est le Centre de recherches de Xerox à Palo Alto ou Xerox Parc, qui a joué un rôle important dans des innovations informatiques majeures. Le point commun à ces différentes activités est que les critères marchands ne sont pas déterminants, les logiciels produits étant le plus souvent des logiciels en freeware (ou "gratuiciels") qui sont fournis gratuitement aux utilisateurs, et des logiciels en shareware (ou "distribuciels") qui sont diffusés librement, l'utilisateur intéressé par le produit étant tenu moralement de verser une contribution le plus souvent modeste à l'auteur du logiciel. Les logiciels produits sont au départ principalement utilisés par la communauté informatique elle-même ; les compétences des utilisateurs, la circulation rapide de l'information au sein de cette communauté structurée par des réseaux, et le fait que les "secrets de fabrication" (code-source et documentation des programmes) sont le plus souvent également publiés, permettent une amélioration rapide de la fiabilité des logiciels et des modifications permanentes des produits initiaux pouvant aboutir à des utilisations diversifiées et parfois très éloignées des objectifs du créateur initial. En fin de compte, le monde de la création peut produire des logiciels performants et utiles dont un des derniers exemples est le système d'exploitation pour micro-ordinateur basé sur Unix (Linux) développé à l'origine par un étudiant finlandais Linus Torvalds, amélioré sans cesse par des experts bénévoles reliés par Internet, distribué gratuitement, jugé plus performant que Windows NT le systèmes d'exploitation "haut de gamme" de Microsoft, et de plus en plus utilisé (5 à 6 millions d'installations actuellement) (Lang, 1998). Ces logiciels libres occupent une place décisive dans l'Internet et sans eux l'Internet disparaîtrait (LMB Actu, 12/01/1998).
A partir des études rédigées en 73-74 par Robert Kahn et Vincent Cerf (OCDE, 1991) ont été adoptés des protocoles de communication : Transmission Control Protocol/Internet Protocol (TCP/IP). L'originalité de ces standards est qu'ils ne proviennent ni de décisions étatiques (normes internationales), ni de décisions des entreprises privées productrices de logiciels ou de matériels, ce qui leur confère des avantages appréciables.
A la différence des normes OSI très complexes, résultant de longues et laborieuses négociations internationales, les principes de TCP/IP sont simples permettant la mise au point rapide de produits opérationnels (Archimbaud, 1995).
L'indépendance par rapport aux constructeurs de matériels et aux producteurs de logiciels facilite l'ouverture de ces standards aux différentes situations techniques existantes ou à venir ; de même les spécifications de ces standards sont publiques, les pré-versions sont diffusées largement ce qui permet de les tester sous différentes configurations et de les améliorer avant qu'elles ne deviennent des standards reconnus.
Les solutions techniques retenues ne nécessitent pas l'existence "d'un poste de pilotage central de l'Internet" ; il existe simplement "quelques entités coordinatrices reconnues par la communauté " (Archimbaud, 1995, p.36) apparues au fur et à mesure des besoins, qui contrôlent et impulsent les évolutions techniques, adoptent les standards et gèrent les problèmes d'adresses des machines connectées au réseau. Tout ceci confère au réseau une grande souplesse d'évolution tant en ce qui concerne la variété des applications utilisées, la diversité des informations traitées qu'en ce qui concerne le nombre de sites connectés : face au problème que constituait l'épuisement du nombre d'adresses disponibles, l'IETE (instance technique de l'Internet) sut faire évoluer les protocoles TCP/IP qui permettront à chaque habitant du monde de connecter plusieurs dizaines de machines sur Internet (Archimbault, 1995)[15], infirmant les prévisions que "les adresses IP deviennent des biens rares et commercialisables dont le prix va probablement augmenter" (Braman, 1997). Le World-Wide-Web (WWW), dernier système d'information apparu sur l'Internet, qui élargit l'utilisation du réseau à un large public non spécialisé par ses possibilités d'accès à la plupart des sources d'informations disponibles sur l'Internet de façon simple et conviviale, a pour origine un projet du CERN (Organisation européenne pour la recherche nucléaire) développé à partir de 1989 pour la diffusion de l'information dans la communauté de la physique nucléaire ; il est basé sur des documents au format HTML (HyperText Markup Language) qui constituent grâce aux liaisons hypertextes une gigantesque "toile d'araignée" sur laquelle il est aisé de naviguer ; l'évolution du langage HTML est assurée régulièrement par un organisme indépendant le World Wide Web Consortium.
On peut dire qu'Internet représente un exemple de standardisation réussie combinant efficacité (la croissance impressionnante du nombre d'ordinateurs connectés et du trafic) et diversité des informations (aussi bien en ce qui concerne la variété des "informations-ressources" disponibles que la diversité des services fournis). Il permet d'enrichir le patrimoine informationnel global accessible, par la conception même du réseau qui fait qu'il n'existe pas de distinction technique entre producteurs d'informations d'un côté, consommateurs de l'autre, toute personne ou institution connectée au réseau pouvant produire librement des informations reliées facilement (liens hypertextes) aux informations déjà existantes. Toutefois cette situation favorable, que nous attribuons au statut particulier des acteurs qui ont développé Internet, peut être remise en cause par l'influence grandissante des entreprises privées en terme de contenu (publicité[16], commerce électronique) et surtout sur les standards eux-mêmes (par la "privatisation" de la gestion des adresses, les logiciels de navigation et de recherche, les caractéristiques des modems [17]...)
© "Solaris", nº 6, Décembre 1999 / Janvier 2000.