Revue SOLARIS
Décembre 1999 / Janvier 2000
ISSN : 1265-4876
accueil sommaire du dossier courrier aux éditeurs

       
Diversité des informations traitées par des moyens informatiques, standardisation optimale et acteurs du processus de standardisation

François Horn

Université Charles de Gaulle - Lille III
IFRESI-CNRS, 2 rue des Canonniers, 59800 Lille, tél. 03 20 12 54 38
Mél : horn@l3av03.univ-lille3.fr

Cet article est déjà paru dans la revue: Communications & Stratégies, n°33, 1999


logo Solaris Résumé

La diffusion des informations traitées par des moyens informatiques requiert, à un certain niveau, l'existence d'un processus de standardisation. Une question importante est de savoir si ce processus de standardisation ne risque pas de nuire à la variété des produits informationnels. Par définition les notions de standardisation et de diversité des produits apparaissent comme relativement contradictoires, puisque le propre d'un standard est de doter de caractéristiques communes un groupe de produits et est donc toujours à un certain niveau réducteur de variété. Pour les produits informationnels, la contradiction apparente entre standardisation et diversité a un caractère plus aigu : un processus de standardisation est indispensable pour que les produits informationnels puissent être consommés par un nombre important d'utilisateurs, tandis que la valeur d'un stock d'informations est directement liée à la diversité de celles-ci. Cependant, il semble que ce problème connaisse une solution simple basée sur la distinction entre les supports de l'information qu'il convient de standardiser pour assurer sa diffusion et le contenu de l'information qui peut être des plus diversifiés, sans qu'en apparence il existe de relation entre ces deux aspects. Sur un plan plus théorique, cette approche basée sur l'analyse de la nature particulière de l'information et de son processus de production, correspond à la combinaison de la standardisation des "informations-méthodes" et de la diversité des "informations-services" (première partie). Toutefois, nous montrerons que la façon dont s'opère le processus de standardisation, la nature des acteurs à l'œuvre dans ce processus et donc les possibilités d'évolution des standards ne sont pas sans influence sur la diversité des informations produites. Dès lors, il est nécessaire d'analyser les différents processus de création et d'évolution des standards (deuxième partie) et les particularités de ces processus dans le cas des informations traitées par des moyens informatiques (troisième partie). Par rapport aux situations parfois insatisfaisantes auxquelles aboutissent des processus de standardisation initiés par l'Etat, les instances de normalisation ou le marché nous conclurons en soulignant les potentialités d'une standardisation par le "monde de la création" (quatrième partie).

     
Abstract

Releasing computer - processed information does require a certain amount of standardisation. The two notions of variety and standardisation necessarily clash, but the latter becomes necessary if large numbers of users are to have access to information. An approach based on an analysis of the very nature of information can associate information as a method and information as a service. Standardisation can affect diversity, however, especially in the case of computer-processed information. Such government-induced methods have often proved unsatisfactory, and we shall finally explore the opportunities offered by the "world of creation".







De plus en plus de produits informationnels, quelle que soit leur nature, sont diffusés par l'informatique. Il est vraisemblable que cette tendance va s'accélérer dans les années à venir. Elle correspond à l'évolution de l'informatique : après une première phase caractérisée par l'utilisation de grands systèmes informatiques centralisés, puis une deuxième phase correspondant à l'explosion de la micro-informatique, nous sommes entrés dans une phase dont les traits principaux sont le développement des réseaux, la mise en place d'architectures de type clients-serveurs et l'importance du multimédia. Ces transformations résultent notamment de la baisse rapide et continue du coût des matériels et, dans une moindre mesure, des communications.

La diffusion des informations traitées par des moyens informatiques que ce soit "on-line" ou "off-line" requiert, à un certain niveau, l'existence d'un processus de standardisation. Une question importante est de savoir si ce processus de standardisation ne risque pas de nuire à la variété des produits informationnels. En d'autres termes est-il possible d'atteindre à la fois deux objectifs qui semblent souhaitables : faciliter la diffusion des produits informationnels et développer la diversité des informations ?

Si la question de la standardisation pour la diffusion de produits informationnels n'est pas nouvelle, elle acquiert avec l'utilisation de l'informatique une importance décisive pour trois raisons : la numérisation possible de l'ensemble des produits informationnels, qu'ils reposent sur l'écrit, le son et/ou l'image ; la codification et la formalisation d'une partie croissante du stock des connaissances (David et Foray, 1995) ; la diffusion et la reproduction de ces informations diverses à un coût marginal extrêmement faible.

Par définition les notions de standardisation et de diversité des produits apparaissent comme relativement contradictoires, puisque le propre d'un standard est de doter de caractéristiques communes un groupe de produits et est donc toujours à un certain niveau réducteur de variété. Cette conception, appliquée au niveau de l'entreprise, où la standardisation est synonyme d'efficacité mais réductrice de diversité, est à la base du "monde de production fordiste" dont la figure emblématique est la Ford T noire. Le processus de standardisation avait pour conséquence inéluctable la standardisation des produits, dont l'intérêt (économie d'échelle, effets d'apprentissage améliorant la productivité) était qu'elle reposait sur une standardisation des composants et des méthodes de production, mais dont l'inconvénient était l'uniformité des produits (satisfaction de besoins standards ou nécessité d'une adaptation de l'utilisateur au produit standard). Toutefois, il existe maintenant d'autres processus de standardisation permis notamment par les innovations techniques et organisationnelles, qui combinent standardisation des composants et des méthodes de production (facteurs d'efficacité) et différenciation des produits (adaptation du produit aux besoins précis de l'utilisateur).

Parmi les composants une place particulière doit être accordée aux composants d'interface. La standardisation de ceux-ci augmente la valeur d'usage des produits. Ces composants d'interface peuvent être matériels (dispositifs techniques) ou immatériels (spécifications). Ils concernent les interfaces entre le produit et l'utilisateur (exemple des commandes d'une voiture, de la disposition des touches sur un clavier), les interfaces entre des produits complémentaires (magnétophone et cassette). Ils acquièrent une importance décisive quand les produits s'intègrent dans des réseaux (électrique, ferroviaire...) où la présence d'interrelations techniques et l'existence de bénéfices associés à l'intégration de réseaux nécessitent une compatibilité entre les différents composants constituant le réseau pour assurer interconnectivité et interopérabilité technique.

On retrouve d'une certaine façon cette problématique de standardisation des composants et de diversité des produits dans le cas des produits informationnels. Pour ces produits, la contradiction apparente entre standardisation et diversité a un caractère plus aigu : un processus de standardisation est indispensable pour que les produits informationnels puissent être consommés par un nombre important d'utilisateurs, tandis que la valeur d'un stock d'informations est directement liée à la diversité de celles-ci. Cependant, il semble que ce problème connaisse une solution simple basée sur la distinction entre les supports de l'information (par exemple le type de disque dans le cas de la musique) qu'il convient de standardiser pour assurer sa diffusion et le contenu de l'information qui peut être des plus diversifiés (les titres proposés), sans qu'en apparence il existe de relation entre ces deux aspects. Sur un plan plus théorique, cette approche basée sur l'analyse de la nature particulière de l'information et de son processus de production, correspond à la combinaison de la standardisation des "informations-méthodes" et de la diversité des "informations-services" (première partie). Toutefois, nous montrerons que la façon dont s'opère le processus de standardisation, la nature des acteurs à l'oeuvre dans ce processus et donc les possibilités d'évolution des standards ne sont pas sans influence sur la diversité des informations produites. Dès lors, il est nécessaire d'analyser les différents processus de création et d'évolution des standards (deuxième partie) et les particularités de ces processus dans le cas des informations traitées par des moyens informatiques (troisième partie). Par rapport aux situations parfois insatisfaisantes auxquelles aboutissent des processus de standardisation initiés par l'État, les instances de normalisation ou le marché nous conclurons en soulignant les potentialités d'une standardisation par le "monde de la création" (quatrième partie).




top I. Standardisation des informations-méthodes et diversité des informations-services

A partir de l'étude du processus de production de l'information (Mayère, 1990), on peut dire que les "informations-services" sont produites à partir d'"informations-ressources" (input, matière première ou consommation intermédiaire) et d'"informations-méthodes" (moyen de production). Appliqué à la fourniture d'informations par des moyens informatiques, on peut représenter le processus de production de la façon suivante (cf. schéma) : les flux de services de type final (ou informations-services) fournis aux utilisateurs (sélection des informations adaptées aux besoins des utilisateurs sous une forme adéquate) sont produits à partir de stocks d'"informations-ressources" (ou "informations-supports", banques de données par exemple). Ce processus de production requiert l'utilisation de matériels (ordinateurs serveurs et utilisateurs, périphériques, infrastructures de réseaux, supports d'informations divers...) et de logiciels (systèmes d'exploitation, logiciels de communication, logiciels applicatifs comme les systèmes de gestion de bases de données ou les outils de navigation et de recherche d'informations). Les spécifications de la codification des connaissances, les spécifications des infrastructures matérielles, les logiciels ou leurs spécifications constituent les informations-méthodes. La compatibilité entre ces différentes informations-méthodes définit une "infostructure", "services intermédiaires de contrôle-commande, dont la fonction est d'optimiser l'emploi de l'infrastructure et de piloter celle-ci, en vue d'opérer l'intermédiation promise par le réseau " (Curien, 1993, p. 17).

schéma

Ribault (1993) considère que les "informations-ressources" (ou "informations-supports") "constituent le noyau dur du patrimoine informationnel d'une société ", les "informations-services" étant "les produits dérivés des "informations-supports" qui ont pour vocation de répondre à une demande spécifique, via des services individualisés ". L'intérêt de cette approche patrimoniale de l'information, construite par analogie avec le patrimoine monumental, en considérant que le patrimoine "est facteur d'identité, élément structurant d'une culture et créateur de sens ", est de souligner deux caractéristiques des informations-ressources conçues comme des biens patrimoniaux : l'irréversibilité (avec la possibilité de dégradation du bien[1]) et l'incertitude quant aux types de satisfactions futures que peut apporter ce bien. Il est donc nécessaire de "penser un mode de gestion spécifique pour le patrimoine informationnel : la gestion patrimoniale " ; celle-ci doit stimuler la création d'une sorte d'écosystème informationnel qui garantirait la préservation de l'"information-support" et l'émergence de services adaptés aux besoins ; la difficulté est "de parvenir à assurer l'exploitation de la variété et la mobilisation du patrimoine informationnel, tout en garantissant cette variété pour les usages futurs, non encore existants " (Ribault, 1995, p. 221).

Dans le cas de l'information traitée par des moyens informatiques, la question de la standardisation est cruciale dans la mesure où elle conditionne la diffusion potentielle de cette information. Le processus de standardisation porte sur les "informations méthodes". Le choix des composants d'interface[2] qui seront standardisés et le choix des standards retenus, le moment où cette standardisation intervient et les possibilités d'évolution des différents standards ont une influence sur la diversité des "informations-services" potentiellement consommables par les utilisateurs. En effet, tout processus de standardisation augmente l'efficacité de l'information en élargissant son public potentiel mais contribue inévitablement à une certaine homogénéisation de celle-ci[3].

Tout d'abord à partir des mêmes "informations-ressources" les choix effectués déterminent la variété des services fournis en termes de formes d'information utilisables (textes écrits avec des alphabets plus ou moins diversifiés, images dont la définition peut être plus ou moins précise, sons...), de possibilités et de facilités de recherche, de sélection, de traitement et de présentation de l'information. Cette diversité dépend de la variété et des performances des logiciels applicatifs utilisés qui dépendent eux-mêmes des caractéristiques du matériel, des systèmes d'exploitation, des protocoles et des logiciels de communication. Le Minitel en France constitue un exemple des limites de l'évolution de la nature des services proposés en raison des standards adoptés à l'époque (1981) et de leur difficulté à évoluer.

Ensuite et surtout, les options choisies déterminent la partie du patrimoine informationnel qui sera accessible, celle dont les spécifications de codification sont compatibles avec les autres composants du processus de production de l'information. Il ne faut pas considérer cet aspect fondamental uniquement sous un angle technique de choix de standards efficaces par rapport à un patrimoine informationnel immuable dans ses caractéristiques. En effet, les processus de standardisation ont une dimension stratégique en conférant du pouvoir (et éventuellement des bénéfices) à ceux qui maîtrisent le processus de standardisation des "informations-méthodes". Ces acteurs peuvent utiliser ce pouvoir pour agir sur la gestion du patrimoine informationnel : acquisition et codification des "informations-ressources", création des liens hypermédias entre les différentes "informations-ressources", question qui face à un stock d'informations potentiellement accessibles de plus en plus important devient décisive pour assurer un accès réel à l'information. On pourrait définir la notion de standardisation optimale des "informations-méthodes" sous deux aspects : son efficacité statique (les choix techniques permettant la plus grande diversité des services proposés et la possibilité d'accéder à une part importante du patrimoine informationnel), et son efficacité dynamique (les possibilités d'évolution ultérieure des standards retenus, et leur influence sur l'évolution de ce patrimoine dont la valeur repose sur la diversité des informations qu'il contient, tant en nombre de références et de liens entre ces références qu'en terme de possibilités de traitements actuels et futurs de ces informations).

C'est pourquoi il est nécessaire de revenir sur les différents processus de création et d'évolution des standards et sur les acteurs qui les contrôlent, d'abord dans le cas général, avant d'examiner les particularités de ces processus concernant les moyens informatiques.




top II. Les processus de création et d'évolution des standards

  1. Les externalités de réseaux comme facteurs d'une standardisation nécessaire et difficile
  2. Les standards peuvent être considérés comme des biens collectifs particuliers
  3. Les différentes modalités de la standardisation
  4. La standardisation peut ne pas être optimale...
  5. ...et malgré tout perdurer
  6. La nécessaire évolution des standards : l'efficacité dynamique

A l'obtention de la compatibilité reposant sur la standardisation (compatibilité ex-ante) est parfois opposée (David et Bunn, 1988) une compatibilité ex-post par des dispositifs de conversion (gateways) ; la première solution aurait pour inconvénient de générer une perte de variété tandis que la seconde induirait des coûts de conversion. Il ne me semble pas que les dispositifs de conversion représentent véritablement une alternative à la standardisation. En effet, soit ces dispositifs sont relativement inefficaces (David, 1994) et la perte de performance qui en résulte n'empêche pas la nécessité à terme d'une standardisation (on peut citer l'exemple de l'émulation par un ordinateur du fonctionnement d'un ordinateur d'un autre type), soit ces dispositifs sont relativement performants et dans ce cas ce sont ces technologies d'interface qui deviennent l'objet du processus de standardisation. On a ainsi assisté dans l'informatique à des déplacements du problème de la standardisation d'un niveau à un autre niveau : du matériel vers les systèmes d'exploitation (MS.Dos puis Windows pour la microinformatique, Unix pour le reste de l'informatique), puis vers les communications entre des machines ayant des systèmes d'exploitation différents (TCP/IP pour les protocoles de communication, HTML pour la présentation des informations) et peut-être demain vers les applications qui pourront s'exécuter indépendamment du type de machines ou de systèmes d'exploitation (le langage Java). C'est pourquoi nous nous limiterons aux processus de création de standards en intégrant le fait que le niveau où s'opère la standardisation peut changer et qu'il est donc indispensable d'intégrer la nécessaire évolution des standards.


plus haut A. Les externalités de réseaux comme facteurs d'une standardisation nécessaire et difficile

L'établissement d'un standard est un cas particulier de compétitions entre solutions techniques. Arthur (1988) à partir de la notion de rendements croissants d'adoption a mis en évidence les mécanismes d'"autorenforcement" qui se créent autour d'une technologie : l'action même d'adopter une technologie rend celle-ci plus attractive pour les utilisateurs potentiels, augmentant par-là même ses chances d'être adoptée dans le futur ; les sources des rendements croissants d'adoption sont l'apprentissage par l'usage, les externalités de réseaux, les économies d'échelle en production, les rendements croissants d'informations et les interrelations technologiques.

Dans le cas des standards ce sont principalement les externalités de réseaux qui sont à la base des rendements croissants d'adoption (Foray, 1990). Les externalités de réseau sont des externalités de consommation qui proviennent de l'interdépendance des décisions de consommation individuelle : la valeur d'un bien ou d'un service change quand il est acheté et consommé par d'autres utilisateurs. Ces externalités de réseaux peuvent être directes (effet de club direct) comme dans les cas du téléphone, du fax ou du courrier électronique où l'existence d'un nouvel abonné augmente pour chaque usager l'utilité de son propre appareil ; si elles sont généralement positives, il faut mentionner la possibilité d'externalités négatives en cas de saturation d'un réseau physique de communication où l'arrivée de nouveaux automobilistes ou de nouveaux "internautes" peut faire baisser la valeur du bien ou du service pour l'ensemble des utilisateurs (Cohendet, 1996). Les externalités de réseaux indirectes reposent sur le fait que l'importance de l'offre de produits complémentaires dépend de la taille du réseau (exemple des magnétoscopes d'un standard donné et de la diversité des films proposés pour ce type d'appareil) ; le réseau est constitué par les possesseurs du produit principal qui ne sont pas nécessairement reliés entre eux au sens physique du terme (Katz et Shapiro, 1985).

Les externalités de réseaux sont cependant différentes des autres rendements croissants d'adoption (Foray 1989). En effet, dans le cas général, la valeur de la technologie ne change pas pour l'usager une fois qu'il l'a adoptée ; les critères d'adoption d'un utilisateur dépendent seulement des comportements d'adoption passés des autres utilisateurs (le processus d'adoption est uniquement "path-dependent"). Par contre dans le cas des externalités de réseaux les rendements associés à une technologie sont déterminés par les comportements passés et futurs des autres utilisateurs, le processus d'adoption est "path-and-future-dependent" (Foray, 1990, p. 122). Dans ce cas, "l'anticipation constitue l'élément fondamental du choix de l'utilisateur potentiel" (Foray, 1990, p. 124), l'usager doit adopter la technologie qui l'emportera à terme mais il peut être extrêmement difficile de prédire quelle sera cette technologie : " certaines structures dynamiques ne généreront jamais de séries temporelles assez longues, pour que les agents concernés puissent former des estimations probabilistes robustes sur les futurs possibles "  (Foray et Freeman, 1992, p.16).

L'importance des anticipations explique que malgré la force des rendements croissants d'adoption, il ne se produit pas nécessairement une standardisation spontanée. On retrouve avec la production des standards, en raison de l'existence des externalités de réseaux, les problèmes ayant trait à la production des biens collectifs (David, 1994).


plus haut B. Les standards peuvent être considérés comme des biens collectifs particuliers

La notion de standard représente des réalités très diverses : des caractéristiques simples qui ont souvent un aspect relativement arbitraire (écartement des voix ferrées), des codes divers plus ou moins élaborés (depuis le Morse ou le code ASCII jusqu'aux protocoles de communication ou aux langages de programmation), des spécifications plus complexes de dispositifs techniques qui peuvent être immatériels (format de fichier, format de stockage de données) ou matériels (caractéristiques des interfaces), voire ces dispositifs techniques eux-mêmes (logiciels ou matériels). On constate que la standardisation peut concerner seulement des spécifications d'interface en désignant des fonctionnalités mais sans spécifier le produit (système ouvert reposant sur des standards non-propriétaires) ou porter sur un produit spécifique qui devra être adopté (standard propriétaire) (Zimmermann, 1995).

Ce continuum recouvre une évolution des formes de propriété depuis des biens libres, où la valeur sociale du bien vient uniquement de son adoption, jusqu'à des possibilités de breveter ou de protéger par un droit d'auteur le standard ou le support matériel ou logiciel sur lequel il repose. La frontière entre ces deux situations dépend de la nature du standard mais est aussi l'enjeu de controverses juridiques célèbres depuis les brevets déposés sur le morse jusqu'aux possibilités de protéger l'utilisation d'une icône représentant une corbeille sur un écran d'ordinateur.

Les standards peuvent être considérés comme des biens collectifs. Dans le cas où les standards portent sur des caractéristiques inappropriables, il s'agit de biens collectifs purs dont on retrouve les déterminants d'indivisibilité (les dépenses de mise au point du standard sont indépendantes du nombre d'utilisateurs), de bien non-rival (le standard ne se détruit pas dans l'usage et peut donc être adopté par un nombre infini d'utilisateurs), et de non-exclusion de l'usage (on ne peut empêcher un utilisateur d'adopter le standard) (Foray, 1995). Dans le cas où il est possible de protéger le standard, il s'agit de biens collectifs mixtes avec externalités (Crozet, 1997) caractérisés par une indivisibilité partielle ; en effet, dans ces situations, d'une part, les systèmes de protection légale (brevets, copyright) nécessitent de fournir de l'information notamment sur les caractéristiques du produit ou du procédé qui sont souvent des éléments déterminants d'un standard (Weinstein, 1989) ; d'autre part, si le producteur peut vendre l'utilisation du produit ou du procédé concerné, il lui est impossible de facturer ex-ante (avant la réalisation du processus de standardisation) son hypothétique futur caractère standard, qui demeure donc un bien collectif ; certes, ex-post (une fois le processus de standardisation réalisé) le producteur pourra internaliser la valeur supplémentaire qui résulte du caractère standard qu'a acquis son produit, mais cela suppose que le processus de standardisation (ou production d'un standard) ait été effectué ou que les utilisateurs anticipent le succès d'un tel processus ; comme le notent Foray et Freeman (1992, p. 18) "il n'y a pas matière à différencier des phases de création et de diffusion : c'est l'adoption et l'usage qui confèrent au bien son mode d'existence. (...) Le processus de création recouvre dans ce cas la constitution du réseau, non pas la mise au point de l'artefact. "

Concrètement lorsque apparaît un nouveau produit ou une nouvelle technique et que donc différentes solutions peuvent apparaître aussi légitimes ou performantes, la tentation est forte de chercher une "différenciation des produits et des méthodes de production, y compris par l'utilisation de stratégies créant des incompatibilités de réseau de façon à rendre certains consommateurs captifs" (David, 1994, p.265). Dans ce type de situation, l'existence de barrières à la mobilité élevées augmente le pouvoir de marché de l'initiateur d'un système propriétaire (Brousseau, 1993). C'est ce qui explique que "l'émergence de toute technologie de réseau (canaux, chemins de fer, télégraphe et téléphone) s'est accompagnée de la prolifération de systèmes concurrents incompatibles et, en conséquence, de l'impossibilité d'exploiter des externalités latentes de réseau" (OCDE, 1991, p. 40). Chaque producteur espère que c'est sa solution technique qui constituera le futur standard et on a de multiples exemples de coexistence durable de plusieurs techniques incompatibles : l'existence des grands systèmes informatiques qualifiés de propriétaires, le demi-siècle nécessaire pour normaliser l'écartement des voies de chemin de fer en Angleterre (Foray, 1989), le réseau ferré australien sur lequel subsistent encore trois écarts de voies différents (Cowan, 1995), la concurrence pour un standard entre 18 protocoles différents pour les programmes de télévision numérique par voie terrestre aux Etats-Unis (LMB Actu, 15/01/1998).

Ces situations de sous-standardisation, quand elles perdurent, peuvent entraver le développement du secteur considéré ; on peut citer l'exemple de la dépression de l'industrie du disque après 1948 lorsque surgirent en même temps deux standards techniques nouveaux pour succéder au 78 tours : le 33 tours de CBS et le 45 tours de RCA. La crainte de devenir des "orphelins révoltés" (Angry Technological Orphan), c'est-à-dire de se retrouver piégé sur un mauvais choix technologique quand un standard s'imposera, peut aller jusqu'à l'absence de production comme l'illustre l'échec du son quadriphonique sur le marché grand public avec l'existence de deux standards concurrents en 1971, Columbia et JVC (Le Nagard, 1997), ou les difficultés à s'imposer du DVD (Digital Video Disc) support réinscriptible destiné à remplacer les CD et CDROM. De même, l'importance des externalités indirectes peut bloquer le développement d'un produit par défaut de standardisation de celui-ci dans une situation de cercle vicieux ou "syndrome de l'oeuf et de la poule" (Le Nagard, 1997) ; les débuts de la microinformatique étaient caractérisés par une telle situation : les différents types de micro-ordinateurs étaient incompatibles, générant des marchés segmentés et donc de taille trop limitée pour rentabiliser la production de progiciels diversifiés indispensables à leur utilisation par un large public, freinant ainsi le développement des micro-ordinateurs et donc la production des progiciels.

On retrouve ici typiquement les problèmes de production des biens collectifs : les agents économiques n'ont, chacun isolément, aucun intérêt à prendre une initiative qui serait pourtant profitable à chacun si tous la prenaient simultanément. Toutefois ceci n'implique pas que la seule solution pour atteindre une situation de standardisation soit le recours à la contrainte notamment étatique. En effet, pour que puisse s'enclencher un processus de standardisation, il suffit qu'il existe "une accumulation précoce de choix en faveur d'une même variante - même si ces choix ont été largement influencés par un ensemble de circonstances exceptionnelles et transitoires" (David, 1994, p. 268-269). En effet, l'utilité pour un agent du ralliement à une variante constitue une fonction croissante du nombre d'agents ayant adopté cette variante. Dès que cette utilité dépasse les avantages escomptés d'une stratégie de différenciation, la variante considérée semble dotée d'un "magnétisme intrinsèque", jouer un rôle de "point focal" vers lequel convergent les comportements constituant une "convention auto-renforçante" (Boyer et Orlean, 1994, p. 220). Des comportements de "mimétisme rationnel" peuvent permettre l'existence d'équilibres sans autre raison que la croyance partagée dans leur existence : le nombre d'adhérents partageant le même point de vue impose celui-ci (Gomez, 1994). Les interactions dynamiques entre les utilisateurs ralliés à une solution et les utilisateurs potentiels, les feedback positifs qui en résultent (David, 1994), font qu'une solution adoptée au départ par une proportion significative mais minoritaire des acteurs concernés peut devenir un standard. Le fait que le nombre des adopteurs (réels ou potentiels) d'une solution technique dépasse un seuil critique permet de faire converger les anticipations vers cette solution, la transformant en standard de facto. Différents acteurs peuvent à la faveur de certains événements être à l'origine du déclenchement d'un tel processus.


plus haut C. Les différentes modalités de la standardisation

La première de ces modalités est l'action de l'Etat. Celle-ci s'exerce plutôt sur les caractéristiques des produits (standards-interface) que sur les produits eux-mêmes (standards-produits) (Zimmermann, 1995). Elle peut s'appuyer sur l'existence d'organismes de normalisation ou comités représentant les producteurs et parfois les utilisateurs concernés, que l'Etat peut soutenir et dont il peut reprendre les décisions en amplifiant l'effet d'annonce de leurs recommandations. L'Etat peut agir directement sur la standardisation en édictant des normes (standard de jure) qui s'imposent à l'ensemble des producteurs concernés. Mais il peut aussi agir indirectement et déclencher un processus de standardisation en tant qu'acheteur, en spécifiant des caractéristiques à respecter lors des appels d'offre pour les marchés publics (Cowan, 1995). Cependant l'efficacité de l'intervention de l'Etat sur la standardisation est limitée dans les cas de plus en plus fréquents où c'est le niveau international qui constitue l'espace pertinent de la standardisation. En effet, d'une part il est fréquent que les États utilisent des normes nationales spécifiques et des exigences de certification pour protéger les marchés intérieurs (Hawkins, 1995), même si à terme il est difficile de conserver une norme nationale différente d'une norme internationale qui se serait imposée (on peut citer l'exemple de l'abandon par la France à la fin des années 60 de sa propre technologie nucléaire au profit de la technologie qui dominait le marché mondial) (Cowan, 1995). D'autre part il est difficile pour les Etats d'agir sur une standardisation directement au niveau international : le temps nécessaire pour parvenir à s'accorder sur des spécifications communes en présence d'intérêts divergents - déjà important au niveau national - peut devenir rédhibitoire au niveau international, surtout en présence de techniques et de problèmes qui évoluent rapidement ; les institutions internationales comme le GATT, ou depuis 1995 l'OMC, ne disposent pratiquement d'aucun pouvoir pour faire respecter les décisions qu'elles adoptent (Hawkins, 1995), et il n'existe pas d'équivalent des marchés publics au niveau international.

Le processus de standardisation peut également être enclenché par une entreprise (ou une alliance entre entreprises) en position de force sur le marché du produit concerné voire sur un marché complémentaire. Dans le cas où la standardisation porte sur des caractéristiques non-appropriables (standard-interface) elle aboutit à la production de produits compatibles[4] par les autres producteurs ralliés au standard. L'entreprise à l'initiative de la standardisation détient néanmoins un avantage sur les entreprises concurrentes dans sa capacité à faire évoluer le standard en fonction de ses intérêts. Dans le cas où il est possible pour l'entreprise de protéger par brevet ou copyright le produit ou le procédé qui fait l'objet du standard, l'entreprise peut en retirer un profit important soit parce qu'elle peut se retrouver en situation de monopole sur le marché, soit par la vente de licences aux autres producteurs. C'est ce qui explique que pour imposer un standard une entreprise peut recourir à différents moyens : baisse des prix (voire même distribution gratuite du produit comme dans le cas de Microsoft pour imposer son navigateur Explorer face à son concurrent Netscape) qu'elle pourra compenser par une hausse quand elle sera en situation de monopole technologique ou par des stratégies de rentabilité croisée sur des produits complémentaires, multiplication des effets d'annonce et des alliances pour déclencher des anticipations autoréalisatrices qui se forment souvent de manière subjective (Le Nagard, 1997).

Enfin indépendamment des cas précédents, il peut exister des situations, notamment lorsque le produit ou le procédé sont radicalement nouveaux, où de "petits événements" exogènes suffisent pour produire un effet de localisation du progrès technique sur une technologie particulière à partir des choix des premiers utilisateurs qui ont dans ce cas une extraordinaire importance (Foray, 1990).

Les différents cas précédents peuvent se combiner ; par exemple des circonstances particulières peuvent permettre à une entreprise de développer un standard qui peut être validé par un organisme de normalisation et légitimé par l'Etat. Mais dans tous les cas rien ne garantit que le standard qui s'imposera soit optimal.


plus haut D. La standardisation peut ne pas être optimale...

On peut analyser le choix d'un standard comme un processus de sélection d'un équilibre de coordination au sein d'une multiplicité d'équilibres possibles et rien ne garantit que l'équilibre auquel on parvienne soit le plus efficace (au sens de Pareto). Comme le montre Thévenot (1989) dans un cadre plus général, des conventions conduisent à choisir un équilibre parmi les possibles sans qu'on puisse juger de son optimalité. En effet, ce qui conduit le processus à converger vers un équilibre donné ce sont essentiellement des circonstances initiales historiques particulières. Par la suite les choix effectués par les agents qui adoptent la même solution ne sont pas seulement (ni même principalement) dictés par leurs préférences personnelles indépendamment des décisions des autres agents, mais par les externalités résultant du choix effectué par d'autres agents en faveur de cette solution. En retour, le ralliement à cette solution augmente les externalités positives pour les autres agents. On comprend que ce type de processus "autorenforçant" puisse conduire à des situations de standardisation exagérée ou à une standardisation trop précoce (une fois le processus engagé, d'autres possibilités même plus performantes ne parviennent pas à s'imposer) ou à l'adoption de standards non-optimaux (on peut citer les exemples du VHS par rapport au Betamax dans la vidéo, et du clavier QWERTY contre les claviers Ideal ou Dvorak). Il se produit un "verrouillage en raison d'accidents historiques" (accidental lock-in, David, 1994). "Ce n'est pas parce qu'elle est moins efficace qu'une technologie n'est pas choisie et dès lors disparaît, mais c'est parce qu'elle n'est pas choisie qu'elle devient moins efficace que sa rivale" (Foray, 1990, p. 119). Les solutions abandonnées pouvaient offrir des perspectives très supérieures, malgré des défauts de jeunesse résultant éventuellement de leur nature plus novatrice (OCDE, 1991). De même l'événement historique (technologique ou économique) qui avait enclenché le processus de standardisation peut ne plus être pertinent rendant le standard inefficient (la disposition du clavier QWERTY avait été choisie de façon à éviter la frappe de touches voisines qui emmêlaient les marteaux des machines à écrire).


plus haut E. ...et malgré tout perdurer

En effet, quand un standard existe, pour qu'une nouvelle solution, même jugée préférable par l'ensemble des utilisateurs, réussisse à s'imposer spontanément, il est indispensable d'une part, que les coûts résultant du changement de standard soient inférieurs aux bénéfices attendus de l'utilisation du nouveau standard, d'autre part qu'il existe une information complète au sein de la communauté des utilisateurs sur les intentions de chacun d'entre eux. Cette information complète est nécessaire pour que puisse s'enclencher un processus de raisonnement à rebours (backward induction) : le dernier utilisateur n'adoptera la nouvelle solution qu'une fois que tous les autres utilisateurs l'auront adopté, l'avant-dernier utilisateur doit anticiper correctement le comportement du dernier utilisateur et ce processus d'anticipations correctes en chaîne doit exister jusqu'au premier utilisateur qui ne modifiera effectivement son comportement que s'il anticipe que tous les autres utilisateurs suivront son exemple. Il suffit donc que l'hypothèse d'une communication parfaite entre les utilisateurs ne soit pas totalement vérifiée (ce qui est le cas dès que le nombre d'utilisateurs dépasse un certain seuil) pour que ce processus ne puisse se dérouler. Comme le note David (1994, p.269), "le problème que posent ces communautés est que l'intercommunication y est assez développée pour engendrer des effets d'entraînements suffisamment puissants pour produire un consensus, même autour de conventions sous-optimales, mais qu'elles ont rarement atteint le degré extrême de communication sociale - la production d'une information complète sur les intentions de chacun des membres du groupe - qui permettrait de défaire ces conventions une fois qu'elles ont été établies".

On peut caractériser la convention qui se crée autour d'un standard comme relevant d'une stratégie évolutionnairement stable ou SES (Boyer et Orlean, 1994, p. 222-224). Celle-ci se définit par le fait que quand cette stratégie est suivie par l'ensemble des acteurs concernés, aucune autre stratégie ne peut s'imposer, même si cette nouvelle stratégie est elle-même une SES et qu'elle est supérieure à l'ancienne. En effet, un petit groupe qui suit une autre stratégie obtient de moins bons résultats et est condamné à disparaître progressivement. "Une telle situation d'excès d'inertie, qui peut donc se maintenir en dépit de préférences individuelles pour le changement, affectera principalement les marchés au sein desquels les externalités de réseau sont importantes et où donc un comportement de changement isolé ferait supporter à son auteur des coûts particulièrement élevés" (Foray, 1990, p. 126). Toutefois si les rendements croissants d'adoption proviennent principalement des externalités de réseau la situation de lock-in n'est pas irréversible (Foray, 1989) : une nouvelle convention peut émerger si elle est adoptée simultanément par une proportion d'individus dépassant un certain seuil critique[5] .


plus haut F. La nécessaire évolution des standards : l'efficacité dynamique

Le raisonnement, basé sur les travaux de Foray (1990), est le suivant : "le processus d'élaboration d'un standard, en tant qu'activité de création, contient en lui-même des forces considérables d'inertie technologique". Or la standardisation dans le domaine des technologies de réseau intervient toujours à la fois trop tôt en bloquant le développement technologique et "trop tard car dès l'émergence de plusieurs réseaux incompatibles, des économies externes latentes ne sont pas exploitées". La logique de l'efficacité dynamique porteuse d'une évolution des standards est contradictoire avec la logique de l'efficacité statique qui vise à exploiter les externalités de réseaux en fixant les utilisateurs sur un standard déterminé. Quel que soit le mode de coordination (Etat ou marché) c'est toujours la recherche de l'efficacité statique qui est privilégiée. En effet, l'adoption d'une technologie procure des avantages à ses utilisateurs mais également des informations sur ces propriétés techniques. La standardisation par le marché ne prendra en compte que le premier aspect (Cowan, 1995). "Le marché se transforme en une puissante machine à fabriquer de l'irréversibilité et à restreindre la variété des options technologiques, c'est-à-dire l'espace des choix possibles" (Callon, 1994). En théorie l'État pourrait mieux prendre en compte l'aspect générateur d'informations par l'allongement de la période initiale de compétition (avant le "lock-in") en favorisant systématiquement la variante la moins bien placée (Foray, 1990). Toutefois, "l'action de l'État ne pourra être menée efficacement que si elle intervient au tout début du processus, c'est-à-dire avant que les mécanismes d'autorenforcement n'enclenchent une dynamique de sélection échappant à toute régulation" (Foray, 1990, p. 125). De même, la crainte d'avoir ultérieurement un nombre élevé d' "Angry Technological Orphan" incite les pouvoirs publics à privilégier la technologie dominante. En fait, "l'autorité centrale aura une capacité d'influence maximale au cours de la période durant laquelle elle ne possède qu'un minimum d'informations sur les avantages respectifs des technologies en compétition" (Foray, 1990, p. 125).

La question de l'évolution des standards (efficacité dynamique) est pourtant décisive notamment lorsqu'il existe des évolutions techniques et que s'élargit l'espace pertinent de la standardisation (sur un plan géographique ou sur le plan du rapprochement de publics auparavant segmentés). Nous verrons que la standardisation par le "monde de la création" peut, au moins dans le cas des moyens informatiques, mieux prendre en compte l'évolution ultérieure des standards retenus (efficacité dynamique), ce qui nécessite auparavant d'examiner les particularités des processus de standardisation concernant les moyens informatiques.




top III. Les particularités des processus de standardisation concernant les moyens informatiques

  1. Les particularités des technologies de l'information
  2. Les limites du rôle de l'Etat et des instances de normalisations
  3. L'importance du rôle des entreprises dans la standardisation et ses conséquences


plus haut A. Les particularités des technologies de l'information

Les technologies de l'information présentent trois caractéristiques très importantes pour les processus de standardisation : leur fusion tendancielle en un seul complexe technologique, leur évolution extrêmement rapide et la grande incertitude sur les formes de cette évolution.

Des technologies auparavant relativement séparées connaissent un processus d'enrichissement réciproque dont le meilleur exemple est le rapprochement entre l'informatique et les télécommunications (OCDE, 1991), et plus récemment avec la télévision. Ceci a pour conséquence d'élargir l'espace de la standardisation sur le plan géographique (de plus en plus de problèmes doivent être réglés directement au niveau international) et sur le plan technologique (des domaines auparavant relativement séparés comme la micro-informatique, les stations de travail, les mini-ordinateurs et les grands ordinateurs le sont de moins en moins). L'ampleur des externalités de réseaux directes et indirectes, comme des autres rendements croissants d'adoption (apprentissage par l'usage, économies d'échelle en production, rendements croissants d'informations et interrelations technologiques) qui en résultent, entraîne une nécessaire accélération des processus de standardisation alors que chaque standard ne relève plus seulement d'une seule technologie mais doit prendre en compte l'ensemble du complexe technologique constitué par les technologies de l'information.

Or ce complexe technologique évolue très rapidement, mais dans un climat d'incertitude considérable sur les potentialités des nouvelles techniques, sur la vitesse et l'ampleur de la chute des coûts, sur les solutions qui s'imposeront. Dans ce contexte où intervient de surcroît le coût élevé de certains nouveaux projets d'infrastructure, l'efficacité dynamique des standards, leur capacité à évoluer dans le sens des développements futurs, devient une question centrale.


plus haut B. Les limites du rôle de l'Etat et des instances de normalisations

Dans cette situation le rôle de l'Etat et des instances de normalisation est limité. Certes, les comités de normalisation ont tendance à se multiplier à tous les niveaux (OCDE, 1991), mais il est de plus en plus difficile de réaliser un consensus nécessaire à la prise de décision, vu la multiplicité des intérêts souvent contradictoires en présence.

Dans le cadre de ces procédures longues[6] , de plus en plus complexes et souvent opaques (OCDE, 1991), confrontées à un environnement technologique changeant rapidement, les instances de normalisation soit se contentent de jouer un rôle de "chambre d'enregistrement des décisions du marché" (Foray, 1990, p 133), les normes étant appliquées avant même que les décisions formelles soient prises, soit élaborent des normes fonctionnelles très générales à la portée pratique limitée : on peut citer l'exemple des normes fonctionnelles OSI (Open-Systems Interconnexion) ; ces normes concernant les réseaux informatiques définissent les performances à réaliser à sept niveaux (ou couches) de systèmes technologiques tout en laissant une large plage de liberté pour décider de la manière dont les normes seront respectées ; le choix d'un modèle de référence uniquement fonctionnel était lié au fait qu'IBM disposait depuis 1974 d'un ensemble de standards opérationnels définissant les spécifications de ses propres produits (SNA) permettant la normalisation interne de ses réseaux (Foray, 1990) ; dans la pratique, si la production des normes OSI augmente régulièrement depuis 30 ans leur impact reste limité : seules quelques-unes sont effectivement acceptées sur le marché, de nombreuses normes sont inapplicables car se référant à des technologies périmées ou parce qu'elles se situent à un niveau trop théorique (Hawkins, 1995), et rien ne garantit que deux machines respectant dans leurs grandes lignes les exigences d'une norme OSI acceptée répondront effectivement à la demande de compatibilité et d'interfonctionnement et pourront communiquer entre elles (OCDE, 1991).

Dans tous les cas, ce sont en fait les entreprises qui semblent jouer le rôle le plus important dans la standardisation, ce qui n'est pas sans conséquence.


plus haut C. L'importance du rôle des entreprises dans la standardisation et ses conséquences

La première de ces entreprises est évidemment IBM, firme qui a été le plus gros pourvoyeur de standards de l'histoire de l'industrie informatique (Zimmermann, 1995), à partir des années soixante, notamment avec la création d'une architecture standard (le système 360). Son rôle dominant lui permettait d'imposer ses standards ce qui en retour contribuait à renforcer sa position. Plus récemment, l'histoire de Microsoft est riche d'enseignements. Le décollage de Microsoft est dû au rôle qu'il a joué avec ses systèmes d'exploitation dans la standardisation de la micro-informatique. Jusqu'au début des années 80, les différents types de micro-ordinateurs sont incompatibles entre eux, c'est-à-dire dotés de systèmes d'exploitation différents, ce qui freine le développement de la micro-informatique, l'absence de standardisation empêchant de bénéficier des fortes externalités de réseaux indirectes potentielles (développement limité des progiciels qui confèrent une utilité à un micro-ordinateur pour la plupart de ses utilisateurs). Lorsque IBM décide avec retard de se lancer dans la production de micro-ordinateurs (l'IBM PC), la firme choisit dans des conditions assez rocambolesques (Cringely, 1994) de s'adresser à un petit producteur de logiciels, Microsoft, qui emploie 50 salariés à l'époque, pour écrire le système d'exploitation. Le poids d'IBM dans l'informatique en général semblait garantir l'existence d'un marché plus large pour les éditeurs de progiciels qui développèrent de multiples applications pour le système d'exploitation de Microsoft (MS.Dos) et pour les fabricants de micro-ordinateurs qui produisirent massivement des micro-ordinateurs "compatibles PC", renforçant de ce fait l'intérêt d'utiliser ce système d'exploitation. Il est remarquable de constater que l'événement qui fit converger les anticipations sur MS.Dos et le transformèrent en standard de fait dans la microinformatique, à savoir le rôle dominant que devait jouer IBM dans cette activité ne s'est en fait jamais réalisé. MS.Dos s'est imposé, y compris face à d'autres systèmes d'exploitation plus performants, sur les plans de la technique et de la convivialité, vérifiant l'affirmation de Foray (1989) selon laquelle "on ne choisit pas une technologie parce qu'elle est plus efficace mais c'est parce qu'on la choisit qu'elle devient plus efficace". En effet, Microsoft a su transformer les faiblesses de départ de son système d'exploitation en avantage commercial, en mettant régulièrement sur le marché de nouvelles versions de son système d'exploitation, puis en développant une interface graphique (Windows) pour combler son manque de convivialité, enfin en créant Windows 95 dont tout le monde savait avant même sa sortie, et quelles que soient ses performances[7], qu'il constituerait le nouveau standard de la micro-informatique (plus d'un million d'exemplaires ont été vendus les trois premiers jours). Cette maîtrise par Microsoft de l'évolution de la micro-informatique (sortie en fonction de ses intérêts des nouvelles versions de son système d'exploitation dont elle était seule à connaître les spécifications) et les retombées financières qui en résultent[8] lui ont donné un avantage décisif sur ses concurrents dans la production des différents progiciels (traitement de texte, tableur, système de gestion de bases de données...) où Microsoft est devenu hégémonique avec près de 90 % du marché[9]. Dans ces domaines Microsoft a réussi à imposer ses formats de fichiers comme des standards-propriétaires (ces formats ne sont pas publiés et il est interdit à un autre producteur de les utiliser) ; ces formats changent à chaque nouvelle version de Word, d'Excel, d'Access... S'il est en général possible et à condition de ne pas utiliser les dernières fonctionnalités du progiciel, d'enregistrer le fichier au format des versions précédentes[10], l'opération n'est pas toujours évidente et n'est généralement pas effectuée. De ce fait un utilisateur qui souhaite, par exemple, simplement prendre connaissance d'un document enregistré au format Word 97 devra posséder cette version du traitement de texte, ce qui implique d'acquérir la version du système d'exploitation correspondante (Windows 95) et éventuellement de renouveler son matériel informatique.

Si l'entreprise qui maîtrise les standards déterminants possède un avantage décisif sur ses concurrents, elle doit toutefois en permanence utiliser cette position privilégiée pour agir sur les nouveaux standards stratégiques (ceux qui concernent les technologies au coeur du complexe technologique), qui changent dans la filière informatique en fonction des évolutions technologiques. C'est par exemple ce que n'a pas su effectuer IBM dans la micro-informatique à partir de son rôle dominant dans le reste de l'informatique ; en effet, dans la micro-informatique ce sont actuellement les standards autour des microprocesseurs et des systèmes d'exploitation qui sont devenus déterminants ; en confiant la fabrication de ces composants à Intel et Microsoft lors du lancement de l'IBM-PC, IBM a hypothéqué ses chances de jouer un rôle majeur dans l'évolution de la micro-informatique ; et, quand plus tard IBM essaiera de réagir notamment en essayant de promouvoir un nouveau système d'exploitation pour PC (OS2) ce sera un échec face à l'importance acquise par Windows de Microsoft.

Par contre jusqu'à maintenant Microsoft a su accompagner les changements majeurs du complexe technologique des technologies de l'information[11] . Après avoir sous-estimé l'importance d'Internet en créant un réseau commercial fermé de services en ligne (Microsoft Network), elle a rapidement changé d'attitude en donnant à partir de son réseau un accès complet à Internet, en développant des logiciels pour Internet et en investissant massivement dans les "informations-ressources".

De ce point de vue, la bataille livrée par Microsoft pour imposer Explorer comme outil de navigation sur Internet est exemplaire de la stratégie de Microsoft pour promouvoir ses produits logiciels comme standards de fait : confrontée à un standard existant (le langage HTML) et à une entreprise détenant la plus grande part du marché (Netscape), Microsoft distribue gratuitement Explorer, l'intègre dans les dernières versions de son système d'exploitation et surtout rajoute au langage HTML des spécifications propres ; cette situation de "déstandardisation" a pour conséquence que certaines pages Web s'affichent différemment voire refusent de s'afficher suivant le navigateur utilisé, ou que les serveurs sont obligés de développer deux fois leurs sites[12] . C'est également ce type de pratique qu'effectue Microsoft par rapport au langage Java, qui risque de devenir un des standards déterminants de l'informatique de demain par sa capacité d'écrire des applications s'exécutant sur n'importe quel type de machines, en ajoutant à Java des caractéristiques supplémentaires Microsoft.

Surtout la maîtrise par Microsoft de certains chaînons décisifs des technologies de l'information et sa puissance financière lui permettent, en alliance avec d'autres acteurs importants du matériel informatique, de la communication et de la culture, de détenir un pouvoir croissant sur la gestion du patrimoine informationnel dans un sens qui ne favorise pas sa diversité. En effet, la numérisation et le stockage des "informations-ressources" ont un coût et il est à craindre que des producteurs privés ne gèrent que celles qui seront rentables. De plus une des richesses du patrimoine informationnel est constituée par les liaisons (notamment les liens hypertextes) existant entre des documents variés. Là aussi, il n'est nullement évident que des producteurs privés d'"informations-ressources" développent des liaisons avec des documents fournis par des producteurs concurrents. Le danger est d'avoir une offre dominée par quelques grands groupes vendant des produits informationnels diversifiés dans leur forme mais basés sur des contenus d'une variété limitée, rapidement très rentables ce qui leur permettrait de renforcer leur domination.

Il s'effectue une prise de conscience du danger que peut représenter une telle évolution. Par exemple Microsoft fait l'objet de plusieurs procès pour abus de position dominante, le dernier concernant l'intégration de son navigateur Explorer dans Windows 98. La législation européenne oblige un développeur à révéler ses spécifications d'interface et en cas de refus autorise les opérations de décompilation (Zimmermann, 1995) permettant de reconstituer le code-source du programme (son secret de fabrication). Pour limiter les avantages que retire le producteur d'une technologie privée qui est devenu un standard, certains comités de standardisation exigent un système de licence obligatoire cédée à un prix "raisonnable" (Foray, 1995). Toutefois cette mesure n'est efficace que si la technologie ne devient pas un standard de facto et de façon plus générale ce type d'actions a toujours eu une portée limitée dans l'histoire de l'informatique.

Par contre, une action, peut-être plus efficace, serait l'aide qui peut être apportée au développement du "monde de la création" dont les potentialités en terme d'une standardisation profitable à tous semblent importantes.




top IV. Les potentialités d'une standardisation par le "monde de la création"

  1. Les caractéristiques du "monde de la création"
  2. Sa capacité à impulser une standardisation dynamique
  3. Un exemple de standardisation réussie : Internet


plus haut A. Les caractéristiques du "monde de la création"

En effet, une troisième catégorie d'acteurs peut être à l'origine du processus de standardisation. Ces acteurs font partie de ce que nous appelons le "monde de la création". La notion de "monde de la création" est issue d'une typologie en termes de mondes de production (Horn, 1997) basée sur les travaux de Salais et Storper (1993) et modifiée notamment à partir des remarques critiques de Gadrey (1996).

Le point de départ est la prise en compte de l'incertitude dans les relations entre acteurs économiques : "Ainsi placés en situation d'avoir à coordonner leurs actions de travail, d'offre et de demande (sinon le produit ne pourrait arriver à réalité), les acteurs économiques doivent être considérés comme s'affrontant à une incertitude radicale : sur le futur, sur l'action de l'autre, sur ses projets et ses attentes, sur les usages des objets présents" (Salais et Storper, 1993, p.13).

Ces incertitudes peuvent être surmontées par l'existence de conventions ; "une convention c'est un ensemble d'éléments qui à tout instant pour les participants de la convention vont ensemble, et sur lesquels par conséquent ils partagent un accord. (...) Une convention est un système d'attentes réciproques sur les compétences et les comportements, conçu comme allant de soi et pour aller de soi." (Salais, 1989, p.213)

La nature différente des formes d'incertitude auxquelles sont confrontés le producteur et le demandeur et surtout les conventions différentes qui sont requises pour que, par-delà l'incertitude les "acteurs portent à la réalité le produit dans le cours de situations d'action économiques au sein desquelles ils se coordonnent" (Salais et Storper, 1993, p.13), définissent les mondes possibles de production : "Il existe plusieurs mondes possibles de production, chacun centré sur un type de produit. Changer de produit, c'est se déplacer vers un autre monde possible de production" (...) "Chaque monde possible de production apparaît comme un schéma de coordination entre les personnes mobilisées autour du produit : celles qui le fabriquent et celles qui l'utilisent" (Salais et Storper, 1993, p.31).

Les formes de l'incertitude caractérisant les relations entre producteurs et clients-utilisateurs sont différentes selon le type de processus de production aboutissant à la création d'un produit[13] . Deux critères sont utilisés pour construire une typologie des mondes de production : premièrement, le degré de dédicace du produit ; à des produits dédiés, spécifiques où la production est "tirée" par la demande sont opposés des produits génériques, anonymes quant à leur destination où la production est "poussée" vers le marché ou les usagers ; deuxièmement l'absence ou l'existence de phénomènes de standardisation dans la fabrication du produit, en soulignant que la standardisation ne s'étend pas nécessairement au produit lui-même mais peut se limiter aux méthodes et aux composants utilisés en autorisant donc une "gamme" de produits différenciés.

Les formes différenciées de traitement de l'incertitude, caractéristiques des mondes de production, sont séparées sur le plan analytique, selon qu'elles visent à répondre à l'incertitude du client-usager sur la qualité du produit fourni (ce qui renvoie à une incertitude sur la qualité du processus de production mais aussi à une incertitude sur la compréhension des attentes du client-utilisateur par le producteur), ou à l'incertitude du producteur sur les comportements actuels et futurs (demande anticipée) des clients -utilisateurs.

Il en découle des différences selon les mondes de production concernant l'évaluation ex-ante de la qualité du produit, les modalités de la concurrence entre producteurs, les modes de coordination (marché, hiérarchie, formes intermédiaires), la nature des compétences déterminantes des producteurs et le type dominant d'entreprise. La typologie proposée est résumée dans le schéma suivant :

 

 

Absence de
standardisation

Standardisation du produit
et/ou des composants

Produits dédiés

 

Monde interpersonnel

Monde de la production flexible

Type de produit :

Sur-mesure ; service personnalisé

Des gammes de produits diversifiés livrées en juste à temps jusqu'au sur-mesure de masse

Forme d'incertitude

Incertitude réciproque sur les besoins précis et sur la qualité du produit

Incertitude réciproque sur les besoins précis et sur la qualité du produit

Traitement par rapport

au produit :

Intercompréhension, métier, qualités professionnelle et relationnelle

Formes plus ou moins développées de coproduction

Traitement par rapport à la demande future :

Adaptation ; barrières institutionnelles

Flexibilité qualitative

Evaluation de la qualité :

Confiance, réputation, certification de la qualification

Certification de l'organisation ou des processus de production

Concurrence :

Qualité

Qualité et prix

Mode de coordination :

Marché de "proximité" ou hiérarchie

Marché segmenté (produit final), réseau (produit intermédiaire)

Mode de rationalisation :

Economie de variété, expérience professionnelle

Economie d'organisation ou d'envergure

Type dominant d'entreprise :

Travailleurs indépendants, départements d'entreprise ou P.M.E.

Entreprises en réseau, firme J

Produits génériques

 

Monde de la création

Monde fordiste

Type de produit :

Création originale

De masse, standardisé

Forme d'incertitude

Radicale (sur l'émergence du produit et son utilité)

Faible, risque probabilisable

Traitement par rapport

au produit :

Règles éthiques et scientifiques ; critères esthétiques

Besoin standard

Traitement par rapport à la demande future :

Financement principalement non marchand

Prévision, action sur la demande et flexibilité quantitative

Evaluation de la qualité :

Jugement des pairs

Standard industriel de produit

Concurrence :

Prestige

Prix

Mode de coordination :

Hiérarchie administrative

Marché anonyme, de masse (grandes séries)

Mode de rationalisation :

Recherche et inventions ; inspiration

Economies d'échelle

Type dominant d'entreprise :

Université, centre de recherche (privé ou public), créateur indépendant

Bureaucratie industrielle ou tertiaire "mécanistes" ; firme A

Le "monde de la création" se caractérise par une grande incertitude sur l'émergence même d'un produit au terme du processus de création, son aptitude à satisfaire des besoins actuels ou futurs à un coût acceptable, et la capacité du producteur à bénéficier du fruit de sa production. Face à une incertitude aussi radicale, l'activité ne peut s'effectuer que si le marché ne joue pas un rôle déterminant : la production peut être effectuée par une unité économique non marchande (université, centre de recherche public) ou par un département de l'entreprise non soumis à une contrainte de rentabilité à court terme ou, quand la production est marchande, son succès marchand n'est pas jugé comme étant le critère essentiel de la réussite (création artistique, littéraire) et n'est pas l'unique critère d'allocation de ressources (mécénat, subvention) ; dans la plupart des cas le financement public direct ou indirect (aides) joue un rôle important. C'est le monde de la création originale de nouvelles technologies et de nouvelles familles de produits, de leur conception ainsi que de la définition des besoins qu'ils satisfont, du développement des connaissances générales par opposition aux connaissances spécialisées. Dans ce monde l'évaluation de la qualité obéit à des règles éthiques et scientifiques ou à des critères esthétiques, et une place importante est accordée au jugement des pairs. L'allocation des ressources s'effectue principalement par une évaluation de type institutionnel. Les compétences mobilisées sont l'inspiration et les capacités à la recherche et à l'invention, le moteur de la concurrence étant le prestige résultant de l'originalité de la création.

Le "monde de la création" a toujours joué un rôle important dans l'histoire de l'informatique notamment dans la création originale de logiciels très divers (depuis des systèmes d'exploitation ou des langages de programmation jusqu'à des petits "utilitaires", en passant par des logiciels de navigation sur réseaux, des jeux...) par des producteurs aussi différents que de simples particuliers (éventuellement regroupés en club), des universités, des centres de recherche publics ou dépendants d'entreprises privées mais dont l'activité n'est pas soumise à des contraintes de rentabilité à court terme, dont l'exemple le plus célèbre est le Centre de recherches de Xerox à Palo Alto ou Xerox Parc, qui a joué un rôle important dans des innovations informatiques majeures. Le point commun à ces différentes activités est que les critères marchands ne sont pas déterminants, les logiciels produits étant le plus souvent des logiciels en freeware (ou "gratuiciels") qui sont fournis gratuitement aux utilisateurs, et des logiciels en shareware (ou "distribuciels") qui sont diffusés librement, l'utilisateur intéressé par le produit étant tenu moralement de verser une contribution le plus souvent modeste à l'auteur du logiciel. Les logiciels produits sont au départ principalement utilisés par la communauté informatique elle-même ; les compétences des utilisateurs, la circulation rapide de l'information au sein de cette communauté structurée par des réseaux, et le fait que les "secrets de fabrication" (code-source et documentation des programmes) sont le plus souvent également publiés, permettent une amélioration rapide de la fiabilité des logiciels et des modifications permanentes des produits initiaux pouvant aboutir à des utilisations diversifiées et parfois très éloignées des objectifs du créateur initial. En fin de compte, le monde de la création peut produire des logiciels performants et utiles dont un des derniers exemples est le système d'exploitation pour micro-ordinateur basé sur Unix (Linux) développé à l'origine par un étudiant finlandais Linus Torvalds, amélioré sans cesse par des experts bénévoles reliés par Internet, distribué gratuitement, jugé plus performant que Windows NT le systèmes d'exploitation "haut de gamme" de Microsoft, et de plus en plus utilisé (5 à 6 millions d'installations actuellement) (Lang, 1998). Ces logiciels libres occupent une place décisive dans l'Internet et sans eux l'Internet disparaîtrait (LMB Actu, 12/01/1998).


plus haut B. Sa capacité à impulser une standardisation dynamique

En effet, de façon apparemment paradoxale, le "monde de la création"[14] est dans une position plus favorable pour être à l'initiative d'une standardisation dynamique. Si ce monde, en interne, ne fonctionne pas selon des normes de standardisation de ses productions et de ses méthodes, il possède des caractéristiques qui répondent aux conditions énoncées par différents auteurs pour atteindre un objectif de standardisation dynamique : les standards doivent être des instruments de création de technologies et être élaborées par anticipation (OCDE, 1991), faire partie de la recherche-développement préconcurrentielle (Hawkins, 1995), effectuée par des structures collectives de recherche coopérative (Foray, 1990). Ce qui permet au "monde de la création" de développer des solutions ouvertes et évolutives, c'est sa plus grande souplesse de fonctionnement (par rapport aux institutions étatiques nationales ou internationales), et son absence d'intérêt économique (par rapport aux entreprises privées) à figer les standards sur un plan temporel et/ou dans des produits définis. La variété des acteurs qui composent ce monde de production permet une grande variété des connaissances produites (Callon, 1994) et donc une ouverture sur des solutions innovantes. Les traditions de communication et de publicité des travaux effectués garantissent une évolution rapide des standards qui s'efforce de maintenir la compatibilité avec les standards précédents en fonction des possibilités techniques, sans qu'interviennent des considérations de rentabilité économique privée. Ceci est remarquablement illustré par le rôle qu'a joué le "monde de la création" dans le développement d'Internet.


plus haut C. Un exemple de standardisation réussie : Internet

Le préalable à l'existence d'Internet était la standardisation des communications entre les ordinateurs reliés. Le problème était complexe vu la nécessité de connecter des ordinateurs très divers (en termes de taille et de standard) et l'hétérogénéité des réseaux déjà existants qu'il semblait souhaitable de pouvoir interconnecter. Si l'impulsion initiale répondait à des objectifs militaires formulés par le Ministère de la Défense des États-Unis (se doter d'un réseau de communication capable de résister à une attaque nucléaire), ce sont des institutions scientifiques et universitaires qui ont joué un rôle décisif dans le développement d'Internet, notamment par les possibilités qu'il offrait à des chercheurs dispersés de mettre en commun le fruit de leurs réflexions et de leurs travaux.

A partir des études rédigées en 73-74 par Robert Kahn et Vincent Cerf (OCDE, 1991) ont été adoptés des protocoles de communication : Transmission Control Protocol/Internet Protocol (TCP/IP). L'originalité de ces standards est qu'ils ne proviennent ni de décisions étatiques (normes internationales), ni de décisions des entreprises privées productrices de logiciels ou de matériels, ce qui leur confère des avantages appréciables.

A la différence des normes OSI très complexes, résultant de longues et laborieuses négociations internationales, les principes de TCP/IP sont simples permettant la mise au point rapide de produits opérationnels (Archimbaud, 1995).

L'indépendance par rapport aux constructeurs de matériels et aux producteurs de logiciels facilite l'ouverture de ces standards aux différentes situations techniques existantes ou à venir ; de même les spécifications de ces standards sont publiques, les pré-versions sont diffusées largement ce qui permet de les tester sous différentes configurations et de les améliorer avant qu'elles ne deviennent des standards reconnus.

Les solutions techniques retenues ne nécessitent pas l'existence "d'un poste de pilotage central de l'Internet" ; il existe simplement "quelques entités coordinatrices reconnues par la communauté " (Archimbaud, 1995, p.36) apparues au fur et à mesure des besoins, qui contrôlent et impulsent les évolutions techniques, adoptent les standards et gèrent les problèmes d'adresses des machines connectées au réseau. Tout ceci confère au réseau une grande souplesse d'évolution tant en ce qui concerne la variété des applications utilisées, la diversité des informations traitées qu'en ce qui concerne le nombre de sites connectés : face au problème que constituait l'épuisement du nombre d'adresses disponibles, l'IETE (instance technique de l'Internet) sut faire évoluer les protocoles TCP/IP qui permettront à chaque habitant du monde de connecter plusieurs dizaines de machines sur Internet (Archimbault, 1995)[15], infirmant les prévisions que "les adresses IP deviennent des biens rares et commercialisables dont le prix va probablement augmenter" (Braman, 1997). Le World-Wide-Web (WWW), dernier système d'information apparu sur l'Internet, qui élargit l'utilisation du réseau à un large public non spécialisé par ses possibilités d'accès à la plupart des sources d'informations disponibles sur l'Internet de façon simple et conviviale, a pour origine un projet du CERN (Organisation européenne pour la recherche nucléaire) développé à partir de 1989 pour la diffusion de l'information dans la communauté de la physique nucléaire ; il est basé sur des documents au format HTML (HyperText Markup Language) qui constituent grâce aux liaisons hypertextes une gigantesque "toile d'araignée" sur laquelle il est aisé de naviguer ; l'évolution du langage HTML est assurée régulièrement par un organisme indépendant le World Wide Web Consortium.

On peut dire qu'Internet représente un exemple de standardisation réussie combinant efficacité (la croissance impressionnante du nombre d'ordinateurs connectés et du trafic) et diversité des informations (aussi bien en ce qui concerne la variété des "informations-ressources" disponibles que la diversité des services fournis). Il permet d'enrichir le patrimoine informationnel global accessible, par la conception même du réseau qui fait qu'il n'existe pas de distinction technique entre producteurs d'informations d'un côté, consommateurs de l'autre, toute personne ou institution connectée au réseau pouvant produire librement des informations reliées facilement (liens hypertextes) aux informations déjà existantes. Toutefois cette situation favorable, que nous attribuons au statut particulier des acteurs qui ont développé Internet, peut être remise en cause par l'influence grandissante des entreprises privées en terme de contenu (publicité[16], commerce électronique) et surtout sur les standards eux-mêmes (par la "privatisation" de la gestion des adresses, les logiciels de navigation et de recherche, les caractéristiques des modems [17]...)




top Notes

[1]
Par exemple, la dégradation irréversible au bout d'un certain temps des informations sur support magnétique.

[2]
L'appréciation de ce qu'est un composant dépend de la conception de ce qu'est le produit : par exemple, si l'on considère qu'un système d'information constitue un produit son système d'exploitation est un de ces composants ; on peut également considérer qu'un système d'exploitation est un produit en tant que tel dont un des composants est la spécification des fichiers qu'il peut traiter.

[3]
On peut opérer une analogie avec le choix d'un standard linguistique (l'anglais) pour les communications scientifiques.

[4]
Le terme compatible est ambigu ; il peut aussi bien désigner les possibilités d'intégration avec des produits complémentaires (une imprimante compatible avec un ordinateur MacIntosh) que le fait qu'un produit de par ses caractéristiques est parfaitement substituable au produit qui fait l'objet du standard (un micro-ordinateur compatible IBM PC).

[5]
Pour une démonstration formalisée, cf. Boyer et Orlean (1994) p. 223-226

[6]
Brousseau (1993, p. 271) cite l'exemple dans le domaine de l'Echange de Documents Informatisés (EDI), de l'Edifact Board, instance de l'ONU chargée de définir les normes documentaires, qui a mis 15 ans (de 1975 à 1990) pour parvenir à la définition d'une première norme réellement opérationnelle (la facture).

[7]
Par exemple Windows 95 utilise une technique de gestion des fichiers qui a pour conséquence qu'après un certain nombre d'opérations de suppression et de création de fichiers, ceux-ci se trouvent fragmentés sur les supports de stockage (disque dur notamment) ; ceci nécessite pour maintenir les performances de l'ordinateur de "défragmenter" périodiquement le disque dur, opération qui peut générer des pertes de données. Pourtant des solutions techniques évitant la fragmentation des fichiers existent depuis longtemps (1984 pour Unix).

[8]
Microsoft a réalisé en 1997 un bénéfice de 3,5 milliards de dollars pour un chiffre d'affaires de 11,4 milliards de dollars.

[9]
Les pratiques utilisées par Microsoft pour s'imposer sur le marché des logiciels sont régulièrement dénoncées, les critiques les plus récentes émanant de la Software Publishers Association, groupement professionnel des éditeurs logiciels américains (LMB Actu, 06/02/98).

[10]
Cette possibilité n'est toutefois pas toujours prévue par Microsoft : il est par exemple impossible d'enregistrer une base de données effectuée avec Access 97 au format de la version précédente d'Access !

[11]
À partir de sa domination sur les systèmes d'exploitation dans la microinformatique, Microsoft se développe de plus en plus sur les systèmes d'exploitation pour serveurs et stations de travail avec Windows NT, et tente d'imposer Windows CE (version allégée de Windows 95) comme le standard des systèmes d'exploitation des appareils d'usage courants intégrant de l'électronique (électroménager, décodeurs, automobiles...).

[12]
Cette incompatibilité croissante entre les navigateurs Netscape et Internet Explorer est dénoncée dans une pétition "en ligne" des utilisateurs d'Internet ; de même, un groupe de concepteurs de site Web demandent aux éditeurs de logiciels un effort de standardisation ("initiative Webstandard").

[13]
Produit est utilisé ici dans le sens général de résultat d'une activité économique que celle-ci se traduise par la production de biens, de services ou d'une combinaison des deux, pouvant même inclure des phénomènes de coproduction par l'utilisateur.

[14]
Nous nous limitons ici à la composante scientifique et technique du monde de la création en excluant sa composante culturelle.

[15]
On peut comparer cette souplesse d'évolution à la rigidité technique d'un "standard-produit" qui ne se modifie qu'en fonction des intérêts de son promoteur ; par exemple pendant des années les micro-ordinateurs qui utilisaient MS.Dos (système d'exploitation de Microsoft) ne pouvaient utiliser efficacement que 640 kilooctets de mémoire vive quand la plupart des machines étaient livrées avec plusieurs mégaoctets.

[16]
Le marché publicitaire sur l'Internet est passé de 30 millions de dollars en 1996 à un milliard de dollars en 1997 (LMB Actu, 09/02/1998).

[17]
Intel, Compacq, Microsoft et les principaux opérateurs de télécommunications viennent de conclure un accord pour aboutir à un nouveau standard concernant des modems capables de transmettre des informations sur Internet trente fois plus rapidement qu'actuellement (LMB Actu, 29/01/1998).




plus haut Bibliographie

retour
ARCHIMBAUD Jean-Luc (1995) "Comprendre l'Internet", L'Internet professionnel, CNRS Éditions, pp. 17-40.

retour
ARTHUR B. (1988), "Competing Technologies : An Overview", in DOSI G., FREEMAN C., NELSON R., SILVERBERG G. et SOETE L. (eds.), Technology and Economic Theory, Pinter Publishers.

retour
BOYER Robert et ORLEAN André (1994), "Persistance et changement des conventions. Deux modèles simples et quelques illustrations", Analyse économique des conventions, André ORLEAN (éd.), Presses Universitaires de France, pp. 219-248.

retour
BRAMAN Sandra (1997), "L'économie de l'information : une évolution des approches", in La société informationnelle, MAYERE Anne (éd.), L'Harmattan Communication, pp. 87-111.

retour
BROUSSEAU Éric (1993), L'Économie des contrats, Technologies de l'information et coordination interentreprises; P.U.F., 368 p.

retour
CALLON Michel (1994), "La privatisation de la science est-elle inéluctable ?", Ronéo, 26 p.

retour
COHENDET Patrick (1996), "Réseaux, Pertinence et Cohérence", in Cohérence, Pertinence et Évaluation, ECOSIP sous la direction de COHENDET Patrick, JACOT Jacques-Henry et LORINO Philippe, Economica, pp. 137-158.

retour
COWAN Robin (1995), "L'informatisation des gouvernements : enjeux économiques et choix technologiques", STI Revue nº 16, OCDE, pp. 217-251.

retour
CURIEN Nicolas (1993), "Economie des services en réseau : principes et méthodes", Communications et Stratégies nº10, p. 13-30.

retour
CRINGELY Robert X. (1994), Bâtisseurs d'empires par accident, Addison-Wesley, 308 p.

retour
CROZET Yves (1997), Analyse économique de l'Etat, Armand Colin, 191 p.

retour
DAVID Paul A. (1985), "Clio and the Economics of QWERTY", American Economic Review, 75, 2, pp. 332-337.

retour
DAVID Paul A. (1987), "Some New Standards for the Economics of Standardization in the Information Age", in Economic Policy and Technological Performance, DASGUPTA P. and STONEMAN P., eds., Cambridge U.P.

retour
DAVID Paul A. (1994), "Les standards des technologies de l'information, les normes de communication et l'Etat : un problème de biens publics", Analyse économique des conventions, André ORLEAN (éd.), Presses Universitaires de France, pp. 249-280.

retour
DAVID P. et BUNN J. (1988), "The economics of gateway technologies and network evolution", Information Economics and Policy, 3.

retour
DAVID Paul A. et FORAY Dominique (1995), "Distribution et expansion de la base de connaissances scientifiques et technologiques", STI Revue nº 16, OCDE, pp. 13-73.

retour
FORAY Dominique (1989), "Les modèles de compétition technologique. Une revue de la littérature", Revue d'Economie Industrielle nº, pp. 16-34.

retour
FORAY Dominique (1990), "Exploitation des externalités de réseau versus évolution des normes : les formes d'organisation face au dilemme de l'efficacité dans le domaine des technologies de réseau", Revue d'Économie Industrielle nº51, pp. 113-140.

retour
FORAY Dominique et FREEMAN Christopher (éditeurs) (1992), Technologie et richesse des nations, Economica, 518 p.

retour
FORAY Dominique (1995), "Les brevets dans la nouvelle économie de l'innovation", Changement institutionnel et changement technologique Evaluation, droits de propriété intellectuelle, système national d'innovation, BASLE Maurice, DUFOURT Daniel, HERAUD Jean-Alain, PERRIN Jacques (éds.), CNRS Editions, pp. 119-149.

retour
GADREY Jean (1996), "Note sur les mondes de production", Ronéoté, laboratoire LAST-CLERSE

retour
GOMEZ Pierre-Yves (1994) , Qualité et théorie des conventions, Economica; 270 p.

retour
HAWKINS Richard (1995), "Le secteur public et la normalisation des technologies de l'information", STI Revue nº16, OCDE, pp. 167-195.

retour
HORN François (1997), "Pluralité et dynamique des mondes de production : l'exemple de la production de logiciels", Changements dans et de l'entreprise, Travail, Organisation des services et de l'industrie, Vèmes journées IFRESI, volume 2, pp. 243-260.

retour
KATZ M. et SHAPIRO C. (1985), "Network externalities, competition and compatibility", American Economic Review, 75, 3, pp. 424-440.

retour
LANG Bernard (1998), "Des logiciels libres à la disposition de tous", Le Monde Diplomatique, Janvier 1998.

retour
LE NAGARD Emmanuelle (1997), "Les stratégies de compatibilité dans les industries de la communication", Communications et Stratégies nº27, pp. 103-129.

retour
LMB Actu, (En Ligne), Hebdomadaire d'information sur l'Internet, l'informatique et les nouvelles technologies associées diffusé par CNRS/DSI (Délégation aux Systèmes d'Information du Centre National de la Recherche Scientifique), http://www.dsi.cnrs.fr/~lmb.

retour
MAYERE Anne (1990), Pour une économie de l'information, Editions du CNRS, 318 p.

retour
OCDE (1991), "La dimension économique des normes en matière de technologies de l'information", Politiques d'Information, d'Informatique et de Communications nº25, 114 p.

retour
RIBAULT Thierry (1993), Economie de l'information : approche patrimoniale, A Jour, 360 p.

retour
RIBAULT Thierry (1995), "Gestion patrimoniale de l'information et capitalisme relationnel : le cas du Japon", Les performances organisationnelles, IVèmes journées IFRESI, CNRS, pp.216-228.

retour
SALAIS Robert (1989), "L'analyse économique des conventions du travail", Revue Economique volume 40, numéro 2, mars 89

retour
SALAIS Robert et STORPER Michael (1993), Les mondes de production, Éditions de l'EHESS.

retour
THEVENOT Laurent, (1989), "Equilibre et rationalité dans un univers complexe", Revue Economique, vol. 40, nº2, pp. 147-198.

retour
WEINSTEIN Olivier (1989), "Production et circulation des connaissances scientifiques et technologiques", La production des services et sa géographie, F. MOULAER (éd.), Université de Lille 1, pp. 67-93.

retour
ZIMMERMANN Jean-Benoît (1995), "L'industrie du logiciel : de la protection à la normalisation", Changement institutionnel et changement technologique Evaluation, droits de propriété intellectuelle, système national d'innovation, dir. par BASLE Maurice, DUFOURT Daniel, HERAUD Jean-Alain, PERRIN Jacques, CNRS Editions, pp. 195-207.


Cet article est déjà paru dans la revue: Communications & Stratégies, n°33, 1999
Communications & Stratégies, revue européenne sur l'économie des télécommunications, de l'audiovisuel et de l'internet (
http://www.idate.fr/maj/revu).


© "Solaris", nº 6, Décembre 1999 / Janvier 2000.

accueil sommaire du dossier courrier aux éditeurs