[Introduction] [Partie 1 : Un modèle statistique de la science] [Partie 2 : un modèle bibliométrique de la science]
Aux sources de la scientométrie
On présente d'abord le contexte dans lequel la
scientométrie de Price s'est constituée, à savoir : un
réductionnisme bibliométrique fondateur ; une vision cumulative
de la science ; l'idée d'une science de la science. Ensuite, on analyse
les hypothèses de base et les règles méthodologiques du
dispositif scientométrique de Price. Après une
présentation synoptique des cinq hypothèses fondamentales
définissant la théorie scientométrique de Price, celles-ci
sont exposées en détail : la loi de croissance exponentielle (qui
serait la loi fondamentale de toute analyse de la science selon Price) ; la
nature logistique ultime de la croissance scientifique ; la forme hyperbolique
des distributions bibliométriques, ici il est question en particulier
des lois de Lotka et de la racine carrée de Price ; le modèle
fondamental de la distribution d'avantages cumulatifs (DAC) ; et enfin la
théorie sociométrique des collèges invisibles. Le bilan
final fait la distinction entre documents et connaissances, et soulève
ainsi le problème d'une scientométrie cognitive vis-à-vis
du programme externaliste mis en oeuvre par Price.
|
PLAN :
Afin de pouvoir développer un modèle statistique de la science, l'article scientifique a été considéré comme un indicateur de production de la recherche scientifique (output indicator en anglais).
J'appelle réductionnisme bibliométrique le point de vue par effet duquel l'article scientifique devient un outil de définition de la science et l'on fait de la publication écrite un indicateur privilégié de l'activité scientifique, considérant que le produit final de la recherche scientifique est la publication d'un texte écrit (articles scientifiques, contributions aux colloques, rapports ou toute autre espèce de "littérature grise").
En fait, Price définit la science en terme de littérature scientifique ; il établit une équivalence entre la notion de science en tant que connaissance et l'écrit scientifique qui représente sa forme objective d'existence : "la science est ce qui se publie dans les revues, les articles, les communications et les ouvrages scientifiques. Bref, elle est ce que matérialise la Littérature ... Ainsi définie, toute littérature scientifique se prête au dénombrement, à la classification et à la représentation sous forme de séries temporelles ; et dans de nombreux cas, c'est même chose faite" [20]. Cette dernière remarque fait allusion à la tradition bibliométrique qui la précède (Bradford, Lotka).
Dans sa communication intitulée "Quantitative Measures of Development of Science", au VIe Congrès International d'Histoire des Sciences (Amsterdam, août 1950), Price expose pour la première fois une manière d'utiliser le nombre d'articles scientifiques comme une indication quantitative de l'activité de recherche [21].
Là, il émet l'hypothèse que "le nombre d'articles scientifiques publiés chaque année peut être considéré comme une indication brute de l'activité qui a été déployée dans un domaine général ou spécialisé de recherche", puisque "la manière usuelle d'enregistrer une contribution à la connaissance scientifique est à travers la publication d'un article scientifique dans un périodique scientifique". Par conséquent, nous pouvons espérer que le nombre d'articles publiés chaque année représente "un baromètre pertinent pour nous indiquer la somme d'activité dépensée au cours de cette année, et sur le domaine à partir duquel le comptage a été effectué" [22]. En outre, il observe que le développement scientifique, mesuré de cette manière, obéit à une loi de croissance exponentielle, ou plus exactement, à des périodes de croissance exponentielle suivent des périodes de croissance linéaire [23]. C'est donc la première esquisse de son modèle statistique de la science.
L'article scientifique devient d'une manière explicite un instrument de définition de la science et du scientifique, et une équivalence est ainsi établie entre la notion de science et l'écrit scientifique. On entend par science ce qui se publie dans les articles des revues, les communications, les rapports, les thèses et les ouvrages scientifiques ; ou d'une manière plus restrictive "la science est ce qui est publié dans les articles scientifiques" [24] ; c'est déjà une manière de dire que la science est de la connaissance écrite.
Le modèle de la science qui sert ici de paradigme est une représentation à la fois statistique et littéraire de la science comme une "population de publications" où chaque document écrit est considéré comme "une sorte d'atome de connaissance" [25] "chaque article représente au moins un quantum d'information scientifique" [26].
Price applique ensuite le même critère qui a permis de voir dans l'article scientifique un indicateur de la l'activité scientifique, à la définition du chercheur : on appelle "scientifique une personne qui a publié un article scientifique" [27], "nous définirons un scientifique l'individu qui quelquefois dans sa vie a aidé à l'écriture d'un article de cette espèce" [28].
De l'adoption rigoureuse de ce point de vue se suit une conséquence sociologique importante : on fait abstraction de toute considération de type socio-professionnelle comme la formation, la qualification ou le titre, et socio-économique comme le type et le lieu d'emploi dans la définition du scientifique. Scientifique sera tout auteur ou co-auteur d'une publication certifiée et évaluée comme scientifique par la communauté scientifique. Comme l'écrit Price : "un scientifique n'a rien à faire avec une personne ayant reçu une formation ou non, s'il est employé comme scientifique académique ou industriel, ou s'il réalise un travail scientifique de quelque nature que ce soit, bien que significatif, si ceci n'arrive pas à être publié" [29]. Le seul critère que l'on retient ici est que "le produit final majeur du travail d'un scientifique est l'article qu'il publie" [30].
Le fait de réduire la science à l'article scientifique produit, comme je l'ai déjà dit, une équivalence entre la notion de science en tant que connaissance et l'écrit scientifique. Cependant, il faut souligner que "document et connaissance ne sont pas des entités identiques" [31]. Toutefois, ce réductionnisme a la vertu de souligner que la science est essentiellement de la connaissance écrite, elle est certifiée en tant que scientifique par le type de document où elle est publiée sous le contrôle et la validation d'une communauté scientifique.
Price affirme "la structure cumulative de la science" [32] suivant l'image d'un accroissement des contributions qui ressemblerait à une pile de briques. "Chaque chercheur ajoute sa brique à la pile dans une séquence ordonnée qui est, du moins en théorie, destinée à demeurer à perpétuité comme un ouvrage intellectuel bâti avec adresse et art, reposant sur les fondations primitives et se hissant jusqu'aux limites supérieures du front de recherche grandissant de la connaissance" [33]. Cette même idée d'une accumulation continue est postérieurement énoncée sous la métaphore du jeu de puzzle [34]. Or, ce développement obéirait à certaines lois statistiques agissant au niveau de la littérature scientifique.
Selon Price son analyse quantitative de la science ressemble aux études économétriques au sens parétien. Car il constate une distribution analogue à la loi de Pareto (sur la distribution des revenus) dans le domaine de la littérature scientifique. Ce qu'il résume dans ces termes : "On retrouve d'une part l'approche dynamique qui nous donne des séries temporelles, d'abord à croissance exponentielle, puis à croissance saturée aboutissant à des courbes logistiques standards, d'autre part l'approche statistique d'une loi de distribution analogue à celle de Pareto. La différence entre l'analyse de la science et l'analyse des affaires vient des paramètres en jeu" [35].
Dans son Cours d'Économie Politique, en 1897, Pareto introduit sa loi pour décrire des unités économiques par des caractères de taille (revenu, chiffre d'affaires, budget d'investissements...). Pour ce type de grandeurs, on postule le plus souvent que le nombre d'individus, N, dont le caractère étudié dépasse un seuil x est donné par l'équation : Nx = C/xa ; où C et a sont des constantes. L'application de la loi de Pareto aux distributions de revenus est une des plus usuelles ; le paramètre a est alors en général voisin de 2. La loi de Pareto est, selon Mandelbrot [36], l'expression statistique d'une certaine famille de lois à laquelle, il faut le souligner, appartiennent les lois bibliométriques de Lotka (1926), de Bradford (1934) et de Zipf (1935).
"On ne connaît bien un phénomène que lorsqu'il est possible de l'exprimer en nombres" affirmait Lord Kelvin. L'application de ce précepte non pas à la connaissance de la nature comme la science physique occidentale le fait depuis le XVIIe siècle, mais à la connaissance de la science elle-même, constitue l'ambition du programme de Price. Ce qu'il envisage comme une "science de la science" dont la tâche essentielle est de "conduire les pouvoirs de la science à s'adresser sur les problèmes de sa propre structure" [37].
"Pourquoi ne pas appliquer à la science ses propres instruments. Pourquoi ne pas mesurer, généraliser, faire des hypothèses, tirer des conclusions" se demande-t-il dans la préface de Little Science, Big Science [38]. Et d'ailleurs le premier chapitre de cet ouvrage s'intitule "Prologue à une science de la science" [39].
Price appelle "science de la science" [40] l'application des techniques quantitatives ou statistiques dans l'étude de la science elle-même ayant pour but la construction de modèles [41]. Sur cette base, il s'agit de fédérer dans un seul et même ensemble toutes les études sociales de la science. Si bien "les disciplines qui analysent la science se sont créées séparément" (piecemeal, c'est-à-dire pièce par pièce), il croyait percevoir les signes d'une certaine confluence de ces démarches. Ce nouveau champ d'études qui est la "science de la science" représente à ses yeux l'action d'adopter une attitude proprement scientifique à l'égard du phénomène de la science [42].
Des nombreux scientifiques ont eu, il est vrai, un rôle important dans l'histoire et dans la philosophie des sciences, mais curieusement comme remarque Price, "leur connaissance de la science a été seulement utilisée dans un sens internaliste" traditionnel ou qualitatif. Ils n'ont vraiment pas appliqué "les méthodes, les habitudes et les motivations du travail scientifique dans l'investigation d'un aspect de la science" [43].
Cette vision selon laquelle la scientométrie est la pièce maîtresse d'une science de la science est conforme à un certain courant qui s'est développé dans l'ex-Union Soviétique comme le rappelle S. D. Haitun dans son article de synthèse "Scientometrics Investigations in the USSR" (1979). Pour Haitun, la scientométrie est un sous-champ de la science de la science, et son but est la mesure des régularités quantitatives observables dans les activités scientifiques [44].
L'ambiguïté remarquée au coeur de cette conception n'est pas autant l'appartenance de la scientométrie à la science de la science, que la coexistence de deux acceptions dans sa définition, l'une large et l'autre restreinte. Dans son acception large, la scientométrie désigne l'application des méthodes statistiques à tout ce qui est mesurable dans l'étude de l'activité scientifique. En revanche, dans son acception restreinte la scientométrie devient une bibliométrie spécialisée au seul domaine de la littérature scientifique. On peut également observer que les activités scientifiques ne se réduisent pas au fait unique de produire de la littérature scientifique. L'indicateur bibliométrique (ou la distribution scientométrique selon le mot de Haitun) est un indicateur partiel que l'on doit pouvoir croiser avec d'autres indicateurs, si l'on veut parler avec pertinence de scientométrie dans son acception large. C'est ce dernier sens que Price l'envisage, je crois, sous le nom de "science de la science".
Après avoir vu le contexte dans lequel la scientométrie de Price s'est constituée, voyons maintenant les règles méthodologiques que cette approche prescrit dans le but de se démarquer des approches traditionnelles de nature qualitative dans l'étude de la science.
On trouve un certain nombre de prescriptions méthodologiques dans la préface de Little Science, Big Science (1963). Ces règles déterminent la manière appropriée selon Price de se rapporter à la science et de la traiter en tant qu'objet d'étude statistique. Dans les paragraphes suivants, je cite l'édition française de Little Science, Big Science.
D'après cette règle, nous devons laisser complètement "de côté le détail des découvertes scientifiques, leurs usages et leurs rapports" (p. IV), et nous devons également éviter toute référence biographique à "un savant en particulier" (p. IV). Bref ni analyse de contenu, ni analyse sur l'usage ou l'impact, ni considérations d'ordre biographique.
Ce sont là des aspects que l'on distingue aujourd'hui comme étant deux classes distinctes d'indicateurs : d'une part, les indicateurs inputs (la main-d'oeuvre et les dépenses scientifiques) et, de l'autre, les indicateurs de production ou outputs (les publications scientifiques, articles, communications, rapports, etc.).
A ce modèle d'inspiration thermodynamique s'ajoute enfin la définition de la science en tant que littérature scientifique. Comme on l'a déjà dit plus haut, la science est réduite à l'état d'un corpus de publications. Ainsi, on utilisera les articles scientifiques comme les unités pertinentes pour mesurer la croissance des activités de recherche.
La critique que l'on a adressé à ce modèle statistique d'inspiration thermodynamique, est qu'à l'aide d'un tel outil nous ignorions les aspects microscopiques individuels (l'activité de la molécule appelée Georges, selon Price), ainsi que le contenu même des documents (le récit) [46]. Sur un plan plus général, Holton a critiqué l'adoption de la thermodynamique comme un modèle pour l'analyse de la science, parce que la connaissance fournie par ce modèle est indépendante d'une compréhension de la microstructure cognitive, ce qui signifie la perte de la structure fine au bénéfice des effets de masse ou globaux [47]. D'autre part, Holton a souligné le problème que représentent les "grosses mesures" (bulk measures) en tant que moyen pertinent pour discriminer entre populations de phénomènes incommensurables, puisque le "gaz" en question, autrement dit la science, ne constitue jamais un milieu homogène. Bien au contraire, la science s'avère être un domaine hautement différencié. En effet, l'arbre de la science se divise en de nombreuses branches ou disciplines et ces dernières en une multitude de spécialités [48].
Le commentaire que nous pouvons faire est que l'intention de présenter ou d'argumenter en faveur des études scientométriques comme un outil pour la politique de la science est toujours vivace [49]. Mais il a été remarqué que cette proposition (de la scientométrie comme outil pour le management de la science) paraît obéir plus à une volonté d'offre (bibliometric ou scientometric push,) qu'à une vraie demande (ou policy pull ) [50].
Ces règles esquissent bien le type d'approche que le programme scientométrique de Price représente. Ce programme propose un objectif plus large que les problèmes de méthodologie statistique auxquels se limite une grande partie des travaux en scientométrie et en bibliométrie. En outre, on voit bien à travers ces règles, les objectifs ce programme : la recherche des principes fondamentaux dans l'ambition de pouvoir modéliser le développement scientifique à partir des données empiriques mesurables.
Ayant fait cette analyse générale des hypothèses de base se traduisant dans des règles méthodologiques, nous allons maintenant examiner les lois statistiques de croissance et de distribution que l'approche scientométrique de Price propose et qui constitue à proprement parler son modèle statistique de la science.
L'analyse quantitative de la science doit dégager les lois statistiques objectives de la croissance scientifique. A cet effet, la conclusion de Price est que la modélisation de la science a lieu au moyen de la matrice statistique "de la croissance exponentielle, du déclin logistique" et des "fonctions de distribution" hyperboliques [54].
On a noté que dans son empressement à développer des lois semblables à celles de la physique, Price ignore souvent, sinon toujours, les déviations concernant ces lois statistiques, ou bien l'absence de données fiables pour les soutenir [55].
L'essentiel de sa théorie scientométrique peut se résumer pour ce qui nous intéresse ici aux hypothèses suivantes :
Ces hypothèses définissent les bases théoriques, comme dit Price, de son modèle statistique de la science [56].
En outre, l'analyse statistique de Price se décompose en deux aspects, d'une part l'approche dynamique sur les séries temporelles, d'abord à croissance exponentielle et ensuite à croissance saturée aboutissant à des courbes logistiques standards, et d'autre part l'approche d'une loi de distribution stationnaire (ou structurelle).
Le développement scientifique obéit une loi de croissance exponentielle. Celle-ci est la condition universelle ou le modèle normal d'une science en libre expansion [57]. La croissance exponentielle caractériserait le développement historique de la science occidentale depuis le XVIIe siècle.
Mathématiquement, ce type de croissance est décrite par une
fonction exponentielle de base e, f(x) = ex. Si f(t)
représente la dimension ou la taille d'un corpus documentaire au temps,
t, la fonction exponentielle, ou loi, s'exprime alors de la manière
[1] f(t) = aebt ,
étant a la dimension initiale du corpus au temps t = 0, et b le taux continu de croissance qui est le pourcentage suivant lequel la grandeur du corpus s'accroît par unité de temps (dans le laps d'un an par exemple). A l'aide d'un système de coordonnées planes et d'un tableau de valeurs de la fonction, on produit sa représentation graphique sous la forme d'une courbe exponentielle [58].
Afin de mesurer la croissance de la science, Price a utilisé comme indicateurs principaux le périodique et l'article scientifiques, mais aussi les résumés (c'est-à-dire les abstracts) -- Ses sources sont notamment la célèbre série Philosophical Transactions of the Royal Society of London (depuis 1665), les Physics Abstracts (de 1990 à 1950), ainsi qu'une compilation d'articles concernant la théorie mathématique des déterminants et des matrices (pour les périodes 1693-1919 et 1920-1949) [59]. A partir de ces données, Price dégage une loi de croissance exponentielle qui s'applique aux publications scientifiques et également au nombre de scientifiques et d'ingénieurs, de sorte que la "communauté scientifique" apparaît elle aussi obéissant à une croissance exponentielle [60].
Sur la base des études réalisées au cours des années 1950 et de ses propres analyses, Price arrive à cette conclusion : "on est en droit d'admettre que dans tout domaine scientifique qui se développe normalement, la quantité de littérature disponible augmente exponentiellement, la période de doublement variant d'une dizaine à une quinzaine d'années" [61]. Il insistera dans Little Science, Big Science (1963) sur le fait que tous "les indices numériques concernant diverses disciplines et aspects de la science montrent que la loi de croissance exponentielle s'applique à la science" [62].
En conséquence, la loi de croissance exponentielle serait à son avis "la loi fondamentale de toute analyse de la science" [63], et d'ailleurs il semble que cette croissance exponentielle s'est à peu près maintenue pendant trois siècles. La possibilité que la loi ne soit pas seulement empirique suggère à Price la tâche de montrer, "moyennant une définition convenable des indices en croissance exponentielle, qu'elle possède un fondement théorique raisonnable" [64]. En réalité, dans le premier chapitre de Little Science, Big Science, il se limite à conforter l'évidence empirique de la loi de croissance exponentielle, sans pour autant fournir la preuve qu'elle possède un tel fondement théorique.
Une dizaine d'années auparavant, ou plus exactement dans son étude de 1950,"Quantitatives Measures of the Development of Science", il avait remarqué que les phases de croissance exponentielle (où le taux de croissance est proportionnel à la taille déjà atteinte par une population ou par un système) étaient suivies de phases de croissance linéaire (dans lesquelles le taux de croissance est constant et indépendant de la grandeur du système).
Qu'est-ce qui détermine dans la forme ou dans le contenu d'un domaine si sa croissance sera exponentielle ou linéaire? Dans sa réponse, Price soulève la possibilité que nous soyons en face de deux situations distinctes. La première où le domaine en question représente de la terra incognita qu'on est en train de découvrir. L'autre situation est lorsque l'activité consiste à consolider et à développer un domaine déjà familier. Dans le premier cas, la loi de croissance serait exponentielle ; dans le second il est beaucoup plus probable que la croissance soit linéaire, ce qui s'explique parce que certains domaines décrochent (cut-off), se stabilisant au fur et à mesure que le front de recherche avance et s'éloigne d'eux. Dans ces cas, la forme de croissance devient linéaire. Si la croissance linéaire ralentit, on peut supposer que cela est dû au fait que le domaine est loin derrière le front de recherche et que par conséquent il ne reçoit qu'un stimulus mineur pour le développement de son activité [65].
D'un point de vue bibliométrique, il est raisonnable de supposer que le nombre d'articles scientifiques publiés au cours d'une année est directement proportionnel au nombre de personnes faisant de la recherche dans le domaine considéré. Ainsi, "nous pouvons interpréter le taux de croissance comme un index de la force humaine scientifique mobilisée autour d'un domaine. La croissance exponentielle implique que l'expansion du domaine attire de nouveaux travailleurs à un taux proportionnel à l'activité du domaine ; la croissance linéaire implique pour sa part que le nombre de travailleurs demeure constant" [66]. Nous avons donc ici l'énoncé d'un indicateur de l'activité scientifique permettant de faire des estimations sur les ressources économiques et humaines investies dans un domaine de recherche scientifique.
L'analyse quantitative des articles publiés dans le domaine de la théorie mathématique des déterminants et des matrices entre 1740 et 1950 suggère à Price l'existence de trois étapes de la croissance. La première étape est la période irrégulière des précurseurs et d'un début légèrement prématuré allant de 1740 à 1800 environ. L'étape suivante est celle de la croissance exponentielle entre 1800 et 1880 environ. La dernière étape est une période de croissance linéaire de 1880 à 1950. Dans la période exponentielle, l'augmentation des titres double tous les douze ans, dans la phase linéaire la croissance se maintient à une échelle constante d'à peu près 35 articles par an [67].
Si le cas était susceptible d'être généralisé, il représenterait un modèle du développement des disciplines scientifiques. Si l'on dispose de références bibliographiques suffisantes de manière à qu'il soit possible de procéder à une analyse de cette espèce, l'hypothèse de Price est que l'on peut démontrer que le développement passe par un certain nombre de phases :
Deux aspects de l'hypothèse de Price sur la croissance exponentielle de la science me semblent particulièrement important à retenir. D'une part, son extrême rapidité, elle est de l'ordre de 10 à 15 ans par doublement [69]. D'autre part, le fait encore plus important de son caractère différentiel, un point qui me paraît essentiel : "si on peut maintenir l'image globale d'une croissance exponentielle continue avec la constante temporelle extraordinairement courte d'environ 15 ans, tout ne grandit pas exactement à ce rythme ; il y des croissances plus rapides, d'autres plus lentes (...)" [70]. Je tiens à souligner ce deuxième aspect parce qu'il nous suggère que la science ne constitue pas un bloc homogène. Elle se développe par branchement et selon des rythmes de croissance différents. La croissance cumulative (en nombre de chercheurs et de publications) sur la longue période s'accompagne d'une division intellectuelle et sociale de la connaissance scientifique (spécialités) et de la communauté scientifique, phénomène qui s'exprime au niveau de la littérature scientifique par la multiplication de périodiques spécialisés.
Mais une croissance exponentielle ne peut pas se maintenir à l'infini. "Ce qui se passe plutôt, c'est que la croissance exponentielle atteint une limite quelconque ; après quoi, le processus doit ralentir et s'arrêter avant d'atteindre l'absurde" [71]. De sorte qu'il nous faut considérer ici comme pour "le nombre de mouches à fruit germant dans une bouteille, ou le nombre de kilomètres de rails de chemin de fer construit au début de la révolution industrielle" [72], une seconde loi qui explique son plafonnement, sa saturation.
On doit donc envisager l'hypothèse de la nature logistique ultime de la croissance scientifique, elle correspond à son état de saturation : ce phénomène s'exprime par une courbe en S (ou courbe logistique) [73]. En d'autres termes, le processus exponentiel que nous venons de décrire se caractérise enfin par son plafonnement. La courbe exponentielle se transforme en une courbe logistique.
"Ainsi, sans faire intervenir d'autre hypothèse que pour la croissance exponentielle jusqu'ici régulière, avec une période de doublage de 10 à 15 ans, on aboutit à la conclusion que cette courbe doit comporter un plafond, faute duquel on atteindrait avant un siècle à des conditions absurdes. Et si cette limite existe, il faut bien admettre que notre croissance exponentielle n'est que l'amorce d'une courbe logistique déguisée" [74].
Figure 1 -- Le modèle de la courbe
en S est symétrique, dans ce sens
que "la croissance est exponentielle
au départ et se maintient à ce
rythme jusqu'à presque mi-chemin
entre base et plafond, puis elle
s'infléchit. Après quoi le taux de
croissance diminue, si bien que la
courbe continue vers le plafond avec
une allure symétrique à celle
qu'elle a entre la base et le point
médian". (Price, Science et
Suprascience, op. cit., p. 21).
La courbe logistique se caractérise par une limite inférieure, 0, et par une limite supérieure ou plafond au-delà duquel il n'y a plus croissance mais stagnation ou déclin. On note l'équation d'une courbe logistique de la manière suivante :
[2] f(t) = k / 1 + ae-bt
étant f(t) la grandeur au temps t, et k le plafond. La courbe est comme on vient de le dire symétrique autour de son point d'inflexion. Pour la signification de ae-bt voir ci-dessus l'équation [1].
Dans la réalité aucune croissance ne peut rester exponentielle indéfiniment. Il vient nécessairement un moment de saturation et de stabilisation de la croissance. Le problème est alors de chercher à définir cet état de saturation et à pouvoir estimer à quel moment il pourrait être atteint. En s'appuyant sur la symétrie de la courbe en S, par rapport au point d'inflexion situé au milieu, les extrapolations sont aisées à condition de supposer que la croissance à partir de ce point continuera de respecter la symétrie, et qu'elle présentera donc la même pente avant de s'aplatir.
En 1962, Price croit percevoir "tous les symptômes de la saturation" [75]. Dans cette période, "on accordera toujours plus d'attention aux problèmes de main-d'oeuvre, de publications et de budget" [76]. Alors il définit la big science c'est-à-dire la <<suprascience>> comme "l'assaut des conditions nouvelles destinées à rompre avec une tradition séculaire et à entraîner de nouvelles escalades, de violents huntings, des redéfinitions de nos termes fondamentaux, bref tous les phénomènes caractérisant la limite supérieure de la courbe". On voit donc que la big science ne signifie pas seulement que "tout se fasse à grande échelle" [77] comme le suggère le sens littéral du mot. Elle signifie surtout la science à l'état de saturation, comme Price le dit par ailleurs explicitement, "la suprascience ou science de la saturation" [78]. Par conséquent, "si l'on veut savoir comment vivre et travailler en cet âge nouveau", il est nécessaire "de comprendre comment s'est fait le passage à la suprascience" [79]. Le changement n'a pas été brusque, du jour au lendemain, bien au contraire il a été "remarquablement progressif". Et pour le montrer, il pense qu'il faut "aborder l'analyse de la science en faisant des mesures". De sorte que le problème de la scientométrie est justement "de déterminer lesquelles et de savoir ce qu'elles signifient" [80].
Le pronostique de Price, fondé sur la symétrie de la courbe en S, est "que dans l'intervalle d'une génération humaine la science subira une déperdition dans sa croissance exponentielle traditionnelle et approchera du point critique marquant le seuil de la vieillesse" [81], et qu'à un moment situé vers 1940-1950, la région médiane de la croissance logistique semble avoir été franchie [82].
Mais l'utilisation des courbes en S se heurte à une difficulté essentielle. Elles s'appliquent à des systèmes clos, autrement dit à des systèmes enfermés dans des limites déterminées et ce sont ces conditions-limites qui forcent la courbe à plafonner. Le caractère problématique dans l'usage des courbes en S est lorsque ces conditions-limites ne sont pas prédéterminées, c'est-à-dire qu'elles peuvent non seulement changer mais encore être reportées et même modifiées. Dans ces conditions son usage peut s'avérer trompeur. C'est d'ailleurs, il me semble, le cas du pronostique de Price.
L'état de plafonnement qui apparaît dans le chapitre 5 de Science since Babylon (1962) comme le symptôme d'une "maladie de la science", est en même temps envisagé par Price comme l'effet d'un processus naturel [83]. Dans Little Science, Big Science (1963), ce processus se manifeste comme l'état normal de la science de nos jours. Une science qui par sa forme et sa magnitude est devenue une mégascience ou big science, depuis une course de croissance exponentielle de trois siècles à peu près (1660-1960). C'est ainsi que nous vivrions aujourd'hui dans une économie de saturation de la science, au moins dans les pays développés. L'effet plus notable de l'état de saturation du développement scientifique contemporain est le besoin d'une politique scientifique : "la science à l'âge de la saturation" ou "l'état de saturation de la science" [84], implique d'une manière beaucoup plus pressante le besoin inévitable de faire des choix et de prendre certaines décisions. Autrement dit, la nécessité d'une programmation de la recherche se fait alors sentir d'une manière bien plus aiguë.
C'est l'époque où la mise en place d'une politique scientifique apparaît comme inévitable. Price adhère à l'idée qu'elle ne doit pas être fondée sur un critère utilitaire visant les seules applications de la science. Elle ne doit pas non plus se fonder sur le seul avis des scientifiques au travail. L'évaluation que les chercheurs eux-mêmes peuvent faire au sujet de l'importance de leurs propres recherches doit être tempérée pour deux raisons :
Le sentiment de Price était, au début des années 1960, qu'il n'y avait pas de politique scientifique aux États Unis. A l'époque, on ne voyait pas sur quels principes fonder une politique de la science : soit sur la demande d'une recherche orientée et utile (market-pull), soit sur le conseil des scientifiques eux-mêmes avec le risque que les intérêts exprimés fussent sans rapport ou opposés aux nécessités du pays. A cela s'ajoutait le manque de connaissance sur les caractéristiques générales (general patterns) de la science [86], oeuvre à laquelle la démarche scientométrique devait représenter une contribution.
Des phénomènes comme la surabondance de littérature, les déficits de personnel, la spécialisation croissante, la tendance à la détérioration de la qualité sont des aspects que Price voit comme les symptômes d'une maladie générale que seuls les historiens de la science pouvaient alors comprendre partiellement. D'où cette idée que si l'on voulait disposer d'une meilleure connaissance, il fallait qu'elle fasse l'objet de l'étude d'une profession en particulier [87], à savoir la "science de la science".
Finalement, Price a été conduit à modifier sa conception un peu trop simpliste, de la courbe en S, vraisemblablement sous l'influence des conclusions de Holton. Cet auteur avait remarqué que "le développement de la recherche scientifique procède par une escalade de la connaissance (...) et non par simple accumulation" [88].
Figure 2 -- État de saturation (A)
et l'escalade (B). Le fait qu'un
nouvel élan ascensionnel peut se
produire, c'est-à-dire le démarrage
d'une nouvelle courbe logistique
(B), est comme le reconnaît Price,
"le phénomène correctement identifié
pour la première fois par Holton et
très heureusement désigné par lui
sous le nom d'« escalade »". Tout
compte fait, et cela en accord avec
le modèle qualitatif de Holton,
Price conclut que les "courbes
d'escalade sont probablement les
plus communes" en ce qui concerne le
développement scientifique [89].
Les réactions de la courbe logistique sont loin d'être uniformes à l'approche des conditions-limites. On a présupposé jusqu'ici un simple phénomène de saturation et de stabilisation. C'était l'opinion de Price en 1961 dans Science since Babylon [90]. Mais il considère deux ans plus tard, dans Little Science, Big Science, la possibilité d'autres réactions de la courbe à l'approche de son plafond : l'escale (une nouvelle courbe logistique naît à la mort de la précédente); la perte de définition (il est impossible de continuer à mesurer la variable de la même manière ou en utilisant les mêmes unités) ; les oscillations divergentes et convergentes qui tentent de restaurer la croissance libre [91].
Or, si l'on croit à une autre étude de la même nature que celle de Price, l'activité scientifique serait en 1980 (période du calcul 1960-1979) dans une phase de croissance linéaire du nombre cumulé de publications scientifiques avec le temps, toutes les sciences confondues [92]. Ce qui signifie que chaque année de production apporte le même nombre de publications scientifiques. Cette étude soutient en outre l'hypothèse que la croissance des publications de "premier ordre" (first-rate) serait logarithmique -- de type log (a + bt), où t est le temps et a et b des constantes. De sorte que le nombre de documents de "premier ordre" (ou innovants) décroîtraient d'année en année [93].
D'autre part, l'étude que nous citons soulève une question tout à fait pertinente ayant trait avec le réductionnisme bibliométrique (que nous avons indiqué comme étant à la base du projet scientométrique) : "To what extent does number of publications actually measure knowledge ?" [94]. Autrement dit, quel est le rapport entre la publication de documents et le développement des connaissances? Que peut-on dire des rapports entre publications scientifiques et développement des connaissances ? Du point de vue d'une approche cognitive du développement de la science, il convient de distinguer entre le développement des connaissances et le développement de la littérature ou du nombre de publications [95].
Après avoir défini des séries temporelles d'abord à croissance exponentielle, puis à croissance saturée aboutissant à des courbes logistiques standards, Price cherchera à établir une loi de distribution. Rapidement, il arrive à la conclusion que la science est un univers gouverné par une loi de distribution hyperbolique. Ce qui avait été mis en évidence par les observations aussi bien de Lotka (1926) au sujet des auteurs, que de Bradford (1934) à propos des sources d'information et de Zipf (1935) concernant les mots d'un lexique ou d'un discours.
Il sera maintenant question de la distribution et de la hiérarchisation des scientifiques et avec eux des nations, en fonction de leur productivité en matière de publications (nombre de publications produites), suivant l'hypothèse qu'il existe "une corrélation raisonnable entre l'éminence d'un savant et sa productivité en publications" [96]. L'idée est que "l'existence d'une distribution rationnelle indiquant le nombre d'hommes, de papiers, de pays ou de périodiques en fonction du degré de productivité, d'utilité ou de toute autre mesurer, constitue un outil très efficace. Elle permet de faire un compte grossier et de l'interpréter au lieu de tenter un compte précis des unités en croissance exponentielle" [97].
L'observation galtonienne de Price est que "malgré la croissance exponentielle rapide des effectifs scientifiques, et accessoirement des publications et des budgets, le nombre d'hommes vraiment grands ne semble pas croître avec la même exubérance" [98]. En conséquence, le problème qu'il soulève est "d'établir un standard objectif d'éminence qui soit indépendant du temps" [99]. Il propose d'utiliser un indicateur bibliométrique, à savoir "le nombre de publications produit par chaque individu dans les périodiques scientifiques reconnus" [100] comme un moyen d'évaluation de la qualité ou de l'éminence scientifique des savants. La référence est ici forcément la loi de Lotka [101].
Lotka a été le premier à réaliser, en 1926, une étude sur la distribution des auteurs scientifiques, arrivant à la conclusion que la relation auteurs-articles est inversement proportionnelle au carré d'articles publiés. Le nombre d'auteurs scientifiques ni qui écrivent i articles est égal à :
[1] ni = n1/i2, i = 1, 2, 3... imax
où n1 est le nombre de scientifiques ayant écrit un article ("single paper authors") ; imax est la productivité maximale d'un auteur.
Comme beaucoup d'autres régularités statistiques, la loi de Lotka est seulement valable en moyenne et d'une manière approximative, car l'exposant du dénominateur de l'équation [1] varie quelque peu et n'est pas nécessairement égal à deux. En vérité, la loi de Lotka appartient à une famille plus vaste de distributions :
[2] ni = n1 / i 1+ a
a étant l'exposant caractéristique de la distribution (dans le cas de la loi de Lotka a = 1). Sous cette forme générale, la loi de Lotka est déterminée par trois paramètres, le nombre d'auteurs ayant écrit un seul article ("single paper authors"), n1, la productivité maximale d'un auteur, imax, et la valeur de l'exposant caractéristique a. Si un de ces paramètres est fixé, alors il est possible d'analyser la dépendance des autres deux [102].
Figure 3 -- Graphiques de la loi de l'inverse du carré de Lotka ; les
valeurs de i = 1, 2, 3, 4, 5, 6, 7, 8, 9, 10. En ordonnée les valeurs de
n1/i2, étant n1 égale à 100 auteurs ; alors il y en a 25 qui en produisent 2, 11 produisant 3 et ainsi de suite jusque
l'auteur ayant produit 10 articles (imax). On voit d'abord une courbe
hyperbolique, mais elle devient une ligne droite parallèle à la
deuxième bissectrice de l'angle des axes dans le graphique doublement
logarithmique. Celle-ci est une caractéristique commune aux lois
bibliométriques concernant les relations auteurs-publications (Lotka),
périodiques-articles (Bradford) et mots-occurrences (Zipf).
L'analyse des lois bibliométriques révèle qu'elles correspondent à un autre modèle statistique que les distributions de type binomial, Poisson et Gauss (ou normal) [103].
C'est là une question qui n'a pas échappé à Price : "Une répartition statistique d'après la loi de l'inverse du carré ou une probabilité cumulative suivant la loi en 1/n n'a rien à voir avec les distributions normales de Gauss ou de Poisson, ni avec aucune autre des courbes exprimant des mesures linéaires d'événements au hasard". En rapprochant la loi de Lotka du modèle de la loi de Pareto, Price se demande le pourquoi d'une telle loi empirique, "pourquoi est-elle si différente des lois régissant habituellement les erreurs (Gauss), les coups de pied de chevaux (Poisson) et autres distributions probabilistes?", et à son avis "la raison tient au simple fait que le nombre de publications n'est pas une mesure linéairement additive de productivité au sens requis dans les distributions gaussiennes" [104].
A partir de la formulation de la loi de Lotka comme l'inverse du
carré, -- le nombre d'individus produisant n articles est
proportionnel à 1/n2 , -- Price propose sa propre
loi de la racine carrée (ou loi dite de Price) [105] : le nombre d'auteurs les plus productifs
est donné par la racine carré du nombre total d'auteurs,
, donne le nombre d'auteurs les plus productifs, ceux qui sont
responsables de la moitié environ d'articles scientifiques dans un
domaine. "Voilà une méthode pour départager les gros des
petits contributeurs. Le nombre de gros producteurs semble être du
même ordre de grandeur que la racine carrée du nombre total
d'auteurs". Ainsi, selon Price, "le nombre total d'individus grandit comme le
carré du nombre d'individus éminents" [106].
On a constaté que la loi de la racine carrée n'est pas conforme avec une formulation probabiliste, ce que Price lui-même a reconnu [107] et, deuxièmement, qu'elle s'ajuste très rarement ou presque jamais aux données empiriques.
Malgré leurs efforts pour donner à la loi de Price une formulation mathématique rigoureuse, Glänzel et Schubert [108] ont dû reconnaître que dans toutes les applications (compris leurs propres tests) les distributions observées ne suivent pas la répartition que la loi de la racine carrée de Price prévoit. Dans les populations de scientifiques étudiées, même les auteurs plus productifs ne le sont pas assez comme pour remplir l'exigence de la conjecture de Price [109]. Selon eux, le fait de trouver un accord tolérable représente une exception et non pas la règle.
Nicholls arrive à la même conclusion : la loi de Price n'est pas conforme aux données empiriques concernant la productivité des auteurs scientifiques [110]. De plus, il souligne que le modèle de l'inverse du carré de Lotka d'où Price a dérivé sa loi de la racine carrée, n'est pas invariant, car en modifiant la valeur des paramètres, on obtient des changements dans les distributions, concernant la taille et la contribution du sous-ensemble des auteurs les plus prolifiques. Comme il observe, "l'inégalité n'est pas un phénomène statique, il varie systématiquement d'après les caractéristiques de la population analysée" [111]. Enfin, le modèle de Lotka implique non pas une courbe mais une famille de courbes hyperboliques toutes indiquant une profonde inégalité selon la dispersion ou la concentration des publications par auteur [112].
Price a proposé sa loi de la racine carrée comme un outil
pour partager, c'est-à-dire, pour tracer une ligne de séparation
(cut off) entre les auteurs de productivité élevée
et la masse beaucoup plus importante d'auteurs de faible productivité.
Le nombre de ces derniers pouvait être calculé comme le
carré du nombre d'auteurs productifs. Mais cet outil de la racine
carrée,
, est comme on vient de le voir sujet
à caution, et il s'avère être simplement une sorte de
règle empirique approchée (a rule of thumb), dont
l'utilité empirique est de nous permettre d'estimer un ordre de grandeur
approximatif.
Les travaux abondent en bibliométrie dans le sens que nous venons de voir au sujet de la loi de Price, je veux dire par là, cherchant à établir d'un côté l'exactitude statistique des lois bibliométriques (Bradford, Lotka, Zipf), et de l'autre, leur conformité avec les données empiriques. Je crois que l'on peut s'interroger sur l'apport de ce type de démarche que Brookes qualifie de "cul-de-sac analytique" [113].
De cette discussion, il me semble important de retenir les points suivants : premièrement, le caractère approché de toutes ces lois empiriques et, deuxièmement, l'extrême inégalité qui caractérise la productivité des auteurs d'articles scientifiques (ou leur contribution). En général, un nombre plus ou moins réduit d'auteurs (concentration) apparaît comme responsable d'un nombre élevé d'articles scientifiques dans un domaine déterminé, étant toujours assez nombreux les petits auteurs (ceux dont la production est de deux articles ou d'un seul). Le fait encore plus notable est qu'on trouve cette même distribution hyperbolique dans les relations périodiques-articles (loi de Bradford) et mots-occurrence (loi de Zipf-Mandelbrot), individus-revenus (loi de Pareto) [114].
En effet, la forme des distributions que l'on observe dans le domaine de la scientométrie ou de la bibliométrie et mise en évidence par les lois empiriques de Bradford, Lotka, Zipf (et Pareto en économie), exprime toujours un état de concentration forte d'un côté et d'une large dispersion de l'autre, c'est-à-dire une asymétrie (skewness en anglais). Elles décrivent toutes une distribution profondément asymétrique comme étant une propriété essentielle du champ social en général et du champ scientifique en particulier (Bradford, Lotka, Price).
Afin d'expliquer ce phénomène, Price propose la distribution des avantages cumulés (DAC) comme la théorie générale et unifiée des lois empiriques de la bibliométrie [115].
Que le succès engendre encore plus de succès (ou la richesse réelle ou symbolique plus de richesse réelle ou symbolique) est un phénomène social et culturel que l'on connaît en sociologie d'après Merton comme "l'effet Saint Mathieu" [116].
Alors ce processus apparaît lui aussi agissant dans les lois bibliométriques [117]. Ainsi, les distributions hyperboliques qui caractérisent les lois bibliométriques seraient l'expression d'un processus d'avantages cumulés que des sociologues (de l'école dite fonctionnaliste) ont identifié comme le principe sous-jacent de la stratification sociale [118]. A partir de cette référence, l'intention de Price a été de fonder ces lois sociales (Bradford, Lotka, Pareto, Zipf) sur une théorie probabiliste générale, ce qu'il propose d'appeler justement "distribution des avantages cumulés" (DAC), s'inspirant comme il le rappelle lui-même des travaux sur la stratification sociale de la communauté scientifique américaine de J. Cole et S. Cole en particulier, mais aussi et surtout de Merton.
Le schéma de l'urne, un outil bien connu dans le calcul des probabilités, permet à Price d'énoncer un modèle stochastique mais qu'il modifie dans le sens que le succès, c'est-à-dire la réalisation de l'événement A, en l'occurrence une citation ou la publication d'un article scientifique, augmente les chances de succès. Mais l'échec, c'est-à-dire la réalisation de l'événement contraire à A ; en d'autres termes, ne pas publier un article ou ne pas être cité, n'a aucune conséquence sur les probabilités ; en somme l'échec est considéré un non-événement [119]. C'est pourquoi ce modèle se distingue de la distribution binomiale négative. Price le décrit comme un single-edge Matthew Effect : l'échec ou le manque de succès (étant un non-événement) n'est pas puni par un accroissement des probabilités d'insuccès.
Dans sa formule de la distribution d'avantages cumulés, Price utilise la fonction Beta (ß) que Simon avait, en 1955, employé pour expliquer les distributions de type hyperbolique [120], d'où l'équation suivante, si f(n) est la fraction des individus d'une population N ayant écrit n articles, alors :
f(n) = (m + 1) ß (n, m + 2)
où n = 1, 2... est le nombre d'articles ou de succès, m > 0 est le seul paramètre de f(n), et ß est la fonction Beta qui est le nom d'une intégrale ayant deux paramètres (a,b), et connue aussi comme la première intégrale d'Euler [121]. Price considère que son modèle DAC est absolument général, dans ce sens que les lois empiriques de Bradford (pour l'utilisation des périodiques scientifiques), de Lotka (pour la production d'articles scientifiques), de Zipf (pour la fréquence des mots), de Pareto (pour la distribution de revenus) sont des cas particuliers de ce modèle [122]. Supposons f(n) proportionnelle à n-a, étant a > 0, ainsi si n augmente, f(n) décroît, alors nous trouvons une distribution de ce type : d'un côté, une quantité importante d'auteurs publiant chacun un seul article, et de l'autre suivant une série décroisante, un nombre limité d'auteurs publiant chacun plusieurs articles [123].
Il importe de souligner la théorie sociale du modèle de la distribution des avantages cumulés (DAC). D'une part, le marginalisme économique, c'est-à-dire une économie de l'utilité marginale qui produit, selon Price, l'élitisme dans des domaines aussi divers que les collections de revues, l'emploi de vocabulaires, et la formation de petits groups sociaux à succès [124]. D'autre part, Price s'est inspiré de la théorie sociologique selon laquelle la stratification sociale dans les sciences est une conséquence des avantages cumulés [125].
A cela, vient s'ajouter une vision galtonienne. Price tend à faire reposer le type hyperbolique de répartition statistique, comme le note très justement Courtial, "sur une inégalité naturelle des ressources intellectuelles de chacun", de manière à ce que "la production scientifique naît d'une répartition inégale, gaussienne de l'intelligence" [126]. Ce qui représente une thèse cognitive forte et qui conduit sur le plan sociologique à une théorie élitiste de la science.
La notion de collège invisible fait également partie de la doctrine scientométrique de Price [127]. Elle est par ailleurs conforme avec son hypothèse de la distribution inégale ou des avantages cumulés précédemment analysée, et de laquelle il résulte que la communauté scientifique est au moins divisée en deux parties : au sommet, les auteurs les plus prolifiques et en même temps les plus cités, et au niveau inférieur la masse de chercheurs. Price adopte le terme historique de "collège invisible" pour signifier ces groupes d'élite qui se constitueraient au sommet de la communauté scientifique et autour d'un front de recherche.
En premier lieu, la formation des collèges invisibles répondrait au problème de la communication scientifique, "c'est une manière de résoudre les crises de communication en réduisant un groupe large à un groupe plus restreint, prévu de la taille maximale compatible avec des relations personnelles" [128]. D'autre part, les collèges invisibles représentent, selon Price, une manière de résoudre également le problème de l'organisation du travail scientifique à l'époque de la big science. C'est un mode d'organisation des élites scientifiques autour d'un front de recherche (et en général de la recherche la plus avancée). Les collèges invisibles sont aussi une manière d'articuler les élites et la masse de scientifiques de base, les collaborateurs, ou comme Price les appelle d'un point de vue bibliométrique, la "catégorie d'auteurs partiels". Un indice de ce phénomène serait à déceler dans la tendance à publier en tant que groupe ou à plusieurs auteurs [129].
C'est d'ailleurs un des sujets de l'enquête qu'il publie en 1966, sous le titre de Collaboration in an Invisible College, où il décrit un collège invisible comme un groupe restreint, formé par des membres de nationalités différentes et fondé sur des relations interpersonnelles (et non nécessairement institutionnelles), qui assure un circuit d'échanges efficaces. Price suggère aussi que, s'agissant de la réunion de chercheurs d'importance dans un domaine particulier ou spécialité, les membres d'un collège invisible représentent "un groupe de pouvoir" (a power group), car il se peut qu'ils contrôlent réellement aux niveaux local et national, la gestion des fonds de recherche, mais aussi les laboratoires, les ressources symboliques du prestige, et parfois le sort des nouvelles idées scientifiques ainsi que les décisions concernant les stratégies de recherche [130].
Les dimensions des collèges invisibles sont données par
, c'est-à-dire par la racine carrée de la population
totale (N) de scientifiques travaillant dans un front de recherche [131].
On voit bien comment le modèle statistique de la science de Price apparaît donc lié à une sociologie des collèges invisibles, mais aussi comme nous l'avons vu dans la section précédente à une sociologie des avantages cumulés, dont Price s'est inspiré pour sa théorie générale de la bibliométrie.
Au total, le modèle statistique de la science de Price présente deux parties, l'une concerne la croissance scientifique et l'autre le type de distribution caractérisant la science en tant que phénomène social.
La première est une approche dynamique sur des séries temporelles, d'abord à croissance exponentielle, puis à croissance saturée aboutissant à des courbes logistiques standards à propos de la croissance ou du développement de la science. Cette partie de son modèle scientométrique constitue, à l'égard des théories philosophiques, historiques et sociologiques, une théorie quantitative du développement scientifique. Malheureusement, nous trouvons peu des travaux en scientométrie contribuant au développement critique des hypothèses statistiques sur la croissance (exponentielle, linéaire et logistique) des sciences. Toutefois, nous disposons d'un travail exemplaire, datant déjà quelque peu, et réalisé par Jean Tague et ses collaborateurs : "The law of exponential growth evidence, implications and forecasts" (1981) [132], où l'on trouve une révision critique du modèle de la croissance exponentielle de Price.
A propos de l'étude bibliométrique des publications, il convient de poser la question de ce que l'on mesure effectivement lorsqu'on parle en termes statistiques de croissance ou de productivité scientifiques : documents ou connaissances ? Autrement dit, quel est le rapport entre la publication de documents et le développement des connaissances? Que peut-on dire des rapports entre publications scientifiques et développement des connaissances ? Du point de vue d'une approche cognitive, il convient de distinguer entre le développement des connaissances et le développement de la littérature ou du nombre de publications.
La seconde partie du modèle statistique de Price est une approche de la distribution que l'on observe dans la production scientifique. Elle est imbriquée avec le problème du type hyperbolique de distribution signifié par les lois bibliométriques classiques, que Price considère comme des cas particuliers de son modèle général DAC. Ce domaine est sans aucun doute l'objet de la plus grande partie des travaux bibliométriques, car il constitue un sujet statistique central de la bibliométrie traditionnelle en sciences de l'information et que Price a introduit en scientométrie.
Je reviendrai sur la distinction entre documents et connaissances dans l'approche scientométrique, au moment de conclure mon analyse du modèle bibliométrique de Price, afin de souligner mon intérêt pour une scientométrie cognitive (et non pas purement bibliométrique).
Encore deux remarques pour conclure.
Un fait qui me semble absolument important réside dans le fait que Price a toujours cherché à insérer son approche statistique dans un cadre historique et sociologique (histoire et sociologie des sciences d'inspiration mertonienne). En conséquence, il y a dans sa conception de la "science de la science" une composante historique et sociologique significative. D'autre part, vis-à-vis de l'excès mathématique que l'on observe dans la bibliométrie, et vis-à-vis de la recherche sans fin "à accorder des courbes statistiques aux données empiriques", Price fait preuve d'un bon sens de physicien comme le montrent ses règles méthodologiques, où il ne s'agit pas de développer un formalisme mathématique à propos de lois bibliométriques, mais de les appliquer "sans excès mathématique" et d'une manière féconde et créative dans l'analyse du développement scientifique et de sa structure (distribution).
L'alternative la plus intéressante à son modèle DAC, toujours sur la base du théorème "success breeds success", est à mon avis le modèle que Brookes a formulé à partir de la loi de Bradford en particulier [133]. Cependant, je pense que le modèle fractal que Mandelbrot a formulé à partir des lois de Pareto et de Zipf offre une possibilité encore plus féconde quant à exprimer la nature différentielle ou en branchement du développement de la connaissance scientifique [134].
[Introduction] [Partie 1 : Un modèle statistique de la science] [Partie 2 : un modèle bibliométrique de la science]
© "Les sciences de l'information : bibliométrie, scientométrie, infométrie". In Solaris, nº 2, Presses Universitaires de Rennes, 1995