Revue SOLARIS
Décembre 2000 / Janvier 2001
ISSN : 1265-4876
|
 |
Du
visuel en informatique
Marcin
Sobieszczanski
Laboratoire MediaTec
 |
Résumé
À quel point le support, c'est-à-dire l'inscription mais
aussi la dynamique de la " lecture ", exerce-t-il un rôle
prédicatif par rapport aux contenus qu'il prend en charge dans le
processus de publicité des comportements esthétiques ? Voici la
question relancée avec insistance dans le débat et les propos
circulaires autour de la question des arts numériques. Les
caractéristiques du nouveau vecteur, logique impérative,
algèbre bivalente, langage, flux électronique, affectent les arts
et en stimulent l'apparition de nouveaux. Mais alors cette incidence s'effectue
dans le domaine du sens et il nous faut, du coup, relancer l'enquête,
d'abord sur le sens des techniques traditionnelles concernées par la
mutation, pour ensuite saisir la compatibilité de " format "
du corpus des arts avec celui du numérique comme media et comme art
inédit.
Quelques prémisses concernant les arts visuels sont
données dans cet article, où l'hypothèse de la charge
cognitive de l'art est reprise aux textes antérieurs et traitée
à la lumière des faits nouveaux. Une critique du
numérique, ou bref une critique numérique, fait apparaître
la redoutable complexité régnant sur le terrain. Depuis la
simulation des techniques traditionnelles, jusqu'aux implications
éthiques de l'iconosphère bio-symbolique devenue réel par
le truchement de l'exhibition, en passant par l'habillage
phénoménal des idéalités du schème sensible,
réalisé par l'image de synthèse -- on est loin d'y voir les
solutions théoriques simples proposées par l'idéologie
logicielle et le faussement naïf binarisme confessionnel.
Mots-clés :lecture, esthétique,
arts numériques, "web art", charge cognitive.
Abstract
To what extent does the medium, that is to say inscription way and also
the dynamics of " reading ", play a significative role to
regards the context it takes on in the process of advertising aesthetic
behaviours ? Here is the question raised repeatealy in the debate and
statements about the theme of digital arts.
The characteristics of this new
vector, imperative logic, bivalent algebra, langage, electronic flux, affect
the arts and stimulate the emergency of new ones. But this influence occurs in
the area of meaning and therefore we have to start investigating again first
into the meaning of traditional techniques affected by the mutation so as to
undestand the compatibility of the format of existing arts is with that of
digital art as a medium and as an original form of art.
A few assomptions
concerning visual arts will be found in this article, where hypothesis of the
cognitive impact of art is taken from previous texts and dealt with the light
of new facts. A criticism of digital arts reveals the tremendous complexity
prevailing in this domain. From the simulation of traditional techniques to the
ethical consequences of a bio-symbolical " iconosphère " made
real thanks to exhibition, crossing the phenomenal dressing of idealities of
the sensitive structure, we are far from reading there the simple theoretical
solutions suggested by the software ideology and the supposedly naive
denominational binarism.
Key words : reading, digital arts, web art, aesthetics, cognitive impact
|
1.
Introduction
Une grande partie des écrits sur l'art et les " nouvelles
technologies " tend à l'établissement d'une figure
intellectuelle du devancement du paysage social par le casus
technicus du numérique. L'existence d'une culture d'usinage
inédite, celle qui est en train de se répandre sur tous les
domaines de la vie de l'humain et sur l'ensemble de sa niche
écologique désormais planétaire, est une impulsion forte
pour penser l'universalité historique dudit devancement. Connaissant les
bouleversements que l'informatisation a provoqués dans la plupart des
domaines, on se pose la question suivante : comment les
artistes vont-ils intégrer cette nouvelle donne ? Vont-ils se
ranger docilement comme tous les corps de métiers qui passent du manuel
et du sériel à l'automatique et au simulé, vont-ils
rejeter le nouvel outil ou essayer de le détourner, ou bien
plutôt vont-ils y trouver une nouvelle et prometteuse voie
esthétique ? Il y a, dans la littérature actuelle, plus de
travaux d'extrapolation que d'analyse. Le schéma intellectuel de cette
attitude, que l'on pourrait qualifier d'expectative, est fondé
tantôt sur l'inconnue de la nature de la perception qu'ont les artistes
du dispositif technologique récent, et tantôt sur l'assurance de
la survivance, chez ces derniers, des réflexes avant-gardistes. La
sensibilité idéologique, la perspicacité sociale, la
diligence technique des artistes n'ayant jamais été remises en
cause, la partie s'annonce donc bien intéressante.
Dans la présente étude, on pose la question à l'inverse. Ce qui nous intéresse,
est de savoir, pour reprendre les considérations occasionnées par la leçon simmelienne,
comment " [...] s'élabore le 'renversement' de la perception, l'individuation
du vécu dans le processus de son expression par l'action d'une technique. "
[1]. Et ce n'est pas de la
perception de l'ordinateur dont il s'agit, mais de celle du réel où, éventuellement,
l'on dénombre l'ordinateur lui-même. Le raccourci rhétorique que nous pratiquons
consiste alors à assimiler l'action perceptive exercée par le truchement du
monde des machines, à l'action des techniques monstratives de l'art qui ciblent
les vécus subjectifs, internes et externes, de l'homme. Les deux transcendances
sont mises côte à côte, celle du réel et celle des vécus du réel, ou bien plutôt,
pour voir la chose dans une perspective successorale, nous prêtons aux vécus
perceptifs, quitte à les admettre comme subjectifs, le statut du monde objectif.
Les deux " cognitivismes ", machinique et esthétique, sont interrogés
ici parallèlement et à titre d'hypothèses. Voici notre schéma qui débouchera
finalement sur la perspective pratique où on pourra enquêter pour ensuite répondre,
à quelle vertu de l'ordinateur, ceux des artistes qui thématisent la perception
ont-ils recours ? Notre horizon se situe à la confluence du sens des machines
qui sont outils de connaissance et du sens des techniques monstratives qui sont
opérateurs cognitifs du sujet déployé sur l'étendue et sur la profondeur du
réel. L'ordinateur, ici, n'est pas l'élément déclencheur mais le terrain technique
d'exploration et de réajustement des procédures mobilisées par l'acte de constitution
de sens, en l'occurrence du sens esthétique.
C'est uniquement dans cette perspective que l'on parlera, chez les artistes, de
l'ordinateur et de sa culture. Cette dernière nécessite une
distinction. On y remarque couramment deux moments. Une connaissance
" profonde " assimilée à la capacité d'exercer
la programmation, cette dernière étant considérée
comme l'essence même de l'informatique, et une connaissance
" superficielle " liée à l'usage des langages
intermédiaires des interfaces spécialisées. On a tendance
à penser qu'avec le développement de l'informatique
" conviviale ", les générations qui naissent dans le
milieu technique contemporain n'auront à faire qu'avec la culture
logicielle, au détriment des compétences qui sont en passe de se
cantonner à un groupe restreint de professionnels. Or, cette sorte de
nostalgie de l'informatique pionnière dissimule une autre
préoccupation, que l'on explicite rarement, celle de l'informatique
appliquée aux différentes techniques traditionnelles ou
récemment inventées. Certes, les deux versants de l'informatique,
logico-algébrique et celui de l'applicabilité, peuvent converger
dans le courant d'un projet intellectuel global, mais uniquement à
condition du succès, comme nous allons l'affirmer plus loin, de la
mathématisation universelle du réel, et ceci encore à la
condition forte que cette mathématisation soit opérée dans
le cadre des algèbres compatibles avec celles qui président
à l'architecture et à la dynamique de l'outil informatique.
Pour parler de l'art numérique il faut, précisément,
pouvoir parler de l'ordinateur aux prises avec des domaines d'application.
Cette réalité hybride de l'outil attelé au réel
technicisé, chaque fois spécifique, désigne la
façon dont l'ordinateur, dans un cas donné, organise la
médiation entre l'homme et son milieu. Le défi d'un art qui prend
son appui dans un domaine technique consiste en l'appropriation de certains
moyens et procédures. Dans le cas de l'informatique, on se tient en face
d'un domaine aux multiples facettes. Il est donc nécessaire de donner
à chaque type d'application sa définition propre, sans quoi on
assiste, chez nombre d'artistes, au spectacle d'une conscience informatique
réduite à un mythe du " numérique "
considéré alors fort naïvement comme formalisme universel.
L'idéologie du binarisme primitif et l'usage non critique des
fonctionnalités commerciales sont les deux extrêmes de la
même attitude.
Ordinateur
Avant la naissance du mythe du binarisme, l'ordinateur est avant tout un engin
de maîtrise utilitaire d'un système déterministe. On entend
par là, d'ordinaire, la conformité de son fonctionnement à
un modèle logique. Mais c'est également et en même temps un
système technologique à dynamique, c'est-à-dire
intégrant un flux physique en déplacement. Il s'avère,
avec la miniaturisation des composants électroniques, que la dynamique
physique (le lancement et la conduction d'électrons) influe sur le
déterminisme des comportements du flux. Dans l'architecture
fonctionnelle des ordinateurs modernes, la prévisibilité
s'évalue donc statistiquement. Si la machine est destinée
à agir dans le cadre d'un système logique impératif, les
erreurs ne doivent pas dépasser un certain taux, cette contrainte
équivalant, pour les ingénieurs, à la détermination
positionnelle des états d'aboutissement des actions. Si, en revanche,
c'est un système logique de solutions multiples et équivalentes
qui est visé, l'imprévisibilité technique est
considérée comme solidaire, dans certaines marges, de la
compétition des résultats obtenus par le fonctionnement de
l'ordinateur. Le déterminisme technique, avec ses différents
niveaux de cliquets matériels ne peut pas, à lui seul, induire
sur le fonctionnement de l'appareil une quelconque compétence
utilitaire. Si, par exemple, un élément dynamique
(électron, photon, etc.) partant d'un point initial 0 rencontre trois
chemins conductibles, A, B, C, dont un seul est actuellement ouvert (suite aux
aboutissements des états précédents du système),
par exemple B, le résultat du fonctionnement de la machine, à
cette étape, s'exprimera par le parcours 0B. L'interprétation
" locale " [2]
de cet état ne peut qu'ignorer l'existence de A et de C. Or, on peut
commencer à parler d'ordinateur uniquement à partir du moment
où le comportement de l'élément dynamique sera
significatif en termes de dichotomie logique présence/absence. Mais
cette binarité primitive ne vaut pas sans receler l'embryon situationnel
et structural d'un langage complexe à portée globale. Autrement
dit, " présence ici " doit être " absence partout
ailleurs ", et " absence ici " doit être
" présence quelque part ailleurs ". Dans notre exemple :
présence en B est absence en A et C ; absence en A est présence
soit en B soit en C ; absence en C est présence soit en B soit en A. La
superposition de chaque nouveau niveau de signification, et la programmation
selon un ou plusieurs langages, ont pour conséquence
l'éloignement progressif de l'ordinateur de sa réalité
d'horloge de lancement physiquement déterministe du flux
électronique. Il passe alors par un système logique, plus ou
moins déterministe, et des terminaisons de commandes de
différents objets lui sont allouées (affectations).
L'ordinateur devient alors un programme qui s'auto-exécute, grâce
à son dispositif technique, et qui pilote, grâce à la
mémoire induite (compétence), la succession et la
disposition des différents objets, selon le type d'application pour
lequel il est programmé. À ce niveau, afficher les objets
graphiques agencés en caractères d'écriture ou en images
sur un écran, ou commander la chaîne d'une usine, sont des
fonctions équivalentes [3]. Dans toutes ces
applications, on observe un reversement de la machine-chose devenue machine
logique vers les entités des choses et de leurs fonctionnements. Le
déterminisme original de l'ordinateur, relativisé par l'incidence
des limitations techniques et l'usage des logiques non-impératives,
s'affronte à présent avec les contraintes matérielles et
fonctionnelles du domaine de son application. L'ajustement réciproque de
la dynamique de l'ordinateur et du domaine d'application relativise, à
son tour, le déterminisme du mécanisme logique et conditionne la
réussite de l'application. Les questions relatives à
l'opérateur humain, qui se greffe sur l'ensemble constitué par la
machine et son domaine d'application, complètent les problèmes de
l'informatisation utilitaire. Tout se passe, désormais, comme si les
exigences techniques d'un " métier " et de son ergonomie
jouaient le rôle d'un nouveau hardware par rapport au
software du programme, pour atteindre finalement le hardware
original et confronter leur dynamique matérielle propre (calcul de
fonctions, traitement d'image, décision économique, etc.) avec la
dynamique offerte par l'automatisme fonctionnel de la machine. Dans cette
perspective, l'ordinateur apparaît comme outil où la pensée
se prolonge véritablement par la cinétique physique
maîtrisée. Dans l'outil informatique, le domaine d'application et
le fonctionnement technique de la machine se font miroir via le ou les
programmes. Les deux richesses sémantiques, celles d'un système
physique et celle d'un système praxique de gestes s'unissent par une
syntaxe qui devient alors algorithme. Mais c'est à cette
étape que l'on observe une exfoliation, par des systèmes de
spoules, de différents niveaux de programmes. Les programmes des
applications spécialisées (" professionnels ")
reconvertissent une grande partie de la force logique (des commandes) de la
machine, en une force calculatrice agissant dans une ou dans plusieurs
algèbres. C'est grâce à l'effectuation des
propriétés de ces algèbres, à partir des
entrées numériques initiales (paramétrage), que le travail
de la machine épouse un domaine d'application. La considération
de la compatibilité des dynamiques techniques est relayée alors
par la question de degré et de pertinence de la mathématisation
du domaine d'application [4]. Et si l'ordinateur
est devenu le symbole de la technoscience, c'est seulement en partie parce que,
pour la réussite de sa fabrication, il a fallu le développement
spectaculaire de l'électronique et de la programmation ;
technoscientifiques sont avant tout les applications concrètes où
la force de certaines mathématiques passe son épreuve praxique
(domaine et modélisation), ergonomique (capacités psychophysiques
de l'agent humain à manipuler l'outil), sociale (apprentissage de la
culture numérique) et économique (optimisation des coûts du
service automatisé). Lorsqu'une application de ce type connaît le
succès, on peut effectivement prétendre que les
mathématiques engagées ont réussi à
spécifier le contenu en information, à la fois du système
électronique et du système d'actions utilitaires. Les
ingénieurs et leurs détracteurs se disputent, actuellement,
l'extension du domaine où l'informatique peut légitimement porter
son nom au sens de la cybernétique.
Si on analyse la phénoménologie de l'outil informatique, il est
nécessaire de se référer chaque fois à l'ensemble
des questions soulevées par des applications spécifiques [5]. Si
l'ordinateur engagé dans une application doit être
considéré comme une technique, cette dernière ne peut
qu'être composite : dynamique électronique, logique,
algèbre, ergonomie [6], dynamique technique du domaine d'application.
Partant, si l'homme pense avec l'outil, il faut déterminer
à chaque fois, avec chaque type d'application, quelle
" pensée hybride résulte de l'association de la
pensée artificielle automatique et de la pensée
naturelle " [7].
L'outil
informatique et l'art
Il est donc nécessaire, dans un premier temps, de recenser les domaines
d'application qui ont servi de support pour les réalisations
artistiques. Ces domaines sont connus, mais il est rare d'avoir des uvres
faisant appel à une seule caractéristique technique de
l'informatique appliquée. Par exemple, les expériences de l'art
en réseau exploitaient les techniques numériques de transmission,
et les performances " surprenantes " de celle-ci constituent, le plus
souvent, la dominante des réalisations exposées. Le moment de
transmission joue le rôle de prédicat par rapport aux contenus et
c'est cette situation inhabituelle, ou plutôt, dans la communication
traditionnelle, passée sous le silence de l'habitude, qui fait la
spécificité numérique des expériences.
N'empêche, ce sont à chaque fois les matériaux issus
d'autres capacités de l'ordinateur, impliquant d'autres types
d'applications, qui deviennent les contenus de la transmission (texte,
traduction automatique, image, son retraité, etc.) [8]. Les uvres hybrides se présentant sous
l'enseigne de la vie artificielle [9]
offrent un cas particulièrement intéressant. Les programmes les
plus sophistiqués dans ce domaine recèlent plusieurs niveaux de
traitement. Le concept général vient des considérations de
la zoo-systémique, et la programmation recourt aux méthodes de
l'animation comportementale et génétique, avec l'incorporation
des automatismes internes d'interaction de reconnaissance de formes entre les
objets-agents [10]. Ici, le rôle prédicatif de l'unité du genre est rempli
par l'évidence oculaire des simulacres des processus évolutifs,
autrement invisibles [11]. D'autres
expériences sont enregistrées dans le domaine de la
création collective, aussi bien au niveau de préparatifs que de
production directe du " résultat progressif ". La commutation
des statuts de l'initiateur et du patient se trouve au centre de
l'épreuve. Encore une fois, ce moment unificateur pénètre
à différentes profondeurs les corps expressifs,
littéraires, musicaux, plastiques..., qui gardent intacte leur propre
importance. Enfin, vient un vaste champ de recherches sur la
représentation multi-sensorielle où on fournit aux
différents canaux perceptifs des stimuli artificiels (" la
réalité virtuelle "), avec multiples variantes et
combinaisons, comme les expériences sensorielles des objets
détectables à l'échelle non-physiologique, comme les
inversions des repères ou des perceptions de personnes
différentes [12]. La démarche parallèle, mais inverse, consiste à munir
l'œuvre elle-même d'une sensibilité qui sera orientée vers
la détection du manipulateur et du spectateur, et pourra induire sur
l'œuvre une réaction, par exemple sous forme d'un mouvement subi
par ses parties mobiles, ou d'une simulation de ce mouvement [13]. Les essais vont jusqu'à doter l'œuvre d'un semblant de
capacités à communiquer par le langage.
L'outil
informatique et l'image
Pour ce qui est de la composante visuelle des œuvres numériques, que
l'on retrouve dans divers dispositifs composites, les œuvres des
différentes catégories se regroupent, généralement,
en deux classes. Celles qui profitent des procédés de simulation
des résultats des techniques plastiques traditionnelles, et qui parlent
de l'image en général [14], et
celles dont la pensée pénètre au cur de l'image
spécifiquement numérique, et qui constituent donc l'apport propre
de la technique informatique à la connaissance artistique du visuel.
Dans ce deuxième cas, une discussion passionnante peut s'engager autour
de ce qu'Edmond Couchot appelle le statut de modèles
logico-formels des unités génétiques formelles de l'image.
La
simulation des arts plastiques traditionnels
Les interfaces accessibles sur le marché offrent, presque exclusivement,
des outils pouvant simuler la démarche des arts plastiques
traditionnels. On simule aussi bien le geste de peindre ou de dessiner, avec la
possibilité de manier un " stylo " sur les palettes
graphiques, que l'espace-support de l'œuvre plastique, sous forme d'affichage
sur l'écran, de réalité virtuelle oculaire ou de commande
des divers appareils comme l'appareil holographique, le traceur, la fraiseuse,
etc. Remarquons, qu'il y a une incertitude théorique quant au
résultat d'un tel procédé : l'œuvre
matérialisée et éventuellement sauvegardée sous
forme de code. La démonstration plastique vaut-elle ici
d'elle-même, ou reste-t-elle une démonstration/simulation de
démonstration ? Deux réponses sont possibles. L'outil
informatique a remplacé les fonctionnalités de l'outil
traditionnel. Il y a donc une continuité avec le travail plastique des
matériaux, mais les matériaux ne sont plus réels. Tous les
effets visuels : coloration, indice de réfraction, des rayons incidents,
texture et rugosité, sont le résultat d'une simulation de la
situation visuelle appliquée à l'espace des paramètres
d'excitation des luminophores de l'écran. La production artistique de ce
type peut a priori reproduire/simuler [15] les
mêmes moments de la démonstration de la pensée visuelle que
les techniques précédentes. Mais, si on remarque que les
matériaux de simulation offrent de nouvelles possibilités de
traitement plastique, la pensée visuelle s'en trouve
singulièrement changée. La possibilité d'une nouvelle
configuration de l'art visuel s'ouvre alors avec la production des algorithmes
qui accroissent la panoplie des moyens plastiques. C'est par l'extension
rétroactive de cette idée que certains artistes arrivent à
se poser la question de la nature de l'image numérique, en
espérant y trouver une nouvelle façon de résoudre la
question de l'image en général.
On distingue, en général, trois niveaux de pertinence du
traitement numérique de l'iconosphère classique. Le traitement
surfacique, la retouche, où on agit sur l'image considérée
comme l'écran de projection d'une réalité 3D, le
traitement du rendement de 3D où on agit sur les perspectives, et le
traitement lumineux où on agit sur la lumière et ses interactions
avec l'objet, l'observateur et l'auteur de l'image et le spectateur de l'image.
Au niveau logiciel, ces actions constituent un ensemble d'algorithmes iconiques
et visuels qui se substituent aux outils picturaux traditionnels. Couchot parle
ici d'image qui devient langage. Les outils logiciels sont des langages
logico-algébriques et, en effet, un infographiste averti pense les
étapes de ses résultats en termes de fonctions
mathématiques. Mais ces procédures en tant qu'application de
l'informatique à la réalité visuelle n'ont aucune chance
de devenir l'équivalent du langage naturel, celui du
" miracle " de la possibilité de description du monde, tant
que leur pertinence ne sera pas prouvée au niveau perceptif. Or, la
logique de la plupart des dispositifs accessibles précisément
comme outils, donc pouvant supplanter les outils traditionnels, n'est pas celle
du miracle de la vision mais celle du miracle de la production. Il faudrait
donc des inventions logicielles originales ou les détournements
critiques des produits existants, pour qu'on puisse judicieusement refaire le
geste de Couchot et passer du langage en tant qu'actuel encodage informatique
des algèbres analytiques, au langage en tant qu'analytique de l'image
ayant trait à la vision.
L'apport
spécifique du numérique à la question de l'image
- La restitution de l'image captée
- Le traitement numérique de l'image analogique
- L'image de synthèse et la perception de son affichage
Avec l'apparition de l'affichage et plus particulièrement de l'affichage
chromatique, également avec l'invention de l'interface graphique, on
commence à ne plus distinguer l'ordinateur de sa fonction
" image ". Le vecteur de l'information iconique jouant un rôle
de plus en plus important dans la communication des sociétés
occidentalisées de la seconde moitié du XXe siècle, on a
tendance à considérer l'ordinateur comme l'outil principal de
production, de gestion et de traitement de l'image. Son amélioration
technique est à la fois le résultat et le stimulus de la tendance
au retour à l'iconicité, comme, d'ailleurs, aux autres formes de
communication sacrifiées jadis par la culture du langage écrit.
Les moments les plus spectaculaires de cette argumentation sont sans doute la
réhabilitation de la teneur épistémologique de
l'imagé et de l'intuitif, la " naturalisation " de la
technicité de l'outil et enfin la valorisation de l'imagerie
numérique où l'image acquiert le statut du langage formel [16].
Pour ce qui est de l'art, l'analogie de l'art et de la communication est
à prendre avec des précautions. Si le problème de
" support " dans l'art est celui de la recherche des moments
synnomiques de différentes techniques, c'est-à-dire des moments
qui véhiculent les équivalences cognitives organisant les
rapports perceptifs du sujet et de l'objet [17], le succès de l'informatique de l'image dans le domaine de la
communication n'est pas à même de susciter un mouvement
parallèle du côté de l'esthétique. La fortune de la
photographie est à cet égard fort significative. L'encodage des
impressions lumineuses dans les gammes chimiques, qui représentent
certaines " idées " industrielles des valeurs chromatiques, ne
pouvant pas être considéré au même niveau que le
dépôt noircissant des intensités lumineuses des radiations
visibles, les démarches artistiques dans la photographie chromatique
restent très limitées, et ceci malgré le
raz-de-marée de la photographie en couleur, publicitaire et
journalistique [18]. Le corps visuel de la photographie N/B est paramétré en
quelques grandeurs physiques représentant par la granulation
statistiquement homogène des cristaux argentés et par la
régularité du processus de leur noircissement, la
cohérence optique et temporelle de l'interaction matière
macroscopique/lumière [19]. La photographie
en couleur ne participe pas des mêmes possibilités. Le spectre
chromatique y est encodé dans un complexe d'entités chimiques
distinctes les unes des autres offrant un rendement physique discret. De plus,
elle présente les phénomènes de balance des
caractéristiques qui sont liées par des réseaux de
corrélations arbitrairement choisies par les différents
fabriquants.
La
restitution de l'image captée
Comparons le statut de l'image dans la vision naturelle et dans l'ordinateur
équipé d'un dispositif visuel.
L'image rétinienne est image à deux titres. C'est, d'abord, un
amas de points lumineux sur les cellules tapissant l'intérieur de
l'œil. Quelqu'un, tel un ophtalmologiste, pourrait le voir avec un outil
convenable, l'analyser ou éventuellement y reconnaître, mise
à l'envers, une image d'un fragment de réalité. Le
propriétaire de l'œil qui voit les objets de son champ visuel n'a
aucune conscience de cette image-là. Pour lui, " voir "
signifie autre chose que d'avoir des points lumineux sur la rétine. La
rétine prête son corps pour matérialiser une image
physique, comme le ferait n'importe quel écran, mais en tant qu'organe,
elle est, en quelque sorte, transparente ou diaphane, apte à
réagir avec la lumière dans l'amorce d'un processus de
" conduction ". Voir, c'est pouvoir changer les stimuli lumineux
véhiculant l'information sur le monde, en impulsions chimiques et
bio-électriques, pour, ensuite, les analyser en unités de sens,
ce qui permettra, enfin, de distinguer, reconnaître culturellement et
éventuellement identifier (s'il s'agit d'une chose que l'on
connaît " personnellement ") les objets vus.
Les machines numériques conçues pour restituer, sur un moniteur,
ou à l'aide d'un autre outil de démonstration, l'image
captée par un dispositif de saisie, fonctionnent selon la logique de
l'image comme matérialisation. Le capteur est un lieu de
matérialisation de l'image que l'ingénieur construit comme espace
de prélèvement des données analogiques,
c'est-à-dire comme espace divisé en sous-espaces
équivalents pouvant recevoir des excitations ponctuelles, correspondant,
selon un certain degré de précision, aux informations locales sur
la fonction globale de la lumière (ou d'un autre médium),
caractéristique de la projection des objets extérieurs sur le
capteur. La pensée de la réalisation technique des capteurs
poursuit, en quelque sorte, l'idéal de la mathesis à
l'œuvre dans tous les dispositifs naturels de photosensibilité. Les
données analogiques sont, ensuite, reconverties et organisées en
une matrice algébrique, selon une convention algorithmique de
digitalisation et dans une résolution atteinte par le constructeur. Il
est important de remarquer que, dans les ordinateurs " à
image ", en dépit de la nature numérique de leur
" mémoire ", et malgré l'intention terminologique des
informaticiens, les conventions de discrétisation et de
résolution participent pleinement d'une logique
" analogique ". La quasi-totalité de l'industrie informatique
produit des ordinateurs qui, moyennant certains périphériques,
peuvent enregistrer numériquement les données analogiques en vue
de leur restitution, sous forme d'impression et sous forme d'affichage
électrochimique. Dans ce dernier cas, les transformées
algorithmiques des données analogiques sont conçues pour
restituer l'image captée selon une des méthodes de projection
lumineuse et avec le niveau d'exactitude qui se veut sensiblement le même
que celui de l'" analyse " [20]. Or, il est difficile de considérer la collecte d'informations par un
scanner comme une analyse. Le prélèvement de la donnée
spectrale d'un objet attaqué avec un balayage lumineux " ne peut
permettre que la recopie du réel à l'aide d'un
modèle d'éclairage photométrique ", dit Patrick
Callet [21].
L'homme qui voit un fragment de réalité, ne cherche guère
à reconstituer son image. L'homme " reconstruit " le monde, en
construisant son " image ". L'analyse cognitive, en vue d'un monde
" reconstruit ", se déroule dès le plus bas niveau, au
changement de la réaction rétinienne en réaction
ganglionnaire. Ce processus correspond, en apparence, à la
numérisation à partir de la réaction photosensible du
capteur dans un scanner. Mais la logique de la vision humaine est
différente. La numérisation vise à la conservation et
à la restitution de la fonction de lumière inscrite sur un espace
de projection. Cette dernière se déroule point par point et sans
aucune influence de voisinage qui ressemblerait aux interactions
observées dans les organes biologiques [22]. Elle passe par une phase d'encodage dans un
formalisme algébrique de la machine, et ensuite s'évacue par la
voie de l'impression ou de la projection lumineuse engageant, avec
différents degrés de précision technique, un processus
inverse de celui de la capture.
L'analyse qu'effectue l'organisme vivant, au lieu de restituer la fonction de
la distribution de la lumière par une opération de projection,
vise à la " comprendre ", c'est-à-dire à
l'analyser cognitivement et symboliquement. Et c'est en vue de cet objectif,
que toutes les activités, depuis le changement de l'impulsion chimique
en impulsion bioélectrique, par la conduction et le traitement cortical,
se déploient.
La fonction de la lumière sur un espace de projection n'a rien
d'immédiatement " imagé ". Elle est
" affreuse " [23], son image est une nébuleuse des points complexes dont le lissage et la
discrétisation nécessitent plusieurs types de traitement,
à plusieurs échelles. Pour que la vision puisse fonctionner, pour
que l'image se structure en un système de frontières et de plages
de texture éventuellement colorées, le sujet doit retrouver, dans
les résultats de ses traitements de bas niveau, l'information
morphologique qui, en vertu des lois de projection des singularités
géométriques [24], entretient des relations " causales " avec la morphologie
réelle des objets matériels éclairés.
En dernière instance, une grande partie du traitement est
réservée au cortex. Distinction, reconnaissance et identification
en sont les volets les plus évidents, mais s'y adjoint une foule
d'autres procédures, tombant sous diverses métaphores, physiques,
comme le champ d'attention, biologiques, comme les différentes
" prégnances " (objets tenant à distance, dans le
" respect ", objets de désir, d'attirance) ou psychologiques
(comme les affects, les dégoûts, les ambiances) allant jusqu'aux
objets culturels, avec leurs instances langagières catégorisantes
(nominalisantes), et leurs formations intellectuelles systématisantes.
Toutes ces procédures travaillent activement à la vision et leur
action peut être aisément métaphorisée par le
feed back exercé sous le mode d'une réelle
ingérence dans la vision du monde qui, intentionnellement,
équivaut à l'ingérence dans le monde lui-même (en
vertu de la thèse, considérant la donnée perceptive comme
la donnée originale de la conscience constituant la
réalité objective, la " même " pour tous [25]). Mais la donnée visuelle étant une donnée
spécifique, marquée par la provenance justement visuelle de son
information, elle se mélange avec les autres données originales
et spécifiques, l'intégration se faisant sur la base des
transformées verbales d'informations. Ceci convient pour la production
des contenus culturels de la conscience, des entités de
l'" expression ". Mais si on considère le fonctionnement de la
conscience éveillée passive, les données peuvent s'y
mélanger également sur le fond préverbal. Le langage
apparaît alors bien comme le médium mental d'intégration
orientée expression, mais qui renvoie ses résultats à une
sphère de " connaissances " qui le transcende. En tant que
tel, il est, lui aussi, une donnée originale de la conscience, à
titre autonome.
Dans les machines informatiques orientées " image ", point de
tout cela. L'ordinateur équipé d'un dispositif visuel de capture
et de restitution n'est pas un appareil de vision. Les fonctionnalités
analytiques participant de la logique du " voir " se retrouvent
uniquement dans la branche spécialisée de l'informatique
d'analyse d'image (analyse d'image à des fins utilitaires,
médicales, industrielles, etc. et analyse d'image dans la reconnaissance
artificielle des formes [26]), où la fonction d'affichage est secondaire, souvent achromatique,
l'essentiel étant dans la couche logicielle programmée en vue
d'une analyse morphologique de la fonction de la lumière
(prélevée par différents scanners micro et
macroscopiques). D'habitude, ce type de machines n'est pas à la
disposition des artistes.
Le dispositif capture-numérisation-affichage, dans le domaine de
l'image, n'est porteur d'aucune " solution " a priori. Il peut le
devenir, dans certains cas et moyennant quelques gestes critiques et
théoriques.
Le
traitement numérique de l'image analogique
L'intervention sur l'image numérisée anciennement analogique consiste en application
de procédures techniques de retouches holistes (addition, soustraction, réitération
partielle et complète, diffusion locale et globale, traitement par des groupes
de symétrie, de torsion, etc.), appliquées sur les portions planes (ou quasi-volumiques
-- par l'effet d'une projection conique) de l'image en construction ou en transformation.
Le résultat peut être trivial, soumis à l'appréciation selon les critères de la
culture de " style " infographique, ou fort intéressant, à condition
que sa logique ne s'inscrive pas sans une critique préalable dans la continuité
de celle, entièrement légitime, du constructeur de la machine. L'espoir des créateurs,
dans ce domaine, repose sur la construction de programmes de traitements complexes,
comme l'anamorphose, l'inversion de la perspective centrale, le renversement des
plans, l'effet de l'infini ou de la boucle, des multiples métamorphoses. Dans
l'image mue s'additionnent les simulations des effets d'interactions physiques
et biologiques, comme les contraintes de milieu (pesanteur, frottement, lumière),
les mutations de contact, les changements de comportement, les métamorphoses.
Le résultat esthétique commun à la plupart de ces démarches, consiste dans l'effet
de réel produit par les programmes icono-info-graphiques. La situation des artistes
engagés sur cette voie, et parmi eux des artistes de grande envergure, ressemble
à celle de la peinture figurative cherchant par divers procédés picturaux à échapper
à sa vocation mimético-stylistique.
L'image
de synthèse et la perception de son affichage
L'image de synthèse a fait naître un espoir théorique
inouï : la possibilité de concevoir l'image non comme une
simulation des images formées et perçues comme totalités
" pouvant être morcelées " (divisées en
" parties indépendantes "), mais comme production graphique
à partir des " parties dépendantes " [27] de l'image analysée en ses moments constitutifs. Ainsi les moments,
comme texture, couleur, structure géométrique, peuvent recevoir
leurs solutions algorithmiques, indépendantes les unes par rapports aux
autres. La manipulation " libre " des
" éléments " constitutifs de l'image permet ainsi
toutes sortes de démarches visant, soit à concevoir la
représentation visuelle des objets réels, ou de leurs
dérivés, à partir de prémisses scientifiques
formalisées, soit à feindre des représentations
sensorielles de phénomènes non observables et de processus dont
les modèles présentent une complexité qui leur interdit
d'être traités par la représentation mentale ancrée
dans les percepts sensibles [28]. Ainsi, pour ne citer que les exemples des auteurs dont on évoque, par
ailleurs, les contributions savantes et théoriques, Jean-François
Colonna visualise les ensembles de Mandelbrot et de Julia,
différents états de l'atome d'hydrogène ou l'attracteur de
Lorenz, utilisé en météorologie, tandis que Patrick
Callet réalise, avec ses étudiants, les rendus visuels
d'alliages inexistants (" minéralogie virtuelle ").
Cette " analytique " du visuel est présente déjà
dans les prescriptions techniques de la peinture figurative [29] et dans les programmes de la peinture
abstraite [30], mais elle est absente de toutes réalisations
concrètes qui, nécessairement, revêtent des
" matériaux " recelant des moments strictement
dépendants, comme couleur et étendue. Si on a tendance à
considérer l'image analogique comme une pure apparence lumineuse, il ne
faut pas oublier que, pour la construire, il a fallu, dans les
procédés picturaux, une simulation mentale où chaque
portion de l'image est représentée comme investie physiquement
d'un processus optique d'iconogénèse et, dans les
procédés mécaniques, une réelle interaction
physique du corps et de la lumière [31]. L'apparence lumineuse de l'image numérique, en revanche, peut
être interprétée comme le concret sensible d'un type
nouveau, car engendrée sans l'action d'une quelconque armature
matérielle. L'image de synthèse projetée sur
l'écran de l'ordinateur a son origine dans un algorithme censé
exprimer un moment de l'analytique des percepts, une connaissance
formalisée, une idéalité de sens de l'objet visuel
retraduit en code manipulant les commandes de l'excitation des luminophores.
Les réalisations " convaincantes ", supportant
l'épreuve du regard, confirment aussi bien la pertinence du concept
d'idéalité, que, par analogie avec la terminologie husserlienne,
nous appellerons noématique, que plaident en faveur de sa nature
logico-symbolique [32]. Cela peut être compris à la lumière de l'hypothèse
de l'origine husserlienne d'une des filiations des sciences cognitives, que
nous signalons, suite à Dreyfus et d'après
Petitot [33]. Si on peut parler d'une épistémologie de l'informatique
appliquée aux domaines sensoriels (image, son, tact), elle exploiterait
les ressources de la nature logico-empirique des algorithmes et suivrait
l'esprit du cognitivisme contemporain qui, sur le point du passage du
perçu morphologique vers l'objectif physique, est encore plus
équivoque que Husserl. Petitot formule sa critique
épistémologique dans ces termes : " [Le cognitivisme
contemporain] admet tout simplement un dualisme métaphysique. Il y a d'un
côté le sujet avec ses représentations et ses calculs
symboliques qui traitent de l'information pour produire de la manifestation
phénoménale, et puis, d'un autre côté, il y ala
physique qui fournit d'abord l'information externe et ensuite le substrat
matériel où s'implémentent les algorithmes cognitifs. Un
tel point de vue, très largement dominant, permet certes de progresser.
Mais il laisse ouvert un problème non résolu, celui du
dépassement des composantes psychologiques-cognitives et des composantes
noético-noématiques de l'ontologie qualitative vers des contenus
physiques. Comment faire la jonction entre l'ontologie qualitative et
l'objectivité physique ? " [34]. L'imagerie de synthèse semble ne se soucier guère de ce type de
questionnement. Sa vocation de création, son élan de
génération d'objets visuels, la dispense de toute philosophie des
sciences, puisque sa place est d'emblée parmi les faits. Elle se veut
à la fois le fait d'une technoscience et une émanation de
" l'âme créative ".
Dans sa version d'analyse et de construction de la réalité
" naturelle " et " imaginaire ", l'image de synthèse
se place au niveau élémentaire, mais elle arrive également
à intégrer l'expression de la perception des strates
supérieures du réel, comme la situation spatiale, les
interactions physiques et, enfin, les interactions biologiques. Dans ce dernier
cas, l'analogie avec le sens noématique paraît incertaine dans la
mesure où les programmeurs de la " vie artificielle " se
bornent à proposer les simulations numériques des processus
vitaux modélisés par la biologie contemporaine. Elle devient
intéressante dès qu'on est confronté à la
simulation perceptible, en l'occurrence visuelle, de ces modèles. Si la
simulation numérique porte bien son nom, " artificielle ", la
perception de ses résultats, de préférence dans le cadre
d'une situation ludique, nous met bien devant le problème,
" noématique ", de sens. Ce n'est pas dans l'adéquation
des modèles au réel biologique que consiste le
" vitalisme " de réalisations informatiques connues. Nul ne
prétend que doter les objets numériques des caractères
biologiques signifie les " animer " réellement [35], mais la réception qui leur est réservée par la
perception pose la question du sens qui les investit. C'est la raison pour
laquelle les expériences limitées et fragmentaires des
biologistes ont quitté les laboratoires en cherchant une plus ample
visualisation et en se soumettant ainsi au questionnement relevant d'un domaine
au croisement de l'esthétique et de la morale [36].
L'instance de la perception de l'affichage visuel dans les dispositifs
d'imagerie artificielle a tendance à s'émanciper. Non seulement
elle perd les attaches qui la lient avec l'analytique de
l'iconogénèse spontanée ou cultivée, dans les
pratiques de représentation des arts plastiques, mais encore elle
investit les domaines de la non-perception [37], pourvu qu'ils tombent sous une modélisation efficace. La
" visualisation " démontre ainsi la
prépondérance du cognitif, dans la constitution du réel,
et la force du symbolico-formel, dans sa construction. L'idéalisme
husserlien reconverti en différentes logiques formelles des langages
informatiques consomme ainsi son triomphe post-mortem. Il sera pourtant
réservé aux recherches empiriques, ce qui détermine sa
faiblesse à l'égard d'une épistémologie
principielle. En revanche, cette configuration théorique n'est pas sans
déplaire à certains artistes qui se voient ainsi invités
au jeu des tâtonnements où un protocole expérimental,
dynamisé par l'automatisme de la machine, peut facilement devenir un
programme esthétique de... l'avenir.
- 1
- Cf. Sobieszczanski, M., 2000, Eléments
d'esthétique cognitiviste, L'Harmattan, Paris, §
" Les modes synnomique et syndoxique de communauté de l'œuvre
d'art ".
- 2
- Si on s'autorise, par rapport à un système technique dynamique,
le terme signification, cette signification reste au niveau de l'agencement
dynamique de la matière et ne donne lieu à aucune
différentiation instrumentale. Le sens logico-mathématique d'un
tel système technique peut être celui de la " pure
multiplicité des objets " de Desanti* mais non celui de
Mannigfaltigkeit de Husserl**. Pour pouvoir définir un agencement
dynamique matériel en tant que matrice d'un langage utilitaire, il faut
reconvertir la fâcheuse et inexploitable richesse sémantique,
théoriquement infini, des états physiques, en pauvreté
sémantique des idéalités symboliques (de termes)
définies par une syntaxe, et seulement par une syntaxe. Les états
d'une machine qui fonctionne mais ne signifie pas en tant qu'instrument, nous
sont aussi indifférents que l'action du trou noir le plus proche de
notre galaxie (malgré la magnitude des processus qui s'y passent). Dans
notre exemple, avant le déclenchement du fonctionnement de la machine,
à une étape donnée, l'électron était en 0 et
n'était pas en B, ce que ne signifie nullement son absence en B. La
reconversion d'une non-existence, en un point matériel donné, en
une absence, est un processus non-objectif d'investissement symbolique,
engagé en vue de l'attribution d'une compétence utilitaire,
c'est-à-dire significative dans un système axiomatique où
la déductibilité vaut la vérité.
* Desanti, J.T., 1968, Les idéalités mathématiques,
Seuil, Paris, § 2.2.2.
** Husserl, E., 1957, (éd. orig. all. 1929), Logique formelle et
logique transcendantale, P.U.F., Paris, § 31.
- 3
- Un cas intéressant d'application constitue l'usage de l'ordinateur
comme machine mathématique. Les commandes sont alors les
propriétés des objets mathématiques, et la dynamique
technique de la machine, son run, le dispositif calculateur. La
puissance technique, reconvertie en puissance logique devient la puissance
calculatrice.
- 4
- Par exemple, dans le domaine de reconnaissance de formes des matériaux
la machine doit être capable de traiter les différents
paramètres métriques et topologiques des images 2D
digitalisées, pour en extraire des données morphologiques en
correspondance avec les propriétés des objets volumiques. Les
caractéristiques de l'automatisme et de l'architecture logicielle de
l'ordinateur se trouvent ainsi conjuguées avec la question de pertinence
(au sens utilitaire) de tel ou tel autre type d'analyse morphologique.
- 5
- Dans ce sens, l'appellation de l'ordinateur, " un nouvel outil
universel ", se réfère non à l'ordinateur
lui-même, mais soit au binarisme primitif d'une compétence
virtuelle non appliquée, soit à l'universelle
applicabilité praxique des mathématiques.
- 6
- On parlera, par rapport à l'usage d'une telle technique, d'ergonomie
de l'ergonomie. En effet l'ergonomie programmée par le constructeur (par
exemple l'interface par le clavier, l'affichage sur l'écran, etc.) avec
l'emploi dans une application crée une nouvelle dimension ergonomique
qui après un certains nombre de cycles de fonctionnement
s'avérera plus ou moins contraignante.
- 7
- Comme le dit Edmond Couchot dans Couchot, E., " Des outils, des mots et
des figures, Vers un nouvel état de l'art ", Réseaux,
nº 61, CNET, 1993.
- 8
- Parmi les œuvres de cette classe on cite les travaux d'Antoni Muntadas, par
exemple On Translation : The Transmission, Between the Frames et
File Room (disponible sur Internet).
- 9
- Wlodzimierz Borowski, l'artiste polonais influencé par la
cybernétique, était, au début des années 50, un des
précurseurs de l'esthétique du vivant et de l'interaction
" psychique " entre l`œuvre et le spectateur. Voir le cycle de
1958-1963 intitulé Arton, in Borowski, W. 1996, Slady, Traces
1956-1995, Catalogue bilingue, polono-anglais, de l'exposition au Centre
d'Art Contemporain, Palais Ujazdowski à Varsovie en 1996. À ce sujet
voir également le diplôme de l'EHESS de Jozef Bury, Bury, J.,
1996, " Contexte d'apparition des pratiques de type performance en
Pologne ", Æsthetica-Nova, nº 6.
- 10
- Voir à ce sujet :
Bec, L., 1998, " Artificial Live Under Tension -- A lesson in
Epistemological Fabulation " in Sommerer, C., Mignonneau, L.
(eds.), ArtScience, Springer-Verlag, Wien, New York.
TuX, Terzopoulos, D., 1995, " Artificial fishes : Physics,
locomotion, perception, behavior ", Computer Graphics. Proceedings,
Annual Conference Serie, Proc.. SIGGRAPH'94, Orlando, FL, pp. 43-50.
- 11
- Voir, par exemple, l'œuvre collective TechnoSphere de Andrew Kind,
Jane Prophet, Julian Saunderson, Gordon Selley et Tony Taylor-Moran,
<http://www.lond-inst.ac.uk/technosphere/index.html>.
- 12
- Allusion à l'œuvre de Kazuhiko
Hachiya InterDiscommunication Machine.
- 13
- L'exemple classique de ce type d'œuvres est Je sème à tous
les vents d'Edmond Couchot.
- 14
- Nous ne nous occupons pas des images non-artistiques, pub,
télévision, etc.
- 15
- Le sens du terme " simuler " fait nécessairement intervenir
les modélisations de l'instance de l'espace physique de projection et de
l'instance de spectateur. Simuler un ou des matériaux visibles revient
à produire un effet de projection du flux d'électrons sur
un écran luminescent qui, vu par le spectateur, s'approchera, dans
ses caractéristiques psychophysiques, de la vision d'un matériau
" naturel " (ou, en tout cas, d'en dehors de l'ordinateur) sous un
éclairage donné. Du premier abord, on voit que la simulation
informatique dans le domaine visuel ne peut pas être
considérée comme purement numérique, les algorithmes de
rendu étant engagés dans la commande des luminophores de
l'écran et visant certaines " impressions " chez le
spectateur.
- 16
- Voir le numéro thématique de Réseaux, nº 61,
CNET, 1993.
- 17
- Citons Jean-Luis Weissberg : " Les technologies
sont trop unilatéralement considérées comme des instruments de production,
d'intervention. Alors qu'elles sont aussi des vecteurs de perception. Et le
terme vecteur est maladroit, car il laisse entendre qu'il s'agirait simplement
de convoyer le monde vers le sujet percevant. Or les technologies, dont les
médias sont un sous-ensemble, ne réduisent pas leur fonction à cette mission.
En fait elles structurent notre perception parce qu'elles constituent ce par
quoi nos sens sont reliés à la réalité extérieure. Disposées entre nos organes
perceptifs et le monde, elles redéfinissent en permanence notre perception
dans et par cet exercice médiateur. Ce sont, en élargissant le vocabulaire
de l'informatique, des interfaces. ", Weissberg, J.-L., 1997, " Les
images-objets virtuels : regard, présence et perception " in
Blin, O., Sauvageot, J., (dir.), Images numériques, l'aventure du regard,
Ecole régionale des beaux-arts de Rennes, Université Rennes II, Rennes, p.
73.
- 18
- Flusser, V., 1996, (éd. orig. allem. 1993), Pour une philosophie
de la photographie, Circé.
- 19
- Sobieszczanski, M., 1999, " La peau du monde -- sur la chrono-graphie de
Jozef Bury ", VISIO, (Revue de l'Association internationale de
sémiotique visuelle, dir. Marie Carani), vol. 4, nº 1,
Post-Photography, Université de Laval, Canada.
- 20
- En réalité, l'industrie s'orientait, d'abord, vers
l'idéal d'un affichage reproduisant les performances de l'imprimerie.
- 21
- Callet, P., 1998, Couleur-lumière, Couleur-matière,
interaction lumière-matière et synthèse d'images,
Diderot Editeur, Arts et Sciences, Paris, New York.
- 22
- En revanche, dans certains dispositifs de l'Intelligence Artificielle
utilisant la méthode de la simulation connexionniste, on induit sur le
réseau de " neurones " les comportements de voisinage servant
de compétence aux processus de reconnaissance de formes.
- 23
- Selon l'expression verbale de Jean Petitot prononcée lors de son
cours sur la fonction de la diffusion anisotrope appliquée au traitement
du signal visuel (les problèmes de la géométrie
différentielle multi-échelle et de la vision).
- 24
- Sur le traitement du signal par l'analyse multi-échelle de la
fonction de diffusion anisotrope, ainsi que sur le contour apparent, les
caustiques et leur rapport avec les fonctions de Maxwell rendant compte de
l'interaction entre lumière et surface matérielle, voir dans
Petitot, J., 1992, Physique du sens, Ed. du CNRS, Paris, par exemple,
§ " La physique des infrastructure catastrophiques ".
- 25
- Sur la récognition " définit par l'exercice concordant de
toutes les facultés sur un objet supposé le
même " voir : Deleuze, G., 1968, Différence et
répétition, P.U.F., Paris, pp. 174-177.
- 26
- Voir à ce sujet Coster, M., Cherman, J.-L., 1985, Précis
d'analyse d'images, Ed. Du CNRS, Paris.
- 27
- Husserl, E., 1972, (éd. all. 1913), Recherches logique, Tome
2, (Recherches III, IV, V), P.U.F., Paris, pp. 8-9.
- 28
- " Longtemps bannie de la réflexion scientifique,
l'image opère actuellement un retour en force lié de toute évidence aux possibilités
de l'outil informatique. Aide à l'analyse des résultats produits, champ expérimental
infini, elle est aussi, comme nous l'avons vu, source de problèmes et de difficultés
: devons-nous pour cette simple raison la rejeter de nouveau ? L'absence de
l'image comme sa profusion ont tous les deux leurs avantages et leurs inconvénients,
mais la pratique quotidienne de ces techniques montre que l'image calculée
et interactive est un champ de découverte qu'aucun autre moyen actuel de communication
ne peut égaler. ", Colonna, J.-F., 1997, " Image du virtuel ",
Visual Version, WWW = http://www.lactamme.polytechnique.fr.
- 29
- Notamment dans les consignes didactiques des beaux-arts classiques
régissant le rapport entre le dessin et l'armature chromatique du
tableau.
- 30
- Notamment dans la volonté déclarée (et aujourd'hui
relevant de la pure battologie) d'expérimenter les
" éléments " visuels pris séparément.
- 31
- Sur la nature de l'image numérique voir : Couchot,
E., 1997, " Les promesses de l'hybridation numérique. (Prolongement et
renouvellement des arts figuratifs) " in Blin, O., Sauvageot,
J., (dir.), Images numériques, l'aventure du regard, École régionale
des beaux-arts de Rennes, Université Rennes II, Rennes.
- 32
- Cette interprétation de l'imagerie de synthèse nous a
été suggérée par Jean Petitot.
- 33
- Dreyfus, H., 1982, Husserl, Intentionality and Cognitive Science,
Cambridge, MA : MIT Press.
Dans son article dans Int. J ; Human-Computer Studies, Petitot reprend la
discussion et signale encore les recherches de McIntyre & Woodruff Smith,
Petitot, J., 1995, " Sheaf mereology and Husserl's morphological
ontology ", Int. J. Human-Computer Studies (1995) OO, pp. 741-763.
Les positions de Helmholtz et de Jackendoff, résumées dans
Varela, F., Thompson, E., Rosch, E., 1993, L'inscription corporelle de
l'esprit, Seuil, Paris, p. 90.
Une présentation de la philosophie cognitiviste de Fodor est
donné dans Gelder, (de) B., 1991, " Carnap, Fodor et le
cognitivisme logique " in Missa, J.-N., (coord. sc.),
Philosophie de l'esprit et sciences du cerveau, Annales de l'Institut
de Philosophie et de Sciences Morales, Vrin, p. 123-133.
- 34
- Petitot J., 1991, La philosophie transcendantale et
le problème de l'objectivité, Ed. Osiris, Paris, p. 101. Dans la même
contribution, Petitot résume ainsi les raisons de l'inspiration husserlienne
de certains courants des sciences cognitives : " [...] de façon
très analogique à ce que font les sciences cognitives actuelles, il [Husserl]
a pensé l'apparaître comme application à une hylé sensorielle de règles prescriptives
coordonnant les data hylétiques en représentations perceptives visant des
objets (intentionnalité perceptive). [...] Husserl a refusé l'idée qu'une
objectivité morphologique puisse être autre chose qu'une objectivité noématique.
Pour comprendre comment l'être se phénoménalise, il a dû, comme ses successeurs,
réduire l'être à des structures idéelles (noématiques) de sens. ",
Petitot, J., ibidem, pp. 100-101.
- 35
- Pourtant, la question de l'efficacité de l'action du virtuel sur le
réel a été déjà posée maintes fois.
La programmation de l'animation des objets selon la méthode
génétique évolutive semble, pour certains, poser
légitimement la question de la génération spontanée
des êtres, des caractères et des comportements. L'argument de
complexité, avec l'espoir d'égaler, par le progrès
vertigineux des performances de l'informatique, la complexité du vivant,
est avancé du côté des " réalistes "
tandis que l'argument de signification, d'émergence de
l'émotionnel et du moral, est avancé du côté de ceux
qui se réclament plutôt des sciences cognitives. Pour ce qui est
du domaine physique, les expériences de l'efficacité de la
simulation sur le réel sont à prendre avec des précautions
conceptuelles, et ceci afin d'éviter la tentation d'une efficience
formelle naïve à la Sheldrake (voir : Sheldrake, R., 1985,
Une nouvelle science de la vie, L'hypothèse de la
causalité formative, Ed. du Rocher, Monaco.). Pour les
expériences, comme celle de l'inscription du sigle d'IBM à l'aide
de quelques molécules visibles dans le microscope à effet de
champ, si la manipulation du simulacre peut légitimement susciter
l'admiration, autant l'ancrage physique du champ représenté et la
réalité non moins physique des effecteurs qui ont agi sur le
champ observé en y introduisant les commandes du " programme "
des interventions, utilitaires ou ludiques, du manipulateur, ne laissent aucune
possibilité d'opérer un quelconque chambardement
catégoriel dans le domaine des notions principielles. Philippe
Quéau semble prétendre le contraire, Quéau, P., 1997,
" Le virtuel : un état du réel ", in Gilles
Cohen-Tannoudji (dir.) Virtualité et réalité
dans les sciences, Diderot Editeur.
- 36
- Voir à ce sujet : Bec, L., 1998, " Artificial Live Under
Tension -- A lesson in Epistemological Fabulation " in Sommerer, C.,
Mignonneau, L. (eds.), ArtScience, Springer-Verlag, Wien, New
York, et les documents de Artificial Life : A Bridge Towards a New Artificial
Intelligence, le colloque sponsorisé par le Département de la
Logique et de la Philosophie de la Science à l'Université du Pays
Basque, Donostia/San Sebastian, Espagne, 10-11 décembre, 1993.
- 37
- Il s'agit de deux situations qu'il faudrait, en principe,
ranger séparément.
D'un côté, il s'agit des procédés de l'imagerie destinée à la représentation,
et même l'exploration, des échelles de la matière non atteintes par nos
capacités sensorielles directes. Ainsi on peut parler, par exemple, de l'imagerie
des microstructures, pour laquelle l'ordinateur fournit des différentes
reconstructions du système perspectif, ou des images reconstruisant les
événements quantiques, soit sur la base des données enregistrées par des
détecteurs, soit en partant des pures permises théoriques. Voir, par exemple,
Couderc, H., 1992, " Étude et visualisation tridimensionnelles
des microstructures biologiques " in L'image et la science,
Actes du 115e Congrès National des Sociétés Savantes (Avignon, 1990),
Ed. du C.T.H.S., Paris, pp. 117-128, et Cohen-Tannoudji, G., Spiro, M.,
1986, La Matière - Espace -- Temps, Paris, Fayard fig. IX. 1, p.
254 et fig. III. IX. 1, p. 136.
D'un autre côté, il existe un vaste domaine de visualisation des espaces
abstraits qui modélisent différents champs disciplinaires des sciences humaines,
et dont la complexité, souvent accompagnée d'irrégularité, dépasse les possibilités
d'une cognition directe. Voir :
Avenier, M.-J., 1992, " Apports d'un système interactif de représentations
graphiques hiérarchisées, pour l'intelligence de phénomènes complexes "
in L'image et la science, Actes du 115e Congrès National des Sociétés
Savantes (Avignon, 1990), Ed. du C.T.H.S., Paris, pp. 285-302.
© "Solaris", nº 7, Décembre 2000 / Janvier 2001.
