Bernard Couty

Maître de Conférences (retraité) en Information-Communication. bernardcouty chez sfr.fr

Éléments pour une analyse ergologique des techniques numériques

 

Résumé / Abstract

Le monde « numérique » est essentiellement le produit de la technique, même si l’on a l’impression qu’il relève d’une « science appliquée ». Le propos de cet article est de faire la distinction entre la modélisation mathématique et ce qui relève de manière autonome de la technique, capacité humaine à analyser et produire de l’outil.


Article au format html


Production et traitement numérique des signaux

Cet article se veut une introduction et une incitation à la lecture des documents en prépublication disponibles sur HAL archives ouvertes [1]. L’on ne doit cependant pas s’attendre à un travail de recherche en ergologie à proprement parler, d’une part parce que l’auteur de ces lignes, même s’il a reçu un éclairage sur la rationalité technique, n’est pas ergologue et, d’autre part, parce que ses connaissances théoriques et sa pratique en matière de « numérique » le portent davantage à l’exercice des mal nommées « sciences de l’ingénieur » qu’à un retour épistémologique sur la dialectique qui lui permet de produire, par exemple, un convertisseur analogique-numérique puis d’opérer une transformée de Fourier rapide sur les séries de valeurs numériques ainsi obtenues.

D’emblée, « le numérique » se révèle à l’analyse comme un phénomène hétérogène ; il semblerait que tous les plans de rationalité distingués par le modèle de la Médiation soient concernés. Il faut distinguer :

- « L’outil numérique », c’est-à-dire l’ensemble des appareils, et ils sont nombreux, faisant appel à des procédés automatiques de calcul. Le champ est vaste, de l’ordinateur à la carte de crédit équipée d’une « puce » en passant par l’iPhone et la montre connectée en 4G, sans oublier l’immense domaine de la commande des robots industriels. Nous trouvons ici l’essentiel de notre propos.

- « La technologie », soit l’intervention des savoirs scientifiques dans le domaine de la technique. Cette approche n’est pas neutre, dans la mesure où elle prolonge souvent la vieille croyance en un ars fabricandi (la fabrication d’objets) asservi à un logos jugé supérieur. Nous examinerons également ces rapports de la science à la technique en essayant de montrer l’autonomie de l’analyse technique.

- « La Révolution numérique », c’est-à-dire les conséquences sociologiques de l’adoption des techniques numériques. Les remaniements politiques de la donne sociologique consécutifs à l’introduction de techniques nouvelles ne sont pas inédits, on l’a déjà vu avec l’invention de l’imprimerie et l’avènement du machinisme industriel. Par ailleurs, la puissance publique est concernée par la gestion des canaux de transmission. Quant à prétendre que c’est également une révolution dans la communication, c’est confondre naïvement communication et transmission.

- Cependant, les conséquences de la « révolution numérique » se remarquent aussi dans l’économique, l’échange des biens permise par la communication. On ne peut pas ignorer l’influence du coût dans le choix de l’appareillage et des modes d’acheminement des signaux, ni même la valeur d’ophélimité et la satisfaction que procurent la possession et la manœuvre de tels ustensiles. Mais on peut penser, à rebours d’un économisme étroit, que cela ne détermine pas le processus technico-industriel aboutissant à la production de signaux dans ce secteur que Jean Gagnepain appelait « industries déictiques » (Gagnepain, 1990, p. 187).

Nous laisserons de côté l’aspect sociologique et l’aspect économique du « numérique » pour concentrer le propos sur la technique, qui intéresse à la fois l’ingénieur et l’ergologue.

1 Définir « le numérique » comme champ d’étude en ergologie

Un retour épistémologique sur les pratiques industrielles dans le domaine du « numérique » est nécessaire si l’on veut comprendre en quoi la production « numérique » ne relève ni plus ni moins de la dialectique de l’Outil que la menuiserie, ou la chaudronnerie, la fabrication d’allumettes ou de TGV. L’arbre « technologique » ne doit pas cacher la forêt technique. L’entreprise est ardue, pour plusieurs raisons :

- L’observateur est placé d’emblée en « causation déverse » selon l’expression du linguiste Gustave Guillaume, c’est-à-dire – pour les médiationnistes – dans le réinvestissement performantiel d’une analyse formelle implicite qui lui échappe d’abord. Un effort d’analyse (« déconstruction ») est indispensable pour remonter à la « causation obverse », et cet effort est d’autant plus contrarié que le processus industriel se passe en principe sans anicroche, au bureau d’études, au laboratoire d’expérimentation, à l’atelier.

- Tout ouvrage, au contraire de l’instrument, est complexe, et singulièrement lorsqu’il s’agit d’ustensiles « numériques » comme un ordinateur ou une commande de robot. Le technicien exploitant dispose de sous-ensembles industriels disponibles qu’il est facile d’interpréter hâtivement comme des composants basiques à l’instar des cubes du jeu de Lego ou des pièces du Meccano. Pourtant, le technicien exécutant « sait » implicitement, tout aussi bien que l’exploitant, qu’il s’agit en fait de dispositifs ordonnés à des tâches qu’en retour ils définissent. Par exemple, une « porte logique » ET (And) fait intervenir plusieurs engins analysés, réinvestis industriellement sous la forme d’une résistance – par exemple au carbone – et deux diodes lesquelles sont des cristaux de germanium, ou de silicium ou d’arséniure de gallium, dopés d’atomes porteurs de charges. Autrement dit : ces engins, telle la diode, constituent des unités techniquement minimales regroupant des matériaux. La tâche est alors de forcer le passage du courant en un seul sens – ce que faisait naguère le tube à vide appelé « valve ». L’analyse, par conséquent, devrait opérer récursivement jusqu’à arriver à des points d’insécabilité, taxinomiquement le matériau, générativement l’engin. On mesure l’ampleur de l’entreprise ! Faut-il remonter si loin ? L’exploitant peut fort bien prendre la porte logique pour unité (ou réalisation d’engin), tout en sachant que ce n’est là qu’un niveau d’analyse masquant des profondeurs. Conséquence : il convient de décider à quel niveau l’on s’arrête... avec des arrière-pensées.

- Notons toutefois que si l’on analyse du matériau dans le quartz ou le silicium, de l’engin dans la diode, on ne peut pas à proprement parler dire que celui-ci est un matériau, un engin. Nous manquons de vocables propres à distinguer ce qui relève de l’analyse de fabrication, pour laquelle les termes ont été nettement fondés par Jean Gagnepain, de ce qui relève du réinvestissement industriel de celle-ci. Ces lacunes apparaissent clairement en comparant un schéma élaboré par Hubert Guyard dans sa thèse (Guyard, 1987, p. 535) et un schéma analogue appliqué à l’ergologie. En glossologie les vocables sont clairement posés, il resterait à faire de même en ergologie (schéma 1). Faute de mieux, en attendant, nous devrons utiliser les vocables de la mécanologie et de la téléologie en précisant dans quelle phase de la dialectique ils sont employés.

Schéma 1 : signifiant et fabriquant

- Dans le champ du « numérique », comme dans bien d’autres, nous sommes dans le domaine de la « technologie », c’est à-dire de « la production scientifiquement calculée » (Bruneau et Balut, 1997, p. 122), non point descriptive mais épitactique (Bruneau et Balut, ibidem), impérative. En somme, les modélisations mathématiques (ou algébriques) sont quelque peu comparables à la partition en musique : si la partition d’orchestre indique ce qu’il faut faire, chaque voix le fait spécifiquement pour tel groupe ou sous-groupe d’instruments en fournissant le tempo, la hauteur et la durée des notes. Il n’empêche que l’exécution demeure strictement du ressort de l’exécutant qui manœuvre un instrument. En prenant beaucoup de précautions, et en se méfiant des analogies, on pourrait faire l’hypothèse que les algèbres appliquées à la technologie « technicisent » le fabriqué, ou du moins une partie de celui-ci (s’il avait une dimension !) par l’écriture et réduisent le tâtonnement pour assembler des dispositifs : « A ⊕ B » fait choisir une « porte » Ou Exclusive (Xor), de même qu’un calcul permet de doser le dopage d’un semi-conducteur. L’inconvénient pour l’ergologue est que l’on finirait par confondre la logique transcrite par les algèbres avec la technique des dispositifs industriels permettant d’arriver aux résultats escomptés. Voici un énorme obstacle épistémologique, qui culmine lexicalement dans le vocable de « porte logique » appliqué à ce qui n’a rien de logique en soi, mais tout de technique.

2 Le signal, les signaux numériques

Il y a sans doute bien d’autres obstacles épistémologiques se dressant sur le chemin de l’ergologue voulant étudier « le numérique » : n’ont été indiqués supra que ceux dont nous avons pris conscience lors de la rédaction du document évoqué. Il est temps, maintenant, de préciser ce que l’on entend par « numérique » (« digital » en anglais).

L’étymologie est trompeuse : on pourrait croire qu’il ne s’agit ni plus ni moins que de quantification. C’est incontestable : la numérisation quantifie. Mais aussi elle chiffre, c’est-à-dire qu’elle codifie sous forme de chiffres et de nombres. « 01000001 » peut, selon le contexte, être en base deux le nombre écrit « 65 » ou « +65 » en base dix, ou le code de la lettre « A » dans les codes ASCII ou ANSI des ordinateurs. On peut aussi chiffrer bien des choses, par exemple une couleur vert émeraude selon l’instruction codée « 9174581 » en base dix ou « 100010111111111000110101 » en base deux. Mais dans chacun de ces cas, nous nous trouvons face à un signal, sous forme de tensions électriques correspondant à 1 ou 0, qui sera traité de manière spécifique [2] ; par exemple 65 pourra être mis en rapport avec une autre quantité au moyen d’un opérateur arithmétique, une instruction telle print chr(65) affichera la lettre A, une autre comme Canvas.Pixels[x, y] := 9174581 allumera le pixel en x,y sur l’écran en vert émeraude. Nous pouvons donc avancer, sans courir trop de risques, que « le numérique » recouvre les procédés industriels d’obtention et de traitement des signaux.

Jean Gagnepain (1990, p. 187) écrivait : « Par signal […] j’entends ce que cet investissement particulier de l’outil [...] comporte de forgé, non de conventionnel. » Plus loin : « Ce qui fait le signal ce qu’il est, ce n’est point le consensus, mais le rapport qu’en tant que reproduction il entretient à l’objet, le symbole ou le signe indiqués et qui est, ergologiquement, du même ordre que celui de la chaussure aux pieds ou de la fourchette à la main. ». Cette définition recouvre l’ensemble du secteur déictique de l’industrie : le signal reproduit et entretient un certain rapport avec ce qu’il reproduit. Nous sommes proches de ce que les ingénieurs considèrent comme signal : « Généralement dans les métiers de l’Électronique, on désigne par signal la représentation temporelle, graphique ou visuelle d’une grandeur physique en fonction du temps [3]. » Il s’agit, bien sûr, non de représentation conceptuelle par le langage (Vorstellung en allemand), mais d’ostension à l’aide d’une icône (Darstellung), qu’elle soit image, dessin, courbe sur l’écran d’un oscilloscope, etc. Tous ces signaux sont susceptibles de faire l’objet d’un traitement numérique. Nous y ajouterons les signaux obtenus à partir des phénomènes physiques du monde qui nous entoure : vibrations, rayonnements et autres, certains interceptés par les organes sensoriels spécifiques à notre espèce et indispensables à la Gestaltung, par exemple les sons, la lumière, d’autres hors de notre portée immédiate mais interceptés par des capteurs calibrés ad hoc : infrasons, rayonnement infrarouge, radioactivité et ainsi de suite. Cette catégorie de phénomènes a d’abord été traitée de manière analogique dans un état ancien des industries, en suivant exactement leurs variations puisqu’ils déclenchaient eux-mêmes les mouvements de l’appareillage de mesure – par exemple un courant traversant un galvanomètre. Ils sont aujourd’hui traités numériquement, les valeurs obtenues par échantillonnage étant des mesures, donc « numérisées ». Il est facile d’obtenir des signaux : que l’on choisisse un intervalle incrémentiel de temps et une série de valeurs numériques, reportées en abscisse et ordonnée sur un graphe, que l’on joigne les points ainsi obtenus, et l’on obtient le graphe d’un signal. C’est vrai pour le tracé d’une sinusoïde, pour le graphe d’évolution du cours de l’or, les variations barométriques... D’une manière ou d’une autre, à l’opposé d’un phénomène naturel tel un rayonnement, un signal est toujours fabriqué [4].

Dès qu’il s’agit de représenter numériquement un phénomène : rayonnement naturel, objet (lequel n’est visuellement perçu qu’en raison d’un rayonnement photonique), on opère nécessairement par fragmentation d’un continuum en unités discrètes. Ainsi fonctionne un appareil photographique contemporain : les photons renvoyés par l’objet atteignent (à travers des microlentilles et des filtres de Bayer) des récepteurs photosensibles, les photosites [5], disposés selon une matrice [x,y] convertissant l’énergie photonique en charges électriques. D’une manière voisine, un convertisseur analogique-numérique (CAN) intercepte les vibrations d’un rayonnement à des intervalles de temps bien définis. On parle d’unités discrètes parce qu’elles sont isolées, délimitées, ne prenant de valeurs que dans un intervalle fini. Il apparaît nécessairement une solution de continuité entre deux unités, temporelles ou spatiales, si proches soient-elles par une distance Δt ou Δd. Autrement dit, la technique numérique introduit des discontinuités dans les phénomènes, ce qui, en termes d’ingénierie, constitue une « perte d’information » [6]. L’enjeu, pour l’exécutant comme pour l’exploitant, étant que cette perte soit asymptotiquement négligeable ; dans le cas de la photographie, par exemple, on peut augmenter la quantité de photosites par unité de surface, dans celui des vibrations augmenter la fréquence d’échantillonnage, mais on se heurte toujours à des limites de complexité (et de coût).

3 L’empirie : l’exemple de la compression d’images

Comme la visée scientifique remanie le langage pour le rendre plus adéquat au monde à dire, l’empirie remanie l’outil pour le rendre plus adéquat au monde à transformer : les considérations précédentes tendent à le montrer. Nous donnons un aperçu de cela dans le second document annexé, qui traite d’une part de la compression d’une image numérique, d’autre part des techniques de préservation de l’intégrité des signaux malgré les perturbations possibles occasionnées par des aléas – bruits, parasites et autres – durant leur transmission.

Dans le cadre de l’empirie, considérons en premier lieu la compression d’image. Une image native, « bitmap », s’écrit numériquement sous la forme d’un tableau de valeurs correspondant aux tensions émises par les photosites d’une caméra ou à des couleurs choisies à l’aide d’un logiciel de création d’images comme Paint ou Photoshop. Le plus souvent, le codage de ces valeurs s’effectue sur trois octets [7], chacun contenant la valeur d’une couleur fondamentale, rouge, vert, bleu (codage RVB). La couleur résultante est obtenue par synthèse additive de ces trois couleurs. Ce système de codage autorise 16 777 216 nuances, mais en contrepartie il demande beaucoup de place en mémoire (mémoire vive ou mémoire de stockage) ; par exemple un bitmap de 10 * 10 pixels codé sur trois octets (24 bits) occupe 2,34375 kilooctets [8] alors qu’un bitmap de même dimension codé seulement en 255 nuances de gris n’occupe que 0,78125 ko, le rapport est de 3 à 1. Encore ne s’agit-il que d’une toute petite image, à peine de la taille d’une émoticône. Cela pose donc deux contraintes techniques : d’une part essayer de diminuer l’espace occupé pour le stockage, d’autre part et corrélativement diminuer le temps de transmission (on télécharge beaucoup d’images !).

De là l’intérêt des techniques de compression, qui ne concernent pas seulement les images. On les retrouve avec des variantes dans le domaine sonore (MP3) ou dans les textes (par exemple les fichiers LZH). Concernant les images, on rencontre très fréquemment les fichiers JPEG et le MP4 pour la vidéo. Le second document en annexe développe un algorithme de compression JPEG, qui permet des observations intéressantes.

L’ensemble des manipulations vise à réduire la taille du fichier-image sans trop perdre « d’information ». Dans ce but, on va jouer sur la redondance. Il est évident qu’à l’examen, une image comporte des zones de couleur distinctes, correspondant à des surfaces et des volumes différents. Mais dans chaque région, les pixels adjacents prennent des valeurs égales, ou très voisines : c’est la redondance, que l’on peut constater en traitant une image pour en faire ressortir les contours, comme illustré ci-dessous (illustration 1).

Illustration 1

Les ruptures de redondance délimitent précisément surfaces et volumes. Sans entrer ici dans le détail, indiquons que l’algorithme de compression fonctionne d’autant mieux que le tableau des valeurs de pixels comporte peu de valeurs distinctes : on peut ainsi exploiter la redondance.

Il faut sept étapes non commutatives [9] de traitement pour obtenir une image JPEG ; il n’est pas question de toutes les décrire dans cet article, nous ne concentrerons notre intérêt que sur celles qui, à notre avis, permettent de mieux comprendre les efforts d’adaptation aux contraintes (empirie).

(A) [10]. Le codage de couleur RVB est changé en un codage à la fois qualitatif et quantitatif : luminance – quantité de lumière, perçue par les bâtonnets de la rétine – et chrominance – couleur perçue par les cônes de la rétine. On pourrait mesurer la luminance, et la transmettre à l’aide d’un quatrième octet en plus des octets RVB, mais le codage serait alors effectué sur 32 bits, donc on obtiendrait un fichier plus volumineux. Pour éviter cet inconvénient, on remplace le codage RVB de chaque élément d’image par un codage YCbCr, toujours sur trois octets. La luminance Y calculée par l’addition de 30 % R+60 % V+10 % B occupe le premier octet, la valeur du bleu est convertie en Cb=B-Y et celle du rouge en Cr=R-Y. Au décodage, on retrouvera B=Cb+Y, R=Cr+Y, et V=60 % de Y-(B+R). Il arrive cependant que la valeur calculée de V ne coïncide pas avec sa valeur d’origine : elle peut être plus basse d’environ une ou plusieurs unités, arrondi ou non [11]. Intervient donc une légère perte « d’information », sans grande conséquence : lorsque le contraste de couleur entre l’image originale et l’image décodée est suffisamment réduit, l’œil humain ne le perçoit pas. Cet artifice permet de conserver les valeurs de luminance et de chrominance sur seulement trois octets : économie de place et de temps de transmission. Toutefois, la taille du fichier n’est pas encore diminuée.

(C). Après une étape (B) dite de « sous-échantillonnage » (downsampling) qui remplace les chrominances des blocs adjacents de pixels par la moyenne de leurs chrominances Cb et Cr (il y a encore une petite perte d’information, mais la redondance augmente), on applique la transformation cosinus discrète (anglais : DCT) dont on trouvera encore la description algorithmique dans le document annexe. Or une image ordinaire comporte une grande continuité entre les valeurs de pixels adjacents (voir supra), les sauts quantitatifs entre deux pixels adjacents correspondant à des changements de volume (les traits du dessin). Des pixels adjacents présenteront donc une fréquence de couleur, fréquence qui variera lors d’un changement de volume. La transformation cosinus discrète permet d’évaluer l’amplitude des changements d’un pixel à l’autre afin d’identifier les hautes fréquences, zones de contrastes, et les basses fréquences, zones unies où les couleurs sont proches. On transfère ainsi « l’information » du domaine spatial au domaine fréquentiel. La transformée est effectuée sur une matrice carrée N * N de valeurs de pixels et donne une matrice carrée N*N de coefficients de fréquence. Comme il est difficile d’appliquer la transformation sur la matrice entière, celle-ci est donc décomposée en blocs de taille plus petite 8 * 8 pixels. Mais les valeurs calculées sont en décimales – avec une approximation, π étant comme on le sait un nombre « irrationnel » employé dans les calculs de fonctions trigonométriques convergeant à infini – puis arrondies : nous rencontrons de nouveau une « perte d’information », très faible et encore négligeable à ce stade dans la mesure où la sensation produite (esthématopée, voir Bruneau et Balut, 1997, p. 112 et sq.) n’est pas affectée.

La première diminution quantitativement importante de la taille du fichier est opérée par le traitement (E) dit « RLE » (anglais : Run Length Encoding). L’idée en est simple : supposons une suite de quatre pixels ayant subi la TCD précédente :

Pixel 1Pixel 2Pixel 3Pixel 4
Y Cb Cr Y Cb Cr Y Cb Cr Y Cb Cr
52 5 8 52 5 8 52 5 8 20 1 3

On voit que les trois premiers redondent alors que le quatrième est en rupture de fréquence par rapport à ceux-ci. Il est facile d’économiser de la place en annonçant le nombre de pixels consécutifs de même valeur suivi du codage commun, comme l’indique le tableau ci-dessous où neuf octets d’information sont remplacés par quatre octets seulement.

Nb redondances Caractéristiques des pixels redondants
3 Y Cb Cr
52 5 8

Pour que cela soit efficace, il faut un seuil minimum de redondance ; les ingénieurs considèrent que trois pixels successifs redondants constituent ce seuil. Cette compression se fait sans perte.

Le codage de Huffman (F), enfin, permet de réduire de 20 jusqu’à 90 % la taille du fichier, sans perte « d’information ». Expliquons-en brièvement le principe, car il illustre parfaitement le travail qui s’effectue dans la visée d’empirie. Supposons une matrice de 8 * 8 = 64 pixels comportant six catégories (A,B,C,D,E,F) de couleurs codées sur trois octets (illustration 2) [12]. Le « poids » (l’encombrement) de l’image correspondante serait de 64*8*3=1536 bits, soit 192 octets. Les pixels sont diversement distribués en place et fréquences d’occurrences, comme par exemple dans la grille ci-dessous où les pixels sont représentés par la lettre de leur couleur.

Illustration 2

On compte six occurrences de la couleur E, 9 de D, 9 de F, 11 de A, 12 de B et 17 de C. L’idée est de remplacer dans la matrice chaque couleur par un code, le plus court possible, renvoyant à une simple table de correspondance transmise en même temps que la matrice. Le code sera basé sur les fréquences d’occurrence classées par ordre décroissant selon un arbre d’Huffman (schéma 2).

Schéma 2

Celui-ci opère par addition (cumul des fréquences), de droite à gauche, en remontant vers la racine (ici : 64). Le codage se fait en partant de la racine et en descendant vers un terminal, en affectant la valeur 0 à une branche orientée à gauche et 1 à la valeur orientée à droite. Par exemple la couleur D sera codée 1110. On voit dans cet exemple que le code le plus long (1111 pour E) ne prend que quatre bits (1 quartet), ce qui explique que lorsque le code est de taille inférieure (par exemple 100 pour B) on ajoute à sa gauche autant de 0 que nécessaire pour compléter le quartet (B est alors noté 0100). Si l’on remplace les trois octets de chaque couleur par le quartet de code correspondant, la matrice de l’image ne compte plus que 64*4=256 bits soit 32 octets. On peut juger du résultat en comparant l’état original de la matrice pour les pixels [1,1], [1,2],[2,1] et [2,2] en donnant (arbitrairement, ici, pour la démonstration !) à la couleur A (0101) les octets 00110100 (52), 00000101 (5), 00001000(8), avec l’état final en codage de Huffman :

Avant codage
12
Y Cb Cr Y Cb Cr
1 00110100 00000101 00001000 00110100 00000101 00001000
2 00110100 00000101 00001000 00110100 00000101 00001000
Après codage
12
1 0101 0101
2 0101 0101

Il va de soi que la matrice codée est transmise en même temps que sa table de décodage, par exemple pour la couleur A :

0101 00110100 00000101 00001000

Chaque ligne de la table de cet exemple demande 28 bits, et comme il y a six lignes, 168 bits soit 21 octets. En fin de compte, la matrice et sa table n’occupent que 53 octets, soit un peu plus du quart du « poids » de la matrice d’origine, ce qui donne un pourcentage de compression de l’ordre de 72,4 %. Et cela sans perte : c’est considérable !

Il va de soi que l’algorithme de restitution est symétrique de celui de compression. La compression d’images est un exemple d’adaptation de l’industrie aux contraintes : diminuer la taille des images pour les rendre moins volumineuses et plus rapidement transmissibles, tout en préservant la possibilité de satisfaire aux contraintes de l’esthématopée en conservant les « traits utiles » de telle manière que l’œil ne perçoive pas les inévitables altérations. Il faut s’interroger sur la nature de ce qui est traité. À première vue, le néophyte peut penser qu’il ne s’agit que d’un traitement abstrait, purement mathématique, faisant intervenir des fréquences, des codes pour manipuler des octets. De là l’illusion trop répandue d’un univers « virtuel ». On oublie trop vite qu’au départ du processus il y a un objet dont on exploite le rayonnement photonique et à l’arrivée une image sensible de cet objet, restituée par une matrice de pixels mettant en œuvre des procédés opto-électroniques relativement complexes. Il s’opère ainsi une sorte de conversion de l’énergie selon le trajet photon → électron → photon, et à chaque étape du traitement, les octets ne sont pas des représentations, mais bien des ensembles de tensions électriques nettement définies, choisies pour leur état « haut » (1) ou « bas » (0). Il s’ensuit que l’algorithme et le programme qu’il structure ne sont rien de plus que des commandes pilotant un dispositif électronique sous-jacent, qui est seul opérant. Il n’y a rien là que de matériel, pas de « virtuel ».

4 L’empirie : la protection de l’intégrité du signal transmis

Disons-le rapidement : la phase de compression est nécessaire non seulement pour ménager l’encombrement des dispositifs physiques de mémoire (RAM, disque dur, DVD, clef USB...), mais aussi pour limiter le flux de ce qui n’est pas des « données » mais bien des « adeptas » [13] acheminées via les canaux de transmission. Qui n’a jamais rencontré des messages d’erreur au chargement ou à l’exécution d’un fichier MP4 ou à l’affichage d’une image JPEG ? Qui n’a jamais éprouvé le désagrément de ne pouvoir lire un fichier vidéo parce qu’il n’a pas le bon « codec », c’est-à-dire les bonnes clefs de décodage ? S’il existe des clefs, c’est que les « adeptas » ont cryptées, non pas pour les rendre secrètes, mais pour en protéger l’intégrité malgré les aléas de la transmission : bruits parasites, microcoupures, transmodulation et ainsi de suite, qui peuvent les corrompre. Cette fois, l’empirie adapte le produit aux accidents de son transport par un vecteur hertzien, optique ou simple câble en cuivre.

Le problème technique est de contrôler la validité des codes reçus, dès que l’on met des machines en complémentarité réciproque (coalescence), par exemple un serveur et un ordinateur via Internet. Il a fallu imaginer des algorithmes permettant à la fois de vérifier la parité [14] des octets transmis mais en même temps d’offrir la possibilité d’une correction éventuelle. La méthode la plus efficace [15] est celle de Hamming ; nous renvoyons au second document pour connaître le détail de l’algorithme. Indiquons simplement qu’un octet codant par exemple la lettre A (01000001) est inversé (10000010), divisé en deux quartets (1000­|0010) soumis au traitement de Hamming et que notre octet initial est transmis en deux octets composés chacun d’un quartet de l’octet initial inversé (1000, 0010) suivi de sa signature de Hamming (1000, 0010) (schéma 3).

Schéma 3

Si une erreur survient, par exemple 1010 au lieu de 1000 pour le quartet de poids « fort » du premier octet, non seulement la signature permet de détecter l’erreur, mais aussi sur quel bit elle porte : il suffit alors d’inverser la valeur du bit pour réparer : 10101000. On récupère les deux octets de poids fort, on les permute et on les inverse pour retrouver en réception l’octet initial. Ce travail, commandé par le programme, est évidemment effectué par les dispositifs électroniques sous-jacents ; il n’est pas sans rappeler divers dispositifs d’auto-régulation opérant en boucles de rétroaction, tels les régulateurs de Watt sur les machines thermiques.

Cette auto-régulation, qui loin de se limiter au seul secteur des industries déictiques concerne l’ensemble des transmissions numériques, à un coût : l’adjonction d’une signature de Hamming à un quartet double le nombre d’octets transmis, sans parler du temps-machine nécessaire aux opérations ; toutefois, si nous reprenons l’exemple de l’image JPEG précédente, la matrice et sa table n’exigeraient (théoriquement) que 106 octets lors de la transmission, alors que l’image non compressée codée Hamming en demanderait 384. Le bénéfice de la compression (≈ 27,6 % du poids initial) n’est donc pas perdu, d’autant moins que le codage de Hamming ne nécessite pas la transmission d’une table de décryptage. Le flux des adeptas est évidemment plus important, mais comme toujours en matière d’industrie, le bénéfice escompté dépasse les concessions : que l’on songe qu’une erreur portant sur un seul bit peut par exemple perdre une fusée portant de coûteux satellites.

5 Essai d’analyse ergologique de la numérisation d’un phénomène vibratoire

L’écriture de la recette par l’algèbre (épitactique) et de son exécution par la commande programmée ne doivent pas faire oublier l’essentiel, à savoir les dispositifs électroniques à l’œuvre. Aussi, comme disaient les mécaniciens, faut-il maintenant « mettre les mains dans le cambouis ». C’est à cette exploration qu’est consacré le troisième document annexé à cet article.

On y verra d’emblée que des dispositifs différents peuvent satisfaire à une même tâche, par exemple qu’une unité de « mémoire » peut être réalisée à l’aide d’un dispositif regroupant deux engins, un transistor à effet de champ et une capacité, ou, encore à l’état expérimental, trois engins : une électrode, un matériau piézoélectrique et une structure composite magnéto-électrique. Le fait que des dispositifs différents peuvent satisfaire à une même tâche (synergie) étant supposé connu des ergologues (Bruneau et Balut, 1997, p. 95), nous n’y reviendrons pas.

5.a La base de temps

Considérons donc un phénomène vibratoire, périodique ou non, par exemple une émission vocale, une onde hertzienne ou encore le courant alternatif de nos demeures. Il est convertible en signal analogique au moyen d’un capteur qui suivra de manière continue exactement ses variations, ce qui permet entre autres opérations d’en afficher la trace sur l’écran d’un oscilloscope analogique. Si nous voulons le numériser, nous devrons mesurer son amplitude à des instants t0, t1, t2, ... tn distants les uns des autres d’un accroissement Δt choisi. On conçoit qu’une impulsion en ti, ti+Δt est fournie par une horloge dont les dispositifs les plus simples sont un trigger de Schmitt [16] ou un circuit RLC [17]. Cependant, ces dispositifs tendent à dériver en fréquence davantage qu’un circuit piloté par quartz. Le quartz « natif » (SiO2) a notamment la propriété piézoélectrique : appliquez-lui une déformation, il apparaît à sa surface des charges électriques. Mais il ne devient analysable en matériau que si, débité en fines lamelles, une tension électrique appliquée le déforme et produit des charges électriques selon une fréquence propre en fonction de la dimension physique (essentiellement de l’épaisseur) de la lamelle. La tâche qui le fait choisir – et qu’il définit en même temps – est de produire un courant oscillant selon une fréquence déterminée. L’analyse ergologique, en l’occurrence, atteint ici le niveau d’insécabilité évoqué au début de cet article. On pourrait atteindre ce niveau d’analyse avec d’autres substrats fondamentaux tels le silicium (semiconducteur), le silicium dopé – qui est déjà analysable en engin à cause des atomes de dopage – et ainsi de suite.

5.b L’échantillonnage

La recette épitactique peut s’inspirer de plusieurs modèles mathématiques pour réaliser la numérisation. On peut par exemple faire interférer une impulsion dite « fonction de Dirac », δ(t), répétée selon un intervalle Δt, prenant la valeur 1 en t0, t0+Δt, ..., t0+nΔt, et la valeur 0 en dehors de ces instants, avec une fonction f(t) : la valeur retenue est alors f(t)*δ(t) = f(t)*1=f(t), sinon elle est de zéro. On a ainsi discrétisé la fonction f(t) en échantillons de l’amplitude qu’elle prend en ti, ti+Δt et ainsi de suite. Cet artifice dit « peigne de Dirac » est facile à mettre en œuvre mathématiquement. On peut aussi utiliser une fonction dite « dent de scie », ou encore un signal carré, etc. La seule condition que toutes doivent respecter est celle énoncée par Shannon : la fréquence d’échantillonnage doit être égale ou supérieure à deux fois celle de la fonction échantillonnée (pratiquement, 2,56 fois si l’on veut ne pas rater les pics d’amplitude maximale de la fonction échantillonnée). Pour une moindre perte « d’information », il est souvent préférable de choisir une fréquence d’échantillonnage supérieure au minimum de Shannon... mais le tableau de valeurs obtenu est plus grand, et, techniquement, la latence des dispositifs électroniques de traitement du signal oppose une limite à cette fréquence. Le vecteur (au sens ergologique du terme) impose donc ses conditions à la production de l’ouvrage.

Avec l’échantillonneur, nous rencontrons un regroupement de dispositifs industriels constituant un tout insécable en regard de la machine qui téléologiquement lui est associée [18]. Le schéma électrique ci-dessous représente l’échantillonneur (schéma 4).

Schéma 4

L’entrée est en Va ; un générateur G (horloge) fournit une impulsion Ve contrôlée en fréquence à la « porte » (gate) d’un transistor à effet de champ (cet « engin » est encadré en rouge sur le schéma). Lorsque Ve est à 0, le transistor ne conduit pas le courant Va, qui est bloqué à la « source » S, mais quand Ve passe à 1, le courant Va sort du transistor par le « drain » D, il est transmis à la fois à l’amplificateur opérationnel A à la capacité C qu’il charge. A transmet Va par la sortie V0 à une autre « machine » en coalescence, le convertisseur analogique/digital (CAN). Lorsque le générateur renvoie un état 0, le transistor ne conduit plus, mais grâce à la charge de C, V0 reste à la tension Va un temps suffisamment long pour que le CAN puisse opérer à son tour. C se décharge ensuite à travers la résistance R2 afin d’être disponible pour un nouvel échantillon.

Peut-on dire que le dispositif décrit fait exactement la même chose que nos fonctions f(t) et δ(t) ? En réalité, alors que les fonctions opèrent strictement sur des nombres « déjà là » dans un tableau et ne produisent que des nombres, le dispositif travaille en temps réel, recevant des tensions électriques en entrée et produisant des échantillons qui sont encore des tensions électriques en sortie et non des nombres. Le système fonctionne comme un interrupteur qui s’ouvre et se ferme selon une cadence précise. Pour numériser ces tensions, il faudra les mesurer. Les fonctions constituent un analogon du procédé technique, c’est-à-dire un modèle dont l’exécutant et l’exploitant peuvent se servir pour calculer, par exemple, la fréquence optimale d’échantillonnage donnant la meilleure connaissance souhaitée du phénomène étudié. Cette fréquence n’est, par ailleurs, qu’un ingrédient dosé de la recette, car le schéma électrique apporte d’autres « ingrédients » dosables : valeurs des résistances, de la capacité, potentiel auquel porter la « porte » du transistor pour qu’il devienne conducteur, câblage, tension de basculement de l’amplificateur opérationnel... C’est, à proprement parler, de l’épitactique, de la production calculée.

5.c La valeur numérique

Comme on le voit, ce n’est pas l’échantillonneur qui numérise, mais un autre dispositif, ou si l’on veut, téléologiquement une autre machine en coalescence avec lui. L’analyse (succincte) de la structure d’un CAN (convertisseur analogique-numérique) de type « Flash », très répandu, nous montrera comment on obtient une valeur mesurée et les approximations qu’entraîne le procédé.

Le dispositif repose sur un appareil déjà rencontré, l’amplificateur opérationnel (AOP), qu’il est courant de schématiser comme une « boîte noire » triangulaire [19] munie de deux entrées (+ et -) et d’une sortie. Un tel dispositif est assez complexe, par exemple circuit intégré 741 [20] regroupe une vingtaine de transistors et onze résistances ; originellement, sa fonction était d’amplifier une différence de potentiel présente à ses entrées, ce qui permet d’effectuer électroniquement des additions, soustractions, multiplications et divisions, d’où son usage dans les anciens calculateurs analogiques. Comment utiliser l’AOP pour fournir des valeurs binaires 1/0 ? On le fait fonctionner en comparateur.

Schéma 5

Le schéma 5 ci-contre permet de comprendre ce mode de fonctionnement : une tension de référence Ur est appliquée à la borne 2, une tension à comparer Uc est appliquée à la borne 3 ; dès que Uc devient supérieur à Ur la sortie 6 délivre une tension très proche de celle de l’alimentation (+Vcc et -Vcc). Si l’AOP est alimenté en 4V, tant que Uc ≤ Ur la sortie 6 ne délivre pas de tension, mais quand la condition Uc > Ur est remplie, la sortie délivre une tension très proche de 4V ; on obtient ainsi un état 0 et un état 1 (tension de 4V). Nous avons-là un bel exemple de polytropie. On peut ainsi, en regroupant plusieurs AOP (voir schéma 6 ci-dessous) créer une échelle de mesure.

Schéma 6

Un générateur E1 fournit les tensions de référence (flèches vertes) par l’intermédiaire d’un diviseur de tension et la tension-échantillon est appliquée aux entrées 2 des AOP. Le tableau à droite du schéma électrique indique les états de sortie : par exemple pour une tension Uc supérieure à 3 volts mais inférieure à 4V, S1, S2 et S3 seront à 1 mais S4 sera à 0. Nous avons bien obtenu une valeur numérique, mais elle devra être convertie en binaire par un encodeur dont nous ne détaillerons pas ici le fonctionnement ; indiquons seulement que pour S1 et S2 et S3 et S4 à l’état 1, l’encodeur sortira la valeur binaire 100, soit 4, ce qui correspond à une amplitude mesurée de 4V pour l’échantillon.

Néanmoins, ce dispositif fournit des valeurs entières pour des tensions Uc mais supposons que l’on ait en entrée une tension Uc = 5V : elle sera arrondie par défaut à 4 ! Il en irait de même pour une tension de 4,25 V. Cet arrondi conduit donc à des incertitudes sur la valeur exacte de la tension, il y a perte « d’information ». Il existe plusieurs techniques pour y remédier, par exemple régler le basculement à ½ de la valeur de chaque palier (e.g. 3,5 pour 4) ou augmenter le nombre de comparateurs en choisissant un pas de référence plus petit ; cela devient rapidement plus coûteux, mais on minimise l’erreur, sans pour autant l’éliminer complètement. Mais tel est le travail d’empirie : c’est une adaptation asymptotique au monde à transformer.

Quoi qu’il en soit, le phénomène est désormais numérisé. Il existe d’autres sorte de CAN, mais le « Flash » est, pensons-nous, le plus facile à expliquer ; on l’utilise par exemple pour numériser du son à traiter en compression MP3.

6 Le traitement du signal

Nous constatons donc que les ingénieurs opèrent une toute autre analyse que celle des mathématiciens, même si l’on peut avoir la fausse impression que le logos l’emporte sur la praxis technique. Les signaux numérisés sont susceptibles de traitements : analyse et modification. Il est courant, dans la littérature universitaire, d’aborder ces opérations sous l’angle des algèbres, et nous ne contestons pas l’intérêt de ces approches ; cependant, de quelque manière qu’on s’y prenne, que l’on ait recours à un logiciel ou directement à un automate électronique, en dernière analyse le traitement est opéré au moyen de dispositifs électroniques sous-jacents (comme par exemple l’Unité Arithmétique et Logique d’un ordinateur) même pilotés par des programmes. Lesquels programmes ne sont jamais davantage que des impulsions codées, c’est-à-dire des signaux.

6.a La transformée de Fourier

Dans le troisième document en annexe, nous prenons le prétexte de la transformée de Fourier pour atteindre les dispositifs les plus basiques de traitement des signaux, sans aller toutefois jusqu’à l’analyse des engins constituant ces dispositifs. La transformation de Fourier n’est pas une fin en soi, elle ne vaut que par les modèles épitactiques qu’elle offre à l’ingénieur, et les domaines concernés sont nombreux : analyse fréquentielle des signaux, suppression d’échos, de bruits, analyse/synthèse/reconnaissance de la parole, transmissions, radio et télévision numériques, interférométrie et spectroscopie, RMN, et même traitement d’images.

Indiquons rapidement de quoi il s’agit : Fourier, au XIXe siècle, a montré que sous certaines conditions (dérivation et continuité), tout signal continu périodique de période T peut s’écrire sous forme d’une somme de signaux sinusoïdaux. Dans son expression trigonométrique, cette décomposition prend la forme

qui permet à chaque pas n de calcul de calculer le coefficient de Fourier correspondant soit  pour le spectre d’amplitude et φn = arctan (Bn/An) pour le spectre de phase. Cn est l’harmonique de rang n composant le signal s(t). Le signal est alors la somme :

.

Concrètement, pour un signal composé de trois fonctions sinusoïdales de fréquence respectivement 2, 4 et 6 Hz et d’amplitudes 4, 6 et 2 V, le spectre d’amplitude (voir ci-dessus) fera apparaître trois histogrammes correspondant en hauteur (amplitude) à a0 (le fondamental), C1, C2. On passe donc d’une observation en fonction du temps à une observation en fonction des fréquences.

Le document annexé détaille (de manière un peu trop simpliste pour un spécialiste, cependant ésotérique pour un néophyte) les opérations mathématiques d’une transformée de Fourier. La transformée a ensuite été étendue à des fonctions apériodiques. Toutefois, la transformée de Fourier exige un grand nombre de calculs et ne peut pas s’effectuer sur l’ensemble du flux des « adeptas » numériques sortant du CAN : on opère donc sur un ensemble fini de valeurs numériques, jugé suffisant pour fournir les renseignements nécessaires, par exemple 1024 valeurs prises entre deux moments t0 et t1023 [21]. Néanmoins, même avec 1024 valeurs, il faut 1 048 576 pas de calcul ; pour économiser du temps, on a inventé la méthode de Transformation de Fourier Rapide (TFR, en anglais : FFT) qui permet de diminuer le nombre de pas de calcul d’un facteur cent. Le principe est simple : au lieu d’effectuer une seule transformée complexe, on en calcule plusieurs élémentaires [22].

6.b Synopsis d’un dispositif pour la transformée de Fourier

De nombreux appareils, tels les analyseurs de spectre ou certains oscilloscopes ont des dispositifs électroniques opérant la TFR. Un schéma synoptique de l’ensemble fonctionnel (inspiré de Morita, 1995, p. 86) est indiqué ci-dessous (schéma 7) [23].

Schéma 7

Les valeurs numériques produites par le CAN sont stockées dans un tableau en mémoire. On remarquera que les calculs fondamentaux abordés par le modèle mathématique se retrouvent dans ce schéma : la sommation Σ, la multiplication par le cosinus (pentagones M). Les X0-p indiquent les valeurs indicées dans le tableau numérique, N est le nombre d’échantillons, k est le rang d’un harmonique dans la transformation.

Sans entrer dans le détail, signalons que nous avons un ici un calculateur fonctionnant en mode séquentiel : une valeur Xn est soumise à des multiplications successives, chaque résultat étant ensuite ajouté par Σ et le résultat envoyé en mémoire pour chaque valeur de k. Cela suppose qu’une valeur Un entrée à un instant t soit traitée par un multiplieur, laissant une valeur Un-1 entrée en t-1 encore disponible pour être traitée par le multiplieur suivant, et reste elle-même disponible lorsqu’une valeur entrée en t+1 se présente au multiplieur précédent : c’est le rôle des temporisateurs unitaires, dont le fonctionnement est asservi à une horloge.

Temporisateur, multiplieur, sommateur : pour l’ingénieur, ces sous-ensembles correspondent à des « circuits intégrés », tel le sommateur 7483 [24], disponibles dans l’appareillage industriel. Connaissant les caractéristiques de ces circuits, il peut arrêter là son analyse, et prévoir la déictique épitactique nécessaire à l’assemblage de l’ouvrage : calculs, dessin des circuits imprimés, topographie de l’implantation etc. Cependant, il sait que ces circuits intégrés ne sont que des « boîtes noires » cachant des organisations plus « profondes ». Celles-ci concernent également l’ergologue.

6.c Des coalescences de « portes logiques »

Nous venons d’évoquer les temporisateurs. Ils regroupent deux circuits dits « bascules », le premier étant le « maître », le second « l’esclave ». Chacun est composé d’un circuit regroupant quatre « portes » : un inverseur et quatre circuits dits « NAND » commandés par une horloge H (schéma 8).

Schéma 8

Le fonctionnement de ce dispositif est expliqué dans le troisième document en annexe. Les deux bascules peuvent être placées dans un seul boîtier comme dans le cas du circuit intégré 7474 [25]. Mais pourquoi parle-t-on de « portes logiques » ? Tout simplement parce que leur fonctionnement est modélisable exactement par des algèbres de Boole. Ce qui signifie que non seulement ce que l’on observe expérimentalement de leurs réponses aux états de leurs entrées est modélisable, mais aussi que leur « comportement » futur, qu’elles soient isolées ou câblées en dispositifs plus complexes, comme dans le cas des bascules, est strictement prévisible par le calcul booléen. On associe ainsi à chaque type de porte une table algébrique des états, ou « table de vérité » logique – et pour cause : les algèbres sont des modes d’écriture de la logique, précisément du langage dans sa visée scientifique. Par exemple, la « NAND », considérée parfois comme la porte universelle [26], est associée à sa représentation algébrique ci-contre, où A et B sont les entrées, S la sortie, 0 et 1 les états. C’est donc par commodité que l’on parle de « portes logiques », car nous avons affaire à des dispositifs strictement techniques. Pour le vérifier, descendons à un niveau plus profond d’analyse, en examinant le schéma électrique d’une NAND (ci-dessous). L’idée est d’utiliser deux transistors montés en cascade et fonctionnant en commutation : lorsque leurs bases A et B sont alimentés par une tension représentant un état 1, ils deviennent conducteurs et la tension entre la sortie de la résistance R et la masse est nulle (court-circuit) : S est à l’état 0 ; dans le cas où (A et B) ou (A ou B) sont à l’état 0, la tension est celle existant entre la résistance et la masse et la sortie S présente l’état 1. Ce fonctionnement correspond exactement à la « table de vérité » de la NAND. Les algèbres de Boole remplissent donc à la fois un rôle épitactique et un rôle théorétique (descriptif), mais l’art est proprement aux ingénieurs.

Nous sommes arrivés à un niveau d’analyse nous permettant de comprendre ce sur quoi se fonde la « technologie » numérique : des tensions électriques correspondant à des seuils permettant de distinguer un état « bas » d’un état « haut » [27], tensions obtenues grâce à un arrangement particulier de composants de base comme les transistors, résistances etc. Telle est la réalité technique. « 0 » et « 1 » ne sont en fin de compte que des descriptions de l’art (théorétique), que l’on remplace parfois par « L » (low) et « H » (high), ou « F » (faux) et « V » (vrai).

6.d Des opérations basiques

Nous avons, dans le synopsis, indiqué avec les temporisateurs, les dispositifs appelés multiplieur et sommateur. Examinons le multiplieur, car il procède par « intersection » puis, comme le sommateur, par « addition ». D’un point de vue théorétique, l’intersection correspond au ET booléen (voir tableau ci-dessous).

e1e2s
0 0 0
1 0 0
0 1 0
1 1 1

Pratiquement, on placera le multiplicande dans un registre (zone de mémoire) A et le multiplicateur dans un registre B et l’on procédera exactement comme pour n’importe quelle multiplication, en deux « boucles » de calcul imbriquées [28] : pour i de 0 à 7, pour j de 0 à 7, faire Sj := Bi ET Aj. Les résultats partiels sont stockés dans un registres S accessibles à l’additionneur.

L’additionneur est a minima composé d’une porte OU Exclusif (XOR, notation ⊕ en algèbre de Boole) connecté en parallèle avec une porte ET (notée · en algèbre de Boole). Il fonctionne en prenant les valeurs bit par bit dans deux registres (par exemple S, comme plus haut, et M contenant le résultat des sommes précédentes). La porte XOR ne sort un état 1 que si ses entrées sont dans des états opposés (0,1 ou 1,0). La sortie est à 0 dans deux cas : 0,0 ou 1,1. Mais dans le second cas, 1 + 1 donne 10 en binaire : on inscrit 0 et on retient 1. La retenue est donc à gérer, et l’additionneur complet est en fait composé de deux additionneurs comme le montre le schéma ci-dessous, avec une sortie unique S et une porte OU (OR) propageant une éventuelle retenue.

Le document en annexe développe plus largement les opérations basiques, en envisageant également la soustraction et la division. Notons que dans notre exemple, le travail est séquentiel, effectué en deux boucles imbriquées ; mais cela demande du temps de calcul, en termes de cycles d’horloge. Aussi, choisit-on plutôt des circuits intégrés comportant autant de portes ET et d’additionneurs fonctionnant en parallèle, en fonction du nombre de bits à traiter. Le coût de fabrication est plus élevé, mais le gain de temps l’emporte : l’empirie, toujours.

Bascules, portes ET, additionneur, soustracteurs (variante de l’additionneur), diviseur, registres : nous avons là les composants fondamentaux d’un dispositif complexe opérant la transformée de Fourier, mais, parce qu’ils sont polytropes, bien d’autres opérations « arithmétiques et logiques » modélisées par les algèbres de Boole. Ces dernières permettent de dériver à l’infini des théorèmes (calculs), mais dans la production calculée, on rencontre constamment un conflit entre la vitesse d’exécution et l’architecture exécutante. Par exemple, un signal s’atténue en passant par une porte, et donc la sortie n’est pas systématiquement à la tension attendue, il faut donc compenser la perte. De plus, une porte est physiquement limitée quant au nombre de portes que l’on peut lui connecter (sortance). De fait, l’analyse technique résout des problèmes, mais elle en fait exister d’autres.

6.e De plus...

Si l’on connaît le spectre de fréquences d’un signal grâce à la TFR, il est possible d’éliminer les fréquences indésirables, en les filtrant. Nous avons déjà évoqué les domaines d’application de cette transformée, ajoutons le traitement d’images que permet une TFR double, jouant sur deux dimensions et non plus sur une seule comme précédemment. Le document annexé développe succinctement cette technique.

Ces « modules » industriels basiques effectuant les quatre opérations sont fondamentaux. En effet, on peut le déduire de la configuration des portes, l’ordinateur ou une machine numérique ne peut faire que des opérations fondamentales. Par exemple un calcul d’intégrale doit être réduit à des additions, divisions, soustractions, multiplications, quelle que soit la méthode employée, rectangles, trapèzes, Newton-Cotes, Gauss-Legendre, Monte-Carlo... Mais la machine les fait à une vitesse bien supérieure à celle du cerveau humain. Les modèles mathématiques eux-mêmes sont par conséquent sujets à développements en séries arithmétiques – comme par exemple des séries polynomiales. En fin de compte, on adapte moins la configuration technique aux modèles que l’inverse. L’outil numérique impose, comme tout outil, son « mode d’emploi ».

Conclusion

Les technologies numériques constituent donc un domaine relevant ergologiquement de l’analyse technique de fabrication et de son réinvestissement industriel. La complexité des ouvrages produits dans ce domaine ne saurait faire oublier leur parenté formelle avec les autres ouvrages, si simples que puissent paraître certains d’entre eux. L’étude de l’obtention et du traitement des signaux numériques nous montre que basiquement des dispositifs polytropes en petit nombre – on compte six portes logiques de base – répondent à des tâches très précises, et que mis en coalescence ils permettent des opérations complexes de calcul, d’analyse, de commande.

On a vu que les modélisations scientifiques, notamment les algèbres de Boole, entretiennent avec ces ouvrages non point une relation orientée de conceptualisation à réalisation pratique, mais une relation de représentation théorétique expliquant le fonctionnement, et de « recette » épitactique permettant la production calculée, l’outil numérique demeurant néanmoins autonome par rapport à ces modèles. La preuve en est que les modèles mathématiques doivent en fin de compte s’adapter pour que des calculs algébriques complexes soient réalisables par quatre opérations électroniques fondamentales.

Enfin, la numérisation des signaux, du fait qu’elle introduit du discret, donc de la discontinuité dans le monde qu’elle traite entraîne une perte relative d’ « information » ; nous avons rencontré ce phénomène dans le cas de l’imagerie numérique comme dans celui de l’analyse numérique des phénomènes vibratoires. Toutefois, l’empirie vise-t-elle à diminuer asymptotiquement cette perte, de manière à ce que l’ouvrage produit soit exploitable (cas, par exemple de l’esthématopée rendue possible malgré les techniques de compression, ou encore de la protection de l’intégrité des « adeptas » lors de la transmission).

Nous aurions pu développer une analyse dans un autre domaine que ceux concernant le grand public et les physiciens : celui de l’automatique numérique qui fait fonctionner la machine à expresso, guide les fusées, commande les robots, etc. Cette question n’est abordée trop rapidement qu’à la fin du troisième document. Toutefois les principes techniques de base demeurent en grande partie les mêmes.

Peut-être la lecture de cet article a-t-elle paru rébarbative pour l’ergologue néophyte en matière de techniques numériques. Quant à l’ingénieur, il a pu se scandaliser des approximations et raccourcis, voire de quelques erreurs s’étant glissées çà et là malgré notre attention. Néanmoins, nous espérons que ces renseignement somme toute assez basiques inciteront à la lecture attentive des documents annexés, afin d’examiner « le numérique » à la lumière et dans l’intérêt d’une ergologie cherchant à affiner ses concepts.

Bibliographie

BRUNEAU, Philippe et BALUT, Pierre-Yves (1997). Artistique et Archéologie, Mémoires d’Archéologie Générale 1-2, Paris, Presses de l’Université de Paris-Sorbonne.

COUTY, Bernard (2001). « Un autre regard sur l’ordinateur », Tétralogiques, n° 14, p. 19-44.

COUTY, Bernard (2018). La fabrication des signaux, 〈hal-01735798〉.

COUTY, Bernard (2018). Des exemples de traitements digitaux, 〈hal-01731088〉.

COUTY, Bernard (2018). Analyse de dispositifs digitaux, 〈hal-01731093〉.

GAGNEPAIN, Jean (1990). Du Vouloir Dire, I. Du signe, de l’outil, Paris, Livre et Communication. Ou en ligne : Matecoulon-Montpeyroux, Institut Jean Gagnepain, 1982-2016 – édition numérique – v.1. Url : https://www.institut-jean-gagnepain.fr/œuvres-de-jean-gagnepain/

GUYARD, Hubert (1987). Le concept d’explication en aphasiologie, Thèse pour le Doctorat d’État, Université de Rennes 2.

MORITA, Kiyoshi (1995). Applied Fourier Transform, Tokyo – Amsterdam, IOS Press.

Notes

[1Bernard Couty, 2018, La fabrication des signaux, 〈hal-01735798〉.
Bernard Couty, 2018, Des exemples de traitements digitaux, 〈hal-01731088〉.
Bernard Couty, 2018, Analyse de dispositifs digitaux, 〈hal-01731093

[2Pour cette raison, nous avons jadis proposé de considérer l’ordinateur comme un sémapracteur, c’est-à-dire un appareil de traitement de signaux (Couty, 2001).

[3 http://fr.calameo.com/books/004256125661f19fe0a15 (consulté le 2 mars 2018).

[4L’industrie produit aussi des rayonnements fabriqués : les ondes hertziennes de la radio en sont un exemple.

[5Les photosites sont souvent appelé « pixels » par erreur, car les pixels fonctionnent à l’opposé des photosites : ils reçoivent une charge électrique qu’ils convertissent en rayonnement lumineux.

[6« Information » est à prendre dans l’acception de la physique, c’est-à-dire le renseignement obtenu de l’état d’un phénomène.

[7Un octet est une unité de huit bits codant des valeurs numériques de 0 à 255 dans le cas d’entiers non signés.

[81 kilooctet (ko) = 1024 octets.

[9Non commutatives : elles se suivent obligatoirement dans un ordre a-b-c-...-g, de même que la décompression suivra l’ordre strictement inverse. Il n’y a pas commutativité mathématique des opérations.

[10Les lettres majuscules entre parenthèses comme (A) notent une étape du traitement.

[11Les valeurs entières ne correspondent pas toujours aux pourcentages réels, calculés avec des décimales.

[12On raisonne ici comme s’il n’y avait pas déjà eu de codage RLE, pour simplifier.

[13Adeptas (vocable proposé pour remplacer « données ») : féminin pluriel du nominatif masculin latin adeptus, participe de adispicor, obtenir, atteindre. Les exemples précédemment développés montrent qu’en fait rien n’est jamais « donné » naturellement, mais toujours obtenu par transformation à l’aide de dispositifs techniques. Les « données » n’ont pas plus d’existence que les « matières premières ». Nous aurons encore l’occasion de le montrer avec la conversion analogique-numérique.

[14Parité : si la somme des bits de l’octet est paire, la parité est 1, 0 si elle est impaire.

[15Méthode cependant différente de celle employée pour coder les DVD.

[16On en verra un exemple de montage pratique dans le document trois.

[17RLC : résistance, inductance (bobinage), capacité (condensateur).

[18Bien entendu, ce dispositif synergique n’est pas insécable, mais s’il vient à manquer un élément, il n’y a plus d’échantillonnage.

[19C’est la représentation américaine, assez généralement reçue.

[20741 est une référence générale pour ce type d’AOP. Il est vendu sous cette référence chez différents fabricants, par exemple LM741 chez Texas Instruments.

[21Cet intervalle est appelé « fenêtre » ou « fenêtre d’observation ». Il en existe de plusieurs sortes : rectangulaire, de Hamming, de Barlett, de Han, de Blackman, etc.

[22Le troisième document annexé détaille l’algorithme de Cooley et Tukey avec un exemple écrit en code Pascal de Delphi.

[23Il s’agit d’une « déictique de l’art », soit « la représentation perçue des engins, des actes et des procédés de fabrication. » (Bruneau et Balut, 1997, p. 123). Ce schéma représente en réalité une transformée discrète de Fourier, TFD, et non une TFR.

[247483 est l’appellation générique d’un type d’additionneur 4 bits en boîtier de circuit intégré.

[257474 est la référence d’un type de circuit intégré, vendu par différents fabricants, par exemple DM7474 de Fairchild Semiconductors.

[26Non pas parce qu’à elle seule elle puisse réaliser les autres fonctions logiques comme le ET, le OU etc. mais parce que toutes ces fonctions sont réalisables à partir de NAND associées.

[27En logique CMOS, l’état « bas », 0, est obtenu par une tension de sortie inférieure à 1/3 de la tension d’alimentation de la porte considérée, l’état « haut » est obtenu par une tension supérieure à 2/3 de la tension d’alimentation.

[28On suppose que l’opération se fait sur des entiers non signés codés sur un octet, les bits étant numérotés de 0 à 7 de droite à gauche.


Pour citer l'article :

Bernard Couty, « Éléments pour une analyse ergologique des techniques numériques »in Tétralogiques, N°23, Le modèle médiationniste de la technique.

URL : http://www.tetralogiques.fr/spip.php?article92


Tétralogiques,
N°23, Le modèle médiationniste de la technique

Table

Le modèle médiationniste de la technique, pour un renouveau des sciences de l’art

| | Table générale des numéros | Suivre la vie du site | Valid XHTML 1.0 Transitional