Du graphique binaire à l'interaction élémentaire

Par Gérard A. Langlet

 

Graphiques binaires

 

Soit à représenter la variation d'une courbe par une suite de bits ne contenant que 0 et 1.

 

Prenons l'exemple de la sinusoïde.

 

Le but n'est pas de conserver les valeurs exactes des ordonnées (sinus) mais d'obtenir, avec la suite de bits de longueur minimale possible, strictement la même information visuelle qu'avec le graphe de la fonction classique, dans les mêmes conditions (lesquelles ne dépendent que du pouvoir séparateur du plus mauvais appareil de toute la chaîne du traitement de l'information).

 

Supposons que le plus mauvais appareil, l'écran graphique ou cathodique par exemple, ait une résolution de 256 points en tout.  On ne pourra afficher que des valeurs entières entre 0 et 255 comme ordonnées.  Il sera alors inutile de conserver autre chose qu'un codage des ordonnées en entiers courts (8 bits soit 1 octet) si cela est possible.

 

L'objet de la présente discussion est d'optimiser le traitement et la conservation de l'information dans le cadre général de la compression algorithmique :

 

obtenir les programmes les plus courts possibles,

exigeant le moins de mémoire intermédiaire,

et s'exécutant le plus vite possible.

 

On considère une sinusoïde à N intervalles,  ce qui, originellement, exige de conserver N+l flottants (chaque flottant IEEE occupe 64 bits).

 

Pour fixer les idées, avec N=1000, conserver 1001 sinus exige 64064 octets.

 

On peut décaler l'origine vers le haut en ajoutant 1 (ce qui revient à ôter le minimum des ordonnées donc -1), puis multiplier par 255 (résolution-1), et ensuite arrondir à l'entier le plus proche.  On conserve alors 1001 entiers à 8 bits soit 8008 bits, ce qui suffit, vu la résolution de l'écran. (En général, les entiers à 8 bits n'existent pas dans les systèmes informatiques courants, mais on peut toujours coder ces entiers en caractères car, justement, chaque caractère occupe en général 8 bits, à condition que le langage informatique choisi permette des conversions rapides.)

 

Est-il possible de faire mieux ???

Oui : 

Cela dépend du graphe à conserver : la sinusoïde ne sert que d'exemple.

 

Formons D, la suite des différences finies sur la suite des valeurs entières déjà arrondies.  Si N est suffisamment grand (N ³ 802 dans le cas d'une sinusoïde), il n'y a jamais d'écart supérieur à l'inverse de 128, moitié de 256, entre deux ordonnées successives.  Autrement dit, D ne contient que des entiers Î {-1, 0, 1} et rien d'autre (802 entiers).

 

Si, maintenant, au lieu de conserver ces entiers, on conserve les différences successives en une seule suite de bits, avec la convention suivante :

 

à la différence      -1 correspond la suite de 2 bits 0 0,

    "        "              0 correspond la suite de 2 bits 0 1 (ou 1 0),

    "        "              1 correspond la suite de 2 bits 1 1.

 

On aura alors codé les 803 valeurs dans une séquence S de 1606 bits soit 201 octets seulement.

 

Non seulement S contient, en quatre fois moins de place, rigoureusement la même information que D, mais peut être traité directement en binaire par exemple à l'aide d'algorithmes ultra-rapides et exacts de traitement de signaux binaires (intégration binaire, transformation cognitive, etc... ).

 

D'ailleurs, la somme propagée de S après remplacement de 0 par -1/2 et de 1 par 1/2 (des valeurs de "spins" classiques?), reproduit 1606 valeurs entières comprises entre -127 et +128 après arrondi.  Sur le même écran que celui utilisé pour dessiner le graphe original de la sinusoïde initiale, et dont la résolution vaut exactement 256 pixels (de 0 à 255), ce nouveau graphe recouvre l'autre exactement.

 

Avec des fréquences d'échantillonnages plus élevées, on peut aussi regrouper les bits par paquets de différentes longueurs car le principe de la séquence S est, potentiellement, le codage idéal de tout signal.

 

D'ailleurs, le rapport du nombre d'intervalles nécessaires (802) pour 255 intervalles possibles, vaut Pi, avec un codage sur deux bits (ceci est lié à l'expérience de l'aiguille de Buffon).

 

Et, comme tout signal périodique peut être considéré comme une somme de sinusoïdes (Fourier), le procédé se généralise aisément par la pensée à l'ensemble de ces signaux.

 

Dans tout signal binaire considéré comme périodique, sur un multiple entier de la période, le dernier point se raccorde au premier, ce qui est évident pour une sinusoïde; le nombre de 1 de la séquence binaire correspondante est alors toujours égal au nombre de zéros.

 

Mais on a vu qu'il existe un choix entre 0 1 et 1 0 pour coder une différence nulle.  Comme il existe quatre combinaisons possibles dans un codage à deux bits et que seules trois ont été utilisées, la quatrième possibilité permet d'affiner le codage, la proposition de choix entre 0 1 et 1 0 n'étant pas toujours facile.

 

Considérons les différentes configurations pour D Î {-1, 0, 1} avec D[i] courant valant 0 entre D[i-1] et D[i+l] :

 

   -1  \ 0 \ -1 (a)   -1 / 0 - 0 (b)   -1 / 0 / 1 (c)

    0  - 0 \  0 (d)    0 - 0 - 0 (e)    0 - 0 / 1 (f)

    1  \ 0 \ -1 (g)    1 \ 0 - 0 (h)    1 / 0 / 1 (i)

 

Sachant que -1 sera codé 0 0 et que 1 sera codé 1 1, on a le libre choix pour (a) que l'on peut coder 0 0 0 1 0 0 ou 0 0 1 0 0 0;

 

on peut coder D[i-1],D[i] dans (b) et (c)   :  0 0, 0 1 

 

Inversement, (d) sera codé 0 1 0 1 0 0 ou 1 0 1 0 0 0,

mais le choix                      0 1 1 0 0 0 ou 1 0 0 1 0 0

n'est pas non plus stupide ; en binaire comme dans la Nature, la règle va consister à faire alterner les parités opposées le plus possible, dans toute la séquence :  répartir équitablement deux 1 et quatre 0 dans 6 cases relèverait de la combinatoire si ce petit jeu de répartition n'était pas général; il porte en fait sur toute la séquence et seul un mécanisme dynamique pourra tenter d'équilibrer les parités sans jamais y réussir, sauf si tout l'univers de la séquence est déjà à zéro en différences successives partout. 0 1 0 1 0 1 0 1 0 1 est une séquence "morte" (codant 0 partout), sauf que si on considère une telle séquence comme immergée dans une séquence de zéros, il existerait un 0 à gauche de sorte que deux 0 se suivraient, ce qui est inacceptable : une propagation de quelque chose "tendrait" alors à propager "l'équilibre" (alternance) vers la gauche et son "infini vide" ...

 

La logique de l'équilibre impossible

 

Les seules fonctions logiques capables d'assurer un équilibre entre des couples de parités (donc par une interaction élémentaire) sont nécessairement réversibles.  Il ne peut alors s'agir que de fonctions non absorbantes, autrement dit dont la table de vérité soit symétrique.  Seules deux fonctions ont cette propriété la DIFFERENCE LOGIQUE, que nous noterons ¹ (cf.  Normes IS08485e et f, ratifiées par AFNOR) et son complément, la NON DIFFERENCE autrement dit l'EGALITE LOGIQUE, notée =    (même norme).

 

Si A est différent de B, donc si A¹B est vrai, on utilisera la notation         : 1 º A¹B Il n'y aura alors aucune ambiguïté.  Comme le Principe de Pauli (statique) exprime justement que les spins de deux électrons possédant par ailleurs les mêmes propriétés (tous autres nombres quantiques identiques), doivent être différents, nous choisirons ¹ de préférence à = comme notation de base de l'interaction élémentaire au niveau des parités.  To be (1) OR (OU EXCLUSIF) Not_to_Be est VRAI (That is the "TRUE" question) : est une autre raison, de nature logique fondamentale, car 1 º 1 ¹ 0 est correct, comme son énoncé phrasal.  La base du raisonnement humain DOIT être la même que celle des interactions physiques qui le permettent.

 

Mais la physique nous apprend aussi que si l'état fondamental est décrit par ­¯ ou par ¯­, l'état excité est noté ­­.

 

Il est alors nécessaire que le mécanisme faisant passer de ­­ à ­¯ ou à ¯­ soit asymétrique (chiral) : l'un des deux ­ ne change pas tandis que l'autre bascule. Si ­ est noté 1 et que ¯ est noté 0, l'application l¹l (donc entre ­ et ­) produit bien 0 (FAUX) ou ¯, mais ce résultat ne peut concerner que l'une des deux parités existantes, soit vers la gauche, soit vers la droite.  Par convention d'écriture (de gauche à droite avec l'alphabet latin utilisé en occident, et dans l'écriture des suites de variables ainsi que dans la notation numérique) on écrira que l'état suivant de ­­ sera ­¯ ou que celui de l¹l sera 1 0, le résultat de l¹l soit 0 étant la nouvelle parité (spin) de l'entité de droite.  Tout se passe comme si, dans A B, A avait fait basculer (inversé) la parité de B).

 

On peut, en utilisant le signe \ (rétro-barre) pour exprimer que la propagation s'étend de gauche à droite, le bord gauche plus haut du symbole \ indiquant que A domine B, écrire que l'état suivant de tout couple (A,B) sera, comme on l'a vu (A, A¹B), mais aussi ¹\ (A,B).

 

Pour simplifier, on peut ôter aussi bien les parenthèses que la virgule, et proposer :

 

Le résultat de ¹\ A B sera A A¹B par définition.

 

N.B. Il n'existe pas de notation mathématique courante pour ces notions.  Autant en introduire une, avec des symboles simples, en accord avec des normes récentes (1989).

 

En binaire, on n'utilisera jamais le signe ´ et l'on peut alors proposer que la notation AB désigne A¹B c'est-à-dire une seule parité, résultat de cette opération de différence logique entre deux parités A et B avec (A,B) Î {0,1}.

 

0 et 1 seront toujours respectivement synonymes des couples de mots FAUX ou VRAI, ABSENT ou PRESENT, RECESSIF ou DOMINANT, FROID ou CHAUD, BASSE_PRESSION ou HAUTE_PRESSION, HAUT ou BAS, etc... tous les "ou" de cette phrase étant, bien entendu, exclusifs.

 

Toutefois, le binaire a un aspect très ambigu  : si 1 est matière, 0 est soit antimatière (isomorphisme avec la logique VRAI/FAUX), soit absence de matière (isomorphisme avec l'algèbre entière modulo 2, où 1 est Quelque Chose et 0 est RIEN).  Dans le cas logique,  ¹ est OU EXCLUSIF; dans le cas algébrique modulo 2, ¹ est PLUS MODULO 2. Alors, 0 peut être une anti-entité (comme pour les fermions, électrons et protons), soit une absence d'entité (bosons comme les photons, lacune ou défaut stoechiométrique, absence d'atomes dans les cristaux).

 

Si alors l'état suivant du couple A B est nécessairement A AB, donc donné par ¹\ A B , quel sera l'état suivant du couple A AB ?

 

La réponse est alors ¹\ A AB donc ¹\ A A¹AB . Mais A¹AB est aussi A¹A¹B . Comme ¹ (aussi bien DIFFERENT LOGIQUE que PLUS MODULO 2) est une fonction commutative et associative, ce dernier terme se récrit : (A¹A) ¹B ce qui se réduit à B car A¹A est toujours faux et vaut 0 et que 0¹B se réduit à B quel que soit B Î {0,1}.

 

On voit alors que l'état suivant du couple A B est le couple A AB, et réciproquement, avec un tel mécanisme.  On passe alors de l'état fondamental à l'état excité et on retombe à l'état fondamental (au repos).  Ce qui est vrai pour les particules le sera aussi pour tout système descriptible par des parités, donc tout signal, donc toute forme : Une double séquence de parités (comme un génome) est l'équivalent d'un programme paramétrique, capable de décrire des formes dans l'espace tridimensionnel :

 

Y est une fonction de X (suite de positions quantifiées selon l'axe de propagation), Z est une autre fonction de X. On peut décrire avec un tel système deux champs orthogonaux à une même direction de propagation (que l'on peut appeler par exemple topomagnétiques et topoélectriques).  Le même système décrira aussi une expansion plane en fonction de "quanta de temps". 

Les applications sont vastes.

 

En examinant l'ensemble des actions possibles, on se rend compte que ¹\ est à la fois le modèle mathématique de l'action, mais aussi celui de la moindre action, et ce à tous les niveaux d'imbrication de complexité. ¹ seul est le symbole du "gluon" qui, par le mécanisme ¹\A B , recopie A sur B en le collant à lui pour en faire AB tout en conservant A à gauche.

 

Ce seul modèle explique déjà les états        A B

                                                                A AB (groupes sanguins)

avec la prédominance (observée statistiquement) de A sur B.

 

Mais aussi, si, au lieu de ­ et ¯ on prend X et Y, l'état fondamental devient XY et l'état excité XX pour deux entités (nous-mêmes) résultant d'une opposition de parités bien connue quoique mystérieuse... dénommée sexe.

 

En examinant un certain nombre de systèmes simples, de l'écroulement des dominos à l'effet Branly, des langages de commande de l'informatique aux lois de Mendel, du traitement d'image à la phonétique, nous n'avons pas trouvé d'exception à cette règle simple régissant l'interaction élémentaire, apparemment universelle.

 

Elle s'étend à un nombre quelconque de parités    A  B   C    D

propagée de gauche à droite, donnant                  A AB   C    D

                                               puis                     A AB ABC    D

                                               puis                     A AB ABC ABCD

 

le mot "puis" pouvant ici ne pas convenir pleinement.

 

En effet, un tel mécanisme permanent peut, dès que AB est formé et tandis que la propagation continue vers C, aussi repartir de A vers AB ce qui redonne A B comme on l'a vu, ce dernier B restauré agissant alors sur son voisin de droite, qui si ce dernier est devenu ABC, va donner AC (car BB disparaît). On se rend alors compte que cet ensemble d'interactions en pseudo-ondes modélise des vagues. (En anglais "wave", en allemand "Welle", en italien "onda" ont à la fois le sens d'onde et de vague alors que le français, moins vague (hum!), a deux mots pour ce faire).

 

Sur une séquence initiale de parités S, ¹\ S itéré va construire ipso facto toutes les structures et signaux (dits "chaotiques" ou "semi-corrélés" ou encore "fractals" possibles) sans autre règle.  Mais, dans la Nature, les entités se perturbent les unes les autres et plusieurs directions de propagation existent (voir le caillou dans la mare, la lumière ou le son).  Le "signal" échantillonné a le mérite, comme le montre son graphe, de représenter la propagation d'une mystérieuse propriété, dans une seule direction (que l'on appelle souvent l'axe du temps).  Son étude est capitale, car on ne connaît toujours pas une seule équation capable de gérer et d'expliquer tous les signaux possibles (exemple les signaux en 1/f, ou signaux naturels).  Alors que le génome humain, comme une symphonie de Beethoven peuvent se mettre sous forme d'une suite de bits, on ne voit pas comment il pourrait être question, dans ces deux cas, d'utiliser des équations, pour décrire des lois relatives à autant de milliards de milliards de bits.

 

Non seulement l'algèbre binaire est mal connue, si on la considère sur de vastes structures d'information, mais elle est peu enseignée, alors qu'elle est bien plus aisée, et plus naturelle (les Chinois s'en servaient il y a 35 siècles) que la Théorie des Fonctions.  Cette dernière ne sert à rien pour le traitement efficace de l'information, qui, dans tous nos ordinateurs, s'effectue en algèbre binaire exclusivement, toutes les autres opérations que l'on déclare (ces déclarations ne représentant que des émissions de postulats) approcher le comportement des fonctions, n'étant que des compositions, parfois fort complexes, d'opérations fort élémentaires.

 

Mais le binaire a des propriétés fantastiques : le nombre 2 représenté sur deux bits s'écrit 1 0 alors que le nombre 1 s'écrit 0 1. Or ces deux représentations sont symétriques l'une de l'autre.  Qui se sert de cette propriété?*.

 

Les représentations choisies par les constructeurs et disponibles sur les machines actuelles sont-elles optimales pour traiter n'importe quelle information directement en binaire, notamment à l'aide d'opérations de symétrie?  Une étude de ce seul point aboutit très vite à la réponse : certainement pas.

 

Qu'est-ce que la combinatoire en binaire ? Combien existe-t-il d'ouvrages, même en anglais, traitant d'algèbre matricielle ou tensorielle binaire (inversion, diagonalisation), de calcul intégral binaire, d'optimisation binaire, de quaternions binaires, de graphiques binaires.  Cela aurait tout de même un certain intérêt... car toute fonction binaire donne un résultat toujours juste, et bien plus rapidement que tout ce que l'on pourrait imaginer d'autre ou de ce que l'on a déjà imaginé.

D'ailleurs, toutes les inventions humaines historiquement efficaces dans le traitement de l'information ont toujours et ont toujours eu une base binaire, d'où le succès, à leur époque et parfois encore maintenant, des métiers de Jacquard, ancêtres du ruban de Turing et des cartes de Hollerith, du télégraphe Chappe et de l'alphabet Braille (points ou absence de points), du boulier chinois, encore en usage dans la moitié du monde.  Toutes les transmissions efficaces s'effectuent en binaire, les affichages des écrans et imprimantes en pixels, autre nom graphique des bits.  Les enregistrements les plus fidèles ne sont plus analogiques c'est-à-dire conçus comme du continu, et, immédiatement, la qualité a fait un bond foudroyant.  Les physiciens devraient se demander pourquoi.

 

Ce que nous aimons, comme la musique, s'exprime par des suites de notes, nos gènes sont soit dominants soit récessifs (OU EXCLUSIF); il n'existe pas de famille avec 1,8 enfant bien que ce soit la moyenne nationale.  Le binaire est l'essence même du discret, base de la physique des particules et de la chimie, son âme et son expression quantique à la fois.  Mais on l'ignore, et on ne l'étudie même pas. On se contente de dire qu'il est un pis aller, alors que tout signal, exprimé en binaire, capable d'être une "approximation" de fonction (qu'on ne connaît souvent pas), est toujours indéfiniment intégrable et différentiable, facilement!  Non seulement tout système intégro-différentiel posé correctement en binaire est soluble, mais il contient déjà sa solution dès qu'on l'a posé... Or, toutes les lois reconnues en physique, ont, sans exception, été obtenues par le calcul différentiel et intégral, toutefois la plupart du temps, en posant des "hypothèses simplificatrices", comme la troncature des développements limités, totalement non justifiables, sinon par l'inextricabilité des formules obtenues en l'absence de ces troncatures postulées comme indispensables.

 

En binaire, les troncatures ne sont pas indispensables. 

Après étude de la question, on voit même qu'elles sont nocives.  Comme les algèbres numériques discrètes et la théorie des fonctions ne font que refléter les propriétés du binaire, qui en est le niveau sous-jacent (et non l'inverse), on se rendra compte, petit à petit, que, paradoxalement, les simplifications apportées successivement dans les algèbres numériques et la théorie des fonctions (et que l'on oublie en général après les avoir posées), augmentent la complexité des traitements théoriques ultérieurs dès que l'on cherche à affiner les modèles plus anciens, devenus insuffisants.

 

Il a fallu des années avant d'aboutir à la conjecture initiale (1989-1990) que ce que nous avons défini ici par la notation : ¹\ représentait le modèle plausible de l'interaction élémentaire, qui constitue un mystère depuis des siècles.  Plusieurs années de recherches, consacrées à la seule étude de ce modèle et de ses conséquences, confirment qu'il en est bien ainsi.

 

 

¹\ va gérer la physique, la biologie et la psychologie, par exemple, sans distinction.  Il est impossible d'en faire autant par aucun autre mécanisme ou modèle connu et surtout commun à tant de voies.

 

¹\ est le tenseur asymétrique réclamé par Einstein pour unifier la théorie du champ, le quantificateur général, l'intégrateur d'ordre non entier utilisé en visco-élasticité (Riemann-Liouville), l'Hamiltonien non tronqué, qui, comme on le montre, agit sur l'information (mais qu'est-ce qui n'est pas information, même la désinformation? car une rumeur se propage aussi selon le mécanisme ¹\ !), le principe de Pauli rendu dynamique, l'influx nerveux, etc...

 

On se demande maintenant ce que ¹\ n'est pas.

 

* Remarque du "paginateur"-vérificateur: 

Lire le texte sur les propriétés du nombre de la bête dans l'article de Michel J. Dumontier dans ce même numéro.


Cryptographie

 

Le procédé du chiffrement utilisé est la substitution: chaque lettre est remplacée par une autre, toujours la même.

Le décryptement repose sur la fréquence des lettres.

Les dix lettres fréquentes en français sont, dans l'ordre théorique:

e,s,a,r,i,n,t,u,l,o.

On commence par relever les fréquences des lettres cryptographiques. Mais la recherche est très facilitée par la connaissance d'un "mot probable" indicateur du thème.

Décrypter le cryptogramme suivant, avec le mot probable LAVOISIER:

 

F L T C X O T Z O L C X N N A P K C F A A F B P Z G Z C K B C L F Z R T C R K C Y P L T F U L C F U P K R H F K A C R K Z D X L F A K C B P A X R Z P L L F Z K C F G F T C U F L T C T X L G X K G Z G T C S X C A S X C G V P X K G H P X K R C K U Z L C K X L C Z U H P K R F L R C C O H C K Z C L Y C T C Y E Z U Z C X L K C N X G D K X R F A A X Z N X R P H H P G C F B C Y A C Y P U U C L R F Z K C Z L F R R C L T X G X Z B F L R A F K C H X D A Z S X C L F H F G D C G P Z L J C G F B F L R G.