|
|
26 juillet 2000. La France est au lendemain de l’accident du Concorde. On n’accordera donc aucune attention à la mort de John Wilder Tukey, mathématicien et statisticien américain. Il est pourtant l’inventeur, à côté d’une oeuvre scientifique de premier ordre, de deux mots essentiels du vocabulaire moderne : software et bit. En marge d’une conférence tenue durant l’hiver 1943, il semble qu’il ait conduit une discussion animée au cours de laquelle il suggéra de raccourcir l’expression « binary digit » (chiffre binaire) en bit, après avoir rejeté les propositions « bigit » et « binit ». C’est Claude Shannon, le père de la théorie de l’information, qui reprit le terme dans un article de 1948, en l’attribuant à Tukey. Mais d’autres sources datent l’apparition du mot de 1946 ou 1949. Peu importe, il est contemporain des tout premiers ordinateurs, et il continue vaillamment d’accompagner leur carrière, certes boursouflé, inflation oblige, de préfixes vertigineux : mégabit, gigabit et bientôt térabit. Le bit, cet atome de l’informatique, n’est cependant pas si simple à comprendre. L’édition 1979 du Petit Larousse Illustré en donnait l’extraordinaire définition suivante : « unité d’information correspondant au logarithme de base 2 ». Diantre. Il ne faut peut-être pas chercher ailleurs l’origine du retard français en matière de technologies de l’information. Mais on peut trembler à l’idée qu’arrive à l’âge des responsabilités une génération qui, enfant, a compris que le bit était le « logarithme de base 2 ». Les années Mitterrand virent une définition plus rassurante s’imposer chez Larousse: le bit était « une unité élémentaire d’information ne pouvant prendre que deux valeurs (1 ou 0) ». C’est, en gros, ce que l’on trouve encore partout. Un bit, ça vaut un ou zéro. C’est le petit soldat du « langage binaire ». Les ordinateurs sont bêtes (ou puissants) car il sont binaires. Et on passe à autre chose. Pourtant un bit, c’est vertigineux. C’est, au départ, un dispositif : un transistor qui peut être dans un état ou dans un autre, on ou off, la tête en bas ou la tête en haut. Mais jamais entre les deux, ni dans un troisième état, on y perdrait son latin. Là où ça devrait devenir mystérieux, c’est quand on passe du dispositif à ce qu’il représente, du contenant au contenu, c’est-à-dire l’information. Qu’est ce que ça veut dire une « unité élémentaire d’information », quand on n’a pas défini ce qu’est l’information ? Normalement, rien. En fait, chez Shannon et Tukey, cela avait un sens précis (l’information c’est l’inverse d’une probabilité) mais assez difficile à exposer aux enfants. Du coup les auteurs de dictionnaires eurent le choix entre deux versions de la messe en latin. La première, ridicule dans sa formulation mais pas dans son projet, était celle du Larousse de 1979 : car il y a bien un rapport entre le logarithme et la quantité d’information, mais l’éditeur s’est arrêté bien avant le milieu du gué. Et il y a la version moderne, celle de l’unité élémentaire d’information, qui passe bien, mais qui est, au minimum, une mésinformation. De toutes façons, chez nous, le mot bit bénéficie évidemment de sa phonétique. Naguère on ne découvrait l’informatique qu’au lycée, et cette euphonie était après tout un moyen de la découvrir en ricanant. Aujourd’hui beaucoup d’enfants apprennent le petit mot avant le gros. Le succès du raccourci de John Tukey raccourcira peut-être le succès du gros mot. |
|
|
Copyright 2000-2005 CLVE - Tous droits réservés |