Ce chantier de recherche constitue le socle fondamental aux autres champs portés par la chaire UNESCO ITEN : l’éditorialisation, la e-médiation des savoirs scientifiques, culturels, pédagogiques ainsi que les interfaces et les objets intelligents que nous concevons, expérimentons, développons et évaluons.

La chaire souhaite participer à l’élargissement de la mise en œuvre de l’interopérabilité normative, notamment dans les domaines de l’éducation et de la culture, et contribuer à apporter collectivement des réponses aux enjeux des mutations contemporaines de la diffusion et la transmission des savoirs liées aux effets de l’innovation numérique.

La normalisation des TICE

Les normes et les standards pour la bonne gouvernance des systèmes éducatifs dans le monde sont au cœur des projets et programmes d’aide au développement de l’UNESCO. La chaire UNESCO ITEN, membre du Réseau mondial des chaires UNESCO en communication (Orbicom), partage cette orientation et l’accompagne dans le cadre de ses missions.

Plusieurs membres de la chaire UNESCO ITEN sont étroitement impliqués depuis de très nombreuses années dans la normalisation des TICE (supports, formats, ressources, processus…) au niveau des instances nationales et internationales. Néanmoins, outre le fait que nous sommes aussi intervenus dans d’autres domaines (documentation, terminologie, codification des écritures, normes de l’audiovisuel), la normalisation et la standardisation du numérique éditorial, du crossmédia, de la médiation des territoires, mais aussi du patrimoine et de la médiation culturelle sont devenus pour nous une préoccupation très importante qui nous a déterminés à en faire l’un de nos 4 champs de recherche et d’intervention. Ainsi, dans ses projets scientifiques de gestion et de publication des données, la chaire UNESCO ITEN s’assure que les données collectées à l’échelle nationale et internationale se basent sur une méthodologie et sur des normes solides, claires et bien définies.    

Elle souhaite notamment participer à l’élargissement de la mise en œuvre de l’interopérabilité normative de l’éducation. C’est dans cet esprit, qu’elle a souhaité contribuer activement en collaboration avec l’Idefi CréaTIC, l’ISO et plusieurs partenaires du monde académique et industriel, à l’organisation en 2015 d’un open forum sur le thème « Normes et standards pour les ressources numériques éducatives » et à la dissémination de ses actes dans cet ouvrage collectif(1).

La chaire UNESCO ITEN prolonge ainsi l’initiative de l’UNESCO, qui a été l’un des partenaires privilégiés du premier open forum organisé en mars 2003 au château de Versailles, conjointement avec l’Agence Universitaire de la Francophonie, le sous-comité 36 de l’ISO et l’AFNOR. Entre Versailles et Rouen, un autre open forum avait aussi été organisé par les mêmes acteurs avec l’aide de l’Université de Strasbourg. L’expertise internationale (portée par des membres et des partenaires de la chaire UNESCO ITEN) et les échanges que cela suscite sont déterminants non seulement pour apporter collectivement des réponses aux enjeux des mutations contemporaines de la diffusion et la transmission des savoirs liées aux effets de l’innovation numérique, mais aussi pour dépasser la posture du consommateur de produits et services normalisés et inscrire résolument dans le débat la définition et le développement de normes et standards.

La normalisation : un objet d’étude et d’implication académique

En choisissant les normes et standards comme l’un de ses quatre champs de recherche, la chaire UNESCO ITEN sait qu’elle désigne de fait une matière académique jusqu’ici rarement identifiée comme telle, mais à laquelle il est indispensable que nous prêtions attention. La normalisation, que nous pouvons entendre comme « activité de création de normes » stricto sensu, mais aussi plus largement comme englobante des normes et standards, est malheureusement un concept très polysémique, et de ce fait assez mal connu et trop souvent uniquement considéré pour trois de ses facettes d’usage les plus connues : la qualité, l’interopérabilité et la sécurité.    

Celui qui s’intéresse à la normalisation (et surtout qui s’implique dans la « fabrique internationale des normes ») en tire de fait non seulement des avantages de compréhension et d’usage, mais il sera surtout plongé au cœur des enjeux mondiaux, technologiques et économiques, présents et prospectifs d’une filière technologique. Depuis la création des grandes agences de normalisation à la fin du XIXe et au début du XXe siècle, la normalisation constitue ainsi un catalyseur indispensable du progrès technologique et conditionne le recours aux produits semi-finis (pour le numérique, notamment les composants électroniques, ce qui se traduit par l’effet dit « loi de Moore(2) »).

Cette définition globale et généraliste des enjeux normatifs motive en soi une mobilisation académique. Nous nous y consacrons à la chaire UNESCO ITEN. Au-delà, nous savons que la matière est complexe, mais surtout il importe de comprendre qu’une recherche en la matière exige obligatoirement une posture de recherche–action. En effet, les instances de normalisation rassemblent au niveau international (ISO) ou même national (AFNOR en France) des collèges dépassant rarement la trentaine d’experts délégués. De fait, la compréhension des phénomènes nécessite au minimum le suivi de deux ou trois années de fonctionnement. De plus, le collège d’experts attendra (et de fait contrôlera) une participation effective au processus de production normative pour chacun de ses experts-délégués. Il en découle que la position d’observateur est quasi impossible. Par ailleurs, le coût des nombreuses missions internationales apparaît exorbitant pour un simple observateur, même scientifique.

La recherche-action nous convient d’ailleurs totalement à la Chaire UNESCO ITEN, où nous privilégions cette posture ainsi que la « création-recherche ».

Quelques caractéristiques des normes et standards

Signalons ici quelques caractéristiques des normes et standards.

Soulignons d’abord que les normes sont distinctes mais complémentaires des standards :
• Une norme stricto sensu est un document formel décrivant de bonnes pratiques industrielles pour réaliser un produit ou un service. Elle est proposée, longuement débattue au sein de collèges d’experts très hiérarchisés, in fine fédérée dans un nombre très restreint d’instances para-onusiennes sises en général à Genève (UIT, IEC, ISO). Ces instances internationales sont en synergie étroite avec une instance nationale de référence par pays : AFNOR, DIN, BSI, ANSI, etc.

• Par contre, un standard est un concept très polysémique. Ce sera avant tout un document, possiblement formalisé mais qui peut être un secret de fabrication permettant à un industriel (ou un consortium) de proposer des produits et services selon des constances de dimensionnement, de qualité, d’interopérabilité, de sécurité.

De ce fait, le standard désignera le plus souvent, de façon consubstantielle, à la fois le produit ou service ET le document normatif mais ce n’est pas le cas des consortiums proposant des standards collégiaux qu’ils éditent. Mieux encore, certains standards collégiaux, par exemple la TEI (Text Encoding Initiatives ou l’EAD (Encoded Archival Description), se font un point d’honneur d’être technologiquement neutres.

La plupart du temps, un processus de standardisation industrielle intégrera bien sûr de nombreuses normes. Dans le domaine des TIC, il faut ainsi bien comprendre qu’un objet aussi convergeant qu’un smartphone est un cocktail (tenu secret) qui marie, selon une recette globale bien gardée, des centaines de normes, standards et brevets de composants qui permettent au son, à l’image, au texte, à la téléphonie, au positioning de tenir dans un objet aussi petit, aussi sûr et aussi communiquant avec la quasi totalité du techno-environnement numérique.

• Il faudrait faire aussi une place à part à ce que certains auteurs appellent des « normes » et que nous préférons désigner sous le terme de « standards collégiaux » (W3C, OAIS, TEI…). Ces standards ne sont pas tenus secrets et les consortiums qui les développent ne visent aucunement le secret professionnel. Néanmoins, si les secrets de fabrication ne sont pas industriels, il existe indubitablement des secrets militaires congénitaux toujours présents dans l’internet. De plus, les collèges d’experts qui participent aux « standards d’internet » bien qu’ils ouvrent en principe le débat, pratiquent de fait un entre-soi, limité aux professionnels et aux chercheurs en informatique. De plus, leur temporalité n’est pas la même que pour les normes. Car poussés par les chercheurs qui sont majoritaires, ils ont une forte propension à vouloir expérimenter puis mettre en œuvre à court terme les dispositifs les plus innovants dès qu’une nouvelle « recommandation (guideline) » est attestée pouvoir fonctionner.

Cela fait d’internet un service global efficace, performant, mais qui ne correspond pas aux exigences d’utilisateurs non experts qui ne veulent pas se réapproprier un nouvel environnement numérique tous les ans.

Cela ne répond pas d’ailleurs aux nouvelles exigences industrielles pour développer les produits et services, que nous font miroiter les GAFSA comme les véhicules autonomes, les applications de santé et de multiples usages de sécurité qui exigent un contrôle exhaustif de l’entièreté du processus normatif. Soulignons d’ailleurs que le dernier sous-comité du JTC1 (comité commun à l’ISO et à l’IEC qui regroupe la quasi totalité des instances normatives des TIC), le JTC1/SC41 a pour objectif l’internet des objets et de ses technologies associées. Il s’agit donc bien de sécuriser la totalité du processus normatif des futures applications à haute exigence de sécurité.

Par contre, du coté des standards collégiaux archivistiques (OAIS) ou du versant technique des humanités numériques (TEI, MEI), comme pour certains logiciels libres, nous sommes face à des standards collégiaux qui, fonctionnent certes dans un entre-soi d’objectifs experts mais largement ouvert, hautement transparent et interdisciplinaire.

À la chaire UNESCO ITEN, nous envisageons les normes et standards comme un objet digne d’enseignement et de recherche. La normalisation n’est-elle pas au niveau international souvent désignée comme un volet technique de la diplomatie ? Les négociateurs nationaux de l’UIT ont d’ailleurs le rang officiel d’ambassadeurs (totalement dédiés à cette seule activité pour les grandes puissances). Aux niveaux micro comme macro-économique, national ou global, la normalisation a des effets importants. La gouvernance des normes s’explique lorsqu’on l’inscrit dans l’histoire des mentalités du milieu du XIXe. et des propositions Saint-Simoniennes.

C’est réellement un débat démocratique mais aussi prospectif, dans lequel nous nous inscrivons à triple titre, comme acteur, comme chercheur et comme enseignant. Car nous prétendons travailler sous plusieurs aspects : technologue, observateur en SHS, pédagogue, spécialiste des patrimoines et de l’édition numérique, mais aussi selon une posture théorique et éthique de l’Humanisme numérique.

La normalisation est très liée à la prospective car elle participe à l’élaboration des futures normes de l’image, du positioning et de la gestion des métadonnées, et peut prédire à court et moyen terme le devenir des technologies alors que l’usager lambda connaît en aval les normes et standards comme des contraintes auxquelles il faut accepter de se soumettre.

En matière éditoriale, les normes sont la question prioritaire pour assurer la pérennité des efforts des acteurs de ces domaines. Une bonne norme patrimoniale, éditoriale, éducationnelle ne privilégie pas telle ou telle solution technique finale, mais elle en donne les exigences, à savoir : formats universels de stockage et d’agrégation de données, contraintes de compression, règles d’accès et de mise en réseaux, organisation sémiotique, structurelle et référentielle des métadonnées mais aussi qualité, sécurité, pérennité (et non pas dépendance industrielle), multilinguisme, multiculturalisme, accessibilité (qu’il s’agisse de nomadisme ou d’handicap), etc.    

Comme la politique ou la diplomatie, la participation au débat et/ou au développement des normes est un travail qui s’inscrit dans un « compagnonnage de cooptation ». Est considéré celui qui à la fois produit et édite in fine des normes, mais aussi sait débattre en consensus au sein de comités techniques TC (Technical Committee), de sous comités SC (Sub-Committees) ou de groupes de travail WG (Working Groups). L’organisation hiérarchique de ces TCs ou SCs se fait par domaine(3). Il faudrait encore citer les normes des métadonnées et des milliers d’autres pour couvrir le seul champ du numérique.

La normalisation participe d’une synergie cyclique entre normes et standards. Une firme qui innove ne peut développer son produit ou service qu’autant qu’elle sait assurer son retour sur investissement en générant un « standard propriétaire » qui lui donne un avantage concurrentiel. Par contre, lorsque l’environnement technologique devient trop disparate, et par là incertain, incohérent, non intercompatible, la communauté des industriels et usagers du domaine technique a alors intérêt à s’allier pour proposer un NWI (New Work Item), ce qui amorcera des débats, puis éventuellement la mise en chantier de normes. Une fois ces normes acceptées par l’ISO ou par des instances nationales telle que l’AFNOR, elles ne sont qu’un volume de texte édité.

Il faudra qu’un industriel (voire un consortium ou un groupe d’utilisateurs) s’en empare et les utilise, seules ou en cocktail avec d’autres normes, pour leur donner la forme concrète d’un produit ou d’un service normalisé. Le cycle par convexion entre normes et standards se boucle de la sorte.

La prise de participation des états d’abord dans la mise en place d’une Instance nationale de normalisation, puis dans le jeu de fédération internationale (ISO, IEC ou UIT, et en Europe, le CEN) est très stratégique macro-économiquement. Il importe ensuite que chaque pays participe par ses délégations au débat d’un nombre maximum de TC ou de SC. Enfin, le partage de gouvernance de ces instances techniques se concrétise par le financement et la prise en main de tel ou tel secrétariat d’un TC ou SC. À ce niveau, la prépondérance technologique et prospective du NB (National Body), qui assure cette gouvernance, est importante.

Dernier point, nous avons souligné que la normalisation s’apparente aux activités politiques et diplomatiques. Il est fondamental que nous soulignions aussi l’aspect juridique de la normalisation. Ces domaines sont très complémentaires mais non exclusifs. Au sein de la chaire UNESCO ITEN, ce lien entre normalisation et question juridique nous mobilise intensément.

Henri Hudrisier

 

Notes
——————-
                1. Normes et standards pour les ressources numériques éducatives : publication, référencement, diffusion, suivi (ouvrage bilingue), Actes du colloque Initiatives 2015 (sous la direction de Mokhtar Ben Henda), Les éditions de l’immatériel, avec le concours d’IDEFI CréaTIC, de l’Agence Universitaire de la Francophonie et la chaire UNESCO ITEN, Paris, 2016.

                2. Loi très controversée qui voudrait, comme le cofondateur de la société Intel Gordon Moore l’avait affirmé dès 1965, que le nombre de transistors par circuit de même taille allait doubler, à prix constants, tous les ans.

                3. Par exemple, MPEG (Moving Picture Experts Group) qui est le groupe de travail du SC 29/WG 11, du JTC 1 : un TC commun à l’ISO et à l’IEC (International Electrotechnical Commission), l’ISO/TC 37 pour les normes de la norme de la terminologie (où se discute notamment les enjeux de la traductique et de la terminotique), l’ISO/TC 46 pour celles de la documentation (mais où sont très actifs l’IFLA, et l’ICOM), le JTC1/SC 36 pour les normes des TICE, normes de la terminologie, le JTC1/SC 2 pour la codification des caractères (d’où découle Unicode, un standard collégial exceptionnel parce qu’il partage contractuellement sa conformité totale avec la norme ISO/IEC 10646).