La norme numérique, Savoir en ligne et Internet

Sous la direction de Jacques Perriault et Céline Vaguer

Jacques Perriault est Français, il est né en 1938

Il est professeur en Sciences de l’information et de la communication à l’Université de Paris X. C’est l’un des premiers chercheurs français à s’être penché sur les nouvelles technologies de l’information et de la communication, en particulier leurs usages et leur appropriation. Il est Président honoraire de la Société française des Sciences de l’information et de la communication et responsable et membre du Comité de lecture de la revue Annales de la Fondation FYSSEN.

Introduction par Jacques Perriault
Norme numérique, éthique et sciences sociales

L’auteur constate le désintérêt de l’opinion publique française sur la question numérique depuis les années 70 et l’échec des propositions de normes françaises telles que la norme RAVI, le projet Cyclades et la norme ATM “[que la France­] voyait déjà supplanter Internet”. [p.11]

Aujourd’hui, l’individu utilise les réseaux sociaux et soumet consciemment des informations privées. Plus sournoisement, il prend le métro ou fait ses courses et a recours à des pass desquels sont extraits, à son insu, des informations sur ses pratiques. La question des dispositifs numériques revient au centre du débat.

L’auteur questionne la traduction, polysémique en français, du concept anglosaxon de “knowledge industry” qui donne “industrie de la connaissance” ou “industrie du savoir”, puis s’arrête sur l’industrie de la connaissance qui dépasse le seul objet numérique et donne du sens aux (industries du) savoirs. Il prend l’exemple de l’imprimerie qui relève de l’industrie de la connaissance et en distingue deux fonctions essentielles :

a) Elle facilite le recueil, le stockage et la production de supports de savoirs.

b) Elle facilite la production et la transmission de connaissance. [p.12]

Cet ouvrage se cantonne donc à l’aspect numérique de cette activité et plus particulièrement aux normes qui facilitent la transmission des savoirs : la normalisation numérique.

La normalisation numérique est définie par la règlementation française comme un processus “ayant pour objet de fournir des documents de référence comportant es solutions à des problèmes techniques et commerciaux concernant les produits, biens et services qui se posent de façon répétée dans des relations entre partenaires économiques, scientifiques, techniques et sociaux”. [P.14]

La présence des dispositifs informatiques et Internet dans un nombre croissant d’activités humaines entraîne une hausse de la demande de normalisation.

Cela élargit le comité de normalisation à des individus venant d’autres champs épistémologiques, notamment ceux des sciences humaines et sociales, comme des psychologues, sociologues, politologues, juristes, etc.

L’auteur pose la question “La création de standards numériques relatifs à l’activité humaine peut-elle se passer du concours actif des sciences humaines et sociales ?” et y répond “Tant que les standards numériques relevaient principalement des sciences exactes (…) les considérations d’ordre social étaient largement en aval du processus d’élaboration”. [p.17]

Ainsi la problématique à laquelle tente de répondre les auteurs de l’ouvrage devient: “Quels sont les rapports entre la production de standards numériques pour l’activité humaine avec les sciences humaines et sociales ?” [p.18]

Jacques Perriault introduit également la question de l’éthique sous l’angle de la double tension de la normalisation qui d’un coté “favorise la création et la liberté d’échanges de contenus mais de l’autre permet un contrôle accru des contenus et de leurs auteurs”[p.21] et évoque pour terminer son introduction la difficile relation qu’entretiennent le pouvoir politique et le pouvoir numérique.

Il constate la déficience de termes et de concepts dont disposent le droit et le politique pour décrire les objets et les pratiques numériques, ainsi que la pregnance nord-américaine dans les dispositifs de création, contrôle et régulation du pouvoir numérique [p.23]

Première partie : L’élaboration de la norme numérique

Chapitre 1 par Yolaine Bourda
Comment s’élabore une norme ? Le cas de l’apprentissage en ligne

Ce chapitre décrit l’expérience de l’auteur Yolaine Borda participant au groupe de normalisation CN36 de l’AFNOR[1] qui s’intéresse au metadonnées.
C’est le miroir (terme officiel) français de la commission de normalisation internationale ISO/IEC JTC1 SC36.

Pour l’auteur, l’indexation de contenus pédagogique par moteurs de recherche a montré ses limites, il serait alors nécessaire d’utiliser de métadonnées pour indexer de façon sémantique ces données.“Les métadonnées sont des données décrivant des données”[p.33]. Par exemple dans une bibliothèque les métadonnées sont les mots-clés, l’auteur, l’ISBN, l’étagère, etc…

Un schéma de métadonnées répandu pour décrire des données de type généraliste est le dublin core devenu norme ISO en 2003 et a pour objet de décrire toute ressource numérique. Il est composé de quinze éléments. [p.33]

Pour YB, ce schéma est trop généraliste pour normaliser les ressources de type pédagogique.

Dans le cadre de la normalisation de ressources pédagogiques, le standard retenu est le LOM (Learning Object Metadata) standard IEEE depuis 2002. Les métadonnées sont regroupées en neuf catégories. [p.34]

Le LOM reste un standard large de metadonnée. Pour l’adapter aux besoins particuliers de communautés, il est nécessaire de créer des profils d’applications.

Le LOM n’a pourtant pas été validé par l’ISO, notamment en raisons de commentaires des experts français de la CN36 portant sur la nécessité d’améliorations. Un nouveau projet de travail en a découlé, le MLR (metadata Learning Resource) qui doit néanmoins être intéropérable avec le standard LOM, qui lui n’évolue plus. La norme MLR doit intégrée le LOM en tant que profil d’application, et se compose de deux parties. La première partie définit “le cadre méthodologique de définition et de construction de ce schéma conceptuel de metadonnées” et la seconde “présente le schéma conceptuel de métadonnées”[P.37]

La norme MLR offre un identificateur neutre à chaque élément de métadonnées auquel il est possible d’associer un nom différent selon les langues et cultures.

Elle considère le LOM comme un profil d’application, et utilise des “méthodes formelles” pour exprimer les propriétés d’un schéma de métadonnées.

L’auteur constate qu’il n’est pas aisé d’intégrer un groupe de normalisation, en raison de la rudesse du vocabulaire utilisé, expressions étranges et sigles, du nombre et de la difficulté des documents à lire. L’AFNOR regroupe une cinquantaine de noms mais moins de 20% participe régulièrement aux réunions et fait des propositions concrètes.

Chapitre 2 par Stéphanie Delmotte
La double face des normes : entre facilitation et restriction

Ce second chapitre traite de l’utilisation de la norme LOM et de ses répercussions.

Pour l’auteur SD, le LOM ne normalise pas les aspects culturels de la FOAD ni ne s’intéresse aux “standards d’éducation, conventions culturelles, objectifs de formation ou contenus de cours” mais aux aspects technologiques pour “développer un langage commun et s’accorder sur la définition des termes employés” [p.45]

Le LOM permet donc d’élaborer des métadonnées pour l’utilisation pratique de logiciels et se situe dans la continuité des normes bibliographiques et catalographiques issues du monde de la documentation. [p.46]

Il décrit dans le domaine pédagogique les données non textuelles, images et sons.

SD revient sur les normes qui ont rencontré le succès depuis l’introduction de la notion de “document” par Paul Otlet à la fin du XIXe siècle : La norme ISBD inventée dans les années 70 et utilisée dans le monde entier mais également le système de métadonnées Dublin Core créé en 1995 et devenu norme en 2001. Le Dublin Core, rappelle l’auteur est issue de la négociation d’une collégialité de professionnels venant des domaines de la bibliothéconomie, l’informatique, le balisage de textes, la communauté muséologique, etc.

Cet aujourd’hui le LOM qui est au coeur de la convergence des savoirs et l’AFNOR (enfin le GE4 dans l’AFNOR) a pour mission de rédiger un profil d’application français du LOM qui répond aux besoins locaux, culturels ou particuliers d’un environnement ou d’un groupe. Ce profil d’application est le LOM FR devenu norme début 2006.

Mais l’utilisation de cette norme par le personnel enseignant et technique pose de nouvelles problématiques, notamment celle du vocabulaire.

“L’objet pédagogique” fait parti des termes glissants utilisés dans ce domaine donannt lieu à de nombreux débats. Pour l’IEEE, l’objet pédagogique regroupe “toute entité numérique, ou non, qui peut-etre utilisée pour l’enseignement ou l’apprentissage”. Il est ajouté qu’il est “défini comme toute entité numérique ou non qui peut être utilisée, réutilisée ou référencée pendant les activités d’apprentissage assistées par ordinateur”. Pour l’auteur, la première définition est trop large et la seconde trop restreinte [p.53]

Ce concept d’objet pédagogique est également au centre d’intérêts économique, technique et pédagogique.

Le LOM ne définit les objets que dans leur unité d’apprentissage, SD évoque alors l’approche EML (Education Modelling Language) plus pédagogique où ce sont les activités qui sont centrales et non les objets de connaissance. Le EML serait plus dynamique tandis que le LOM, lui, serait plus statique.

SD va plus loin dans l’analyse de la norme LOM en supposant qu’il existe une empreinte culturelle anglosaxonne dans la définition des concepts et dans la logique générale de cette norme. Il s’agit donc d’être attentif aux modèles sous-jacents et de comprendre les mécanismes à l’oeuvre.

SD observe trois paradigmes présents dans l’apprentissage en ligne : le behaviorisme, le cognitivisme et le constructivisme. Les deux derniers paradigmes placent celui qui apprend au centre et cherchent à développer son adaptation face à des situations nouvelles plutôt que d’apprendre via des répétitions de structures ou simuli.

Ce modèle serait marqué par l’empreinte occidentale et participerait à un mouvement où l’Occident tenterait d’imposer sa pensée et sa culture au reste du monde. [p.54] C’est pourquoi les profils d’application répondent aux besoins spécifiques locaux ou culturels.

La très forte utilisation de la langue anglaise dans ces domaines entretient un sentiment de domination nord-américain auquel tente de répondre les chercheurs européens entres autres.

Les concepts sont réappropriés par les français – en l’occurrence – qui débattent de l’utilisation des termes. Alors que “l’objet pédagogique” était devenu un “document” pour le GE4 de l’AFNOR, “ressources” lui a récemment été préféré.

Cette réflexion sur les termes utilisés dans la définition des metadata de la norme LOM questionne les notions de représentations collectives d’une communauté d’individus, culturelle, professionnelle, etc. Le processus de normalisation doit donc créer un environnement propice à l’échange entre acteurs divers.

L’élaboration du profil d’application LOM FR a donc eu “besoin de fonder la coopération sur une base de représentations communes : les catégorisations pratiquent empruntent volontiers à une doxa, à une tradition collective, ou à un fonds idéologique majoritaire des schèmes cognitifs stéréotypés qui bénéficient de l’immediateté de l’évidence” [p.57]

Pour l’auteur, il est difficile d’évaluer si l’utilisation de ces représentations et doxa qui forment l’indexation est de l’ordre de la technique ou de la pratique. Il propose de distinguer “les représentations formelles issues de la science, des catégorisations qui viennent des pratiques et sont régies par des contraintes utilitaires” [p.57] et de créer deux modèles, un modèle d’utilisation et un modèle de fonctionnement.

Les normes font donc intervenir des “dimensions processuelles, collectives et collaboratives, hybrides qui posent les questions de la production, de l’appropriation ouverte, conflictuelle parfois, de ces dimensions.” [p.58]

En conclusion, les sciences humaines et sociales permettent de “mettre en perspective la dimension historique de la normalisation et d’offrir des outils pour en penser toutes les composantes et les enjeux” [p.59]

Chapitre 3 par Henri Hudrisier
Normalisation et prospérité multiculturelle

La gouvernance mondiale est économico-centriste et une “hyperculture globalisante” domine le monde avec des productions d’origine américaine sur les tous les écrans : Cinéma, télévision, téléphone et ordinateur[2]

Alors que la valeur du matériel chute, celle de l’édition et de la production de contenus progressent. Les individus deviennent de plus en plus co-éditeurs, et souhaitent l’individuation numérique [p.66]. En dehors des mass media, cette hyperculture globalisante ne serait pas aussi globalisante qu’elle n’y parait.

L’auteur distingue la traduction française du terme anglais “standard” à la fois par norme et par standard. Les standards découlant des normes.

La norme est donc un ensemble de recommandations élaborées par un collège d’experts.

Dans le propos de l’ouvrage, les normes numériques sont édictées par le collège SC36 appartenant à l’ISO.

Voici comment s’organise l’ISO :

L’ISO est rattaché à l’IEC (International Electrotechnical Commtees) et est organisé en Technical Commitees (TC) subdivisés en Sub Commitees (SC) eux-mêmes découpés en Working Group (WG). Les JTC sont les Joint Technical Commitees. Ainsi une norme s’écrit ISO/IEC JTC1 SC36.

A chaque groupe correpond en miroir les institutions nationales ou communautaires. Par exemple, le groupe SC36 a pour miroir en France L’AFNOR et en Grande-Bretagne le BSI, ainsi que d’autres institutions pour d’autres pays.

L’auteur observe que les standards proviennent de l’innovation et que cette innovation ait issue d’investissements industriels coûteux qui nécessitent de monopoliser l’innovation (via la norme) pour la rentabiliser. Une fois l’investissement amorti, le marché décline, le monopole cède et des clones libres et ouverts se diffusent. HH fait l’analogie avec les médicaments de marques et les médicaments génériques.

La normalisation fait donc partie de la culture, de la technoculture.

Les enjeux politiques, économiques, démographiques du siècle à venir conduisent à considérer la normalisation comme un “paradigme suffisamment crucial de la construction de la mondialisation pour constituer un champ d’investigation théorique à part entière”

Chapitre 4 par Michel Arnaud
Entre droits d’auteur et liberté des échanges : Les métadonnées, objets informatiques, objets économiques

Aujourd’hui dans les sociétés occidentales, le travailleur ne vend plus sa force de travail phsysique mais sa capacité à manipuler l’information [p. 90].

Au sein de l’entreprise, il crée de la plus-value en participant au dispositif qui aboutit à la vente d’un bien intelectuel.

Ce bien intelectuel est le résultat d’une chaine de production (constructeur de terminaux, éditeurs de systèmes d’exploitation, opérateurs télécom, intégrateurs d’applications et de services, fournisseurs de contenus et régie publicitaire) dont le “prix est calculé selon un prorata incluant les droits d’auteurs mais surtout les droits voisins” [p.91]

Ce système tend à créer de la rareté et privatise l’accès au savoir. Il est nécessaire d’y intégrer la notion de “bien public” (Stiglitz, 1999) qui régulerait les intérêts des entreprises de biens culturels et intelectuels et l’intérêt du consommateur, sous l’égide des pouvoirs publics.

Poursuivant sa réflexion sur les biens intelectuels publics, produits par les enseignants, chercheurs et animateurs, l’auteur revient sur les promesses de la norme LOMFR sur les métadonnées et est lucide sur les difficultés d’indexation que cela entraîne. Il propose alors l’indexation automatique des documents grâce à l’analyse sémantique du document.

Cette indexation automatique des savoirs a déjà commencé outre-atlantique avec Google Print qui a déjà numérisé 4,5 milliards de pages provenant des universités US les plus prestigieuses et vise à proposer plus de quinze millions de livres (aux droits d’auteurs dépassés, 70 ans).

Google a diversifié ce service et avance à grand pas sur l’indexation et la recherche automatique de savoirs tandis que la BNF qui a numérisé 80 000 documents et 70 000 images emploie une trentaine de documentalistes à temps plein pour saisir les champs de métadonnées décrivant le document… Au niveau européen, aucune compatibilité n’est possible entre les formats de métadonnées des BN des 23 pays si la norme Dublin Core n’est pas utilisé.

Google redevient donc un partenaire potentiel pour numériser et indexer les biens intelectuels européens. En avance technologiquement dans ce domaine, il a également les ressources financières pour supporter le coût de l’opération.

L’auteur le dit, p.98, “l’exception culturelle a permis au cinéma français de survivre face à Hollywood

Deuxième partie : L’apport des sciences humaines et sociales

Chapitre 5 par Daniel Martins
Psychologie cognitive, conception et évaluation des dispositifs électroniques d’acquisition de connaissances

L’auteur définit la psychologie cognitive comme “une discipline à visée scientifique dont le but est de comprendre le fonctionnement mental des individus en terme d’états et des processus mentaux”[p.107]

Ces phénomènes mentaux ont un certain nombre de caractéristiques :

– ils ne sont pas directement observables

– ce sont des phénomènes naturels

– ils ont la forme de représentations mentales

– ils peuvent produire des comportements observables

La psychologie cognitive étudie les phénomènes mentaux relevant de la perception, de l’attention, de la mémoire, de l’apprentissage, et de la compréhension et du raisonnement.

Il rappelle la distinction entre la mémoire de travail (MDT) et la mémoire à long terme (MLT) et illustre la MDT avec la locution “Mais ou est donc ornicar”, la forme de l’Italie ou la mémorisation d’un numéro de téléphone [p.108]

Puis au sein de la MDT opère une nouvellle distinction entre “l’administrateur” et le “centre exécutif”, l’une est la mémoire verbale et l’autre la mémoire sensorielle avec prédominance visuospatiale.[p.110]

Les invariants cognitifs postulent que “les membres d’une même d’une même espèce disposent de structures et processus mentaux identiques, grâces auxquels ils sont capables de percevoir, mémoriser, comprendre et raisonner”.

Une fois ces invariants identifiés, ils sont modulés en fonction du contexte de la tâche et de caractéristiques psychologiques (âge, expertise, aptitudes, motivations) et socioculturelles (degré d’instruction, familiarité avec les moyens techniques…) de l’apprenant.

L’auteur propose ensuite 4 exemples qui illustrent l’intérêt de la psychologie cognitive dans la normalisation numérique.

Je relèverai ici les conclusions de 1er et 3eme exemple qui tendent à montrer que l’illustration par images (mémoire visuiospatiale) de textes affichés sur écran (mémoire verbale) surchargent très souvent la mémoire de travail et amoindrit, proportionnellement à la complexité de ou des images, les capacités de mémorisation et de traitement de l’information.
L’apprentissage le plus efficace serait celui qui consiste à afficher les images sur l’écran d’ordinateur tandis que l’explication se fait en audio.

Chapitre 6 par Bernard Blandin
La construction du consensus : l’exemple de l’ISO/IECJTC1 SC36

Cet article est un nouvel éclairage du comité de normalisation SC36 déjà décrite par Yolaine Bourda dans le chapitre 1. Il apporte un angle plus sociologique à l’approche institutionnelle de la normalisation expliquée par Yolaine Bourda dans les premières pages de l’ouvrage.

Chapitre 7 par Kevin Mellet
Les marché du travail au risque des TIC : l’apport de l’économie institutionnaliste

L’auteur décrit la rationnalisation économique qui a entraîné la numérisation du marché du travail et sa transposition sur Internet. Les coûts et temps de recrutement ont été fortement réduits par son passage à Internet mais de nouvelles problématiques se sont faites jour.

Parmi les améliorations apportées par les job boards, pour le recruteur, figurent l’immédiateté de l’affichage de l’annonce, la facilité de mise en relation avec le candidat, une meilleur gestion des flux d’informations…

Quant au candidat, celui-ci accède grâce à un unique point d’entrée, l’ordinateur, à l’ensemble de l’offre de travail disponible. Il passe moins de temps à chercher et dispose de plus d’offres.

Ce modèle suppose que l’intermédiaire, le site web, soit neutre, c’est-à-dire qu’il ne transforme pas le bien.

Pourtant celui-ci doit opérer des choix arbitraires dans la façon dont il va orienter le candidat, classer les offres et guider le recruteurs vers le candidat.

L’auteur référence deux types de classement d’offres d’emploi et de rencontres entre le recruteur et le candidat. La norme ROME, le classement par mots-clés de Keljob.com, ainsi que leurs biais respectifs.

Lorqu’il se connecte à un job boards, le candidat se trouve dans un environnement sociocognitif affichant beaucoup de données. Ces données sont indistinctement des informations et des publicités.

Le candidat doit également créer son profil sur des “données observables”. Les formulaires le permettant sont souvent très détaillés, et formatent le profil du candidat, l’excluant d’une partie du marché de travail. Il doit “rentrer dans les cases”.

De la même façon, Le recruteur doit créer une annonce codifiée, le système impose une mise en exergue d’élements particuliers comme la rémunération et l’expérience exigée, réduisant du même coup le champ des rencontres.

A noter, les e-chercheurs d’emploi connaissent des périodes de chômage plus longues en raison de leurs profils basés sur des “données observables” tandis que les réseaux de relations personnelles par lesquels transitent les données non observables sont plus efficaces [p.146]

Face à l’afflux parfois important de candidatures, les coûts épargnés par la diffusion de l’offre apparaissent dans le processus de sélection. C’est pourquoi les formulaires visant à “normaliser la candidature” sont de plus en plus complexes afin de trier intelligemment les candidatures (sourcing), mais dans le même temps, c’est le candidat qui doit redoubler d’effort pour être visible. Une discrimination peut s’exercer entre le candidat agile sur ce type de système et celui qui ne franchirait pas ces barrières de sélection et serait durablement exclu du marché du travail.

Bien qu’il y ait des externalités importantes à la numérisation du marché du travail, ce phénomène semble remettre en cause la nécessité d’un service public d’emploi.
Pour l’auteur et ses sources, si l’intermédaire est neutre, que l’information est transparente et le profiling du candidat normalisé; la numérisation du marché du travail entrainerait une baisse du chomage frictionnel et de la durée de chômage en général. Il prévient également de l’importance de la normalisation de ce dispositif diligentée par les pouvoirs publics et gouvernée par une autorité indépendante [156]

Chapitre 8 par Brigitte Juanais
La normalisation industrielle de profils humains, éléments pour une approche communicationnelle des nouvelles technopolitiques

L’apprentissage et la formation en ligne reposent sur la normalisation des objets pédagogiques comme il a été vu précédemment avec la norme de metadata pédagogique LOM mais également sur la “normalisation de l’humain”, sur la capacité à pouvoir identifier l’apprenant et connaitre ses attentes et ses aptitudes.
Au sein de l’ISO, la délégation américaine a proposé le SHI “simple human identifier” en procédure rapide en mars 2000. La commission française a affiché ses craintes quant aux risques d’utilisations détournées d’informations personnelles issues de ces systèmes d’identifiants humains.[p.165]

Après négociations, ce projet est devenu le PI “participant identifier”, les remarques françaises ont été prises en compte et cet identifiant a été borné à sa plus stricte utilité, sans connexion avec d’autres bases de donnes type santé, compétence, etc.. et soumis au droit national de chaque pays.

Bien que d’après l’auteur, la norme PI d’identification de l’utilisateur d’un système pédagogique adoptée en 2004 ne satisfasse pas les exigences de la commission française quant à la sécurisation des informations privées. Il constate que l’introduction de préoccupations éthiques, juridiques et politiques a impact direct sur le processus de normalisation en suscitant des débats au sein de commissions majoritairement techniques.

A noter que l’ONG de droit privé I.S.O n’a pas pour objet de normaliser les informations relatives aux personnes ou de réguler l’identité numérique.

L’auteur indique néanmoins que le sujet de l’identité numérique nécessite l’émergence d’une normalisation internationale.

Il s’agit alors d’ouvrir les comités de l’I.S.O, à d’autres acteurs et de les recomposer car ceux-ci regroupent très souvent des experts, représentants et consultants qui risqueraient de privilégier les intérêts des industries qui financent leur présence à l’I.S.O. [p.172]

C’est pourquoi depuis le décret du 16 juin 2009 sur la normalisation, les PME, associations et universités disposent d’un accès gratuit aux comités.

La normalisation de l’identité numérique est un enjeu qui aura des conséquences directes sur la vie sociale et privée [p.176]

Troisième partie : Ethique, institutions politiques et libertés publiques

Chapitre 9 par Laurence Favier
Le gouvernement par les normes : le cas du vote électronique

La normalisation touche de plus en plus de domaines, les champs pédagogiques, sociaux, privés et maintenant politiques, avec la numérisation du vote électronique.[p.181]

Alors que la norme est issue d’un consensus entre parties, celui-ci peut ne pas faire l’unanimité. On parle de “soft power”.

“ Le vote électronique montre les limites du ‘soft power’ : produire du consensus sur un dispositif dans la fonction même est de générer du consensus (voter pour rendre légitime et non contestable une décision) implique de dépasser la notion de ‘parties prenantes’”[p.185]

l’évolution historique des dispositifs de vote montre que le contrat social est profondément lié à un univers tangible et perceptible afin de garantir l’implication de l’électeur”[p.185]

L’auteur décrit ensuite le dispositif de vote actuel [p.185-186]

Chapitre 10 par Emmanuel Kessous
La vie privée, du substantiel au procédural : quels enjeux de normalisation ?

Ce chapitre aborde la notion de droit privé américain de privacy, moins restrictif que le concept français de vie privée, qui “renvoie à ce qui est propre à la personne”[P.198].

Cette analyse se fait autour du phénomène de numérisation croissante de données personnelles par des sociétés ou administrations via Internet. Ces données collectées ainsi que les terminaux connectés en quasi-permanence permettent aux sociétés de services web de qualifier de l’audience publicitaire, de “tracer” l’individu et de connaitre son activité, ses opinions politiques, ses croyances etc…

Les lois relatives à la gestion des données personnelles permettent de protéger la vie privée, l’auteur prend l’exemple d’un texte de loi américain (Warren, Brandeis, 1890) qui réagissait au développement de photographies instantanées et consacrait le “droit à la tranquilité”. Ce droit induit la formulation d’un consentement de la part de la personne photographiée.

Cette logique de droit à disposer de ses informations personnelles a été poursuivie par les institutions françaises et européennes qui érigent “la protection de la vie privée au rang de droit de l’homme : un droit à l’autodétermination en matière d’information. Un droit d’ordre public qui doit être garanti par l’Etat” [p.201] se déclinant en principes tels que celui, par exemple, de droit à l’oubli.

Cette notion de consentement se distingue sur une interface web par le choix entre un consentement exprimé activement par l’utilisateur. Le opt-in, il coche une case autorisant le service à utiliser son adresse mail par exemple. Et le opt-out, plus proche de l’accord tacite où l’individu n’a pas manifesté son refus. La case autorisant l’accès est cochée par défaut au moment de l’inscription et l’utilisateur ne la décoche pas, avant de valider. Selon l’auteur, l’approche anglo-saxonne privilégie le opt-out, tandis que l’approche européenne a plutôt privilégié le opt-in bien que les pays de l’U.E. n’aient pas réussi à être unanimes sur cette question, renvoyant à chaque pays-membre le soin de trancher. [P202]

La protection de données personnelle est régie par le droit, ce dernier est qualifié de “substantiel” par l’auteur en opposition au droit “procédural”. Substantiel parce qu’il définit a priori les types d’informations qui peuvent être recueillies par les sociétés et organisations, excluant d’emblée certaines données : les données médicales de l’individu, les opinions politiques, les religions…

L’auteur pointe la difficulté pour le normalisateur d’exclure certains types d’informations en amont de l’utilisation, d’autant que l’internaute lui-même, publie des informations pouvant se révéler sensibles sur les réseaux sociaux, et sous sa véritable identité. L’approche procédurale apparait dès lors plus adapté au réseau Internet. “Le contour de la vie privée correspond donc de facto, pour les utilisateurs du web, à une définition davantage procédurale que subsantielle : c’est par les moyens offerts aux individues d’exercer leur libre arbitre que l’on peut la faire respecter. Dans cette acception, le caractère public ou privé des données personnelles se décide au fur et à mesure d’un sentier d’usages des services web.” [P.206]

Finalement, la question n’est plus de savoir si l’individu doit pouvoir autoriser ou refuser le recueil de données le concernant, mais celle de définir quelles informations seront publiées et recueillies, à mesure que l’individu évolue “sur les sentiers d’usages” du web. Ceci amorçant un glissement du “droit à la tranquilité” (l’anonymat) à la “défense de l’identité numérique” (la gestion de son e-reputation)

L’échelle d’encadrement législatif de ces pratiques préconisée par l’auteur est internationale, L’ISO, serait donc tout à fait légitime pour produire les normes en découlant, bien qu’il n’y ait pas que des avantages, rendant par exemple difficile la représensativité d’intérêts moins organisés. [P.208]

L’auteur pointe l’impuissance de l’utilisateur qui ne peut utiliser un service web avec lequel il est en désaccord sur les conditions d’utilisations. Ces services web pouvant être “un bien essentiel” [P.209], Il serait nécessaire de définir ces utilities et de les encadrer avec des licences d’utilisation-types élaborées par une instance de régulation. Une certification du bon respect de la norme pourrait être attribuée par un organisme tiers indépendant [p.211]

Pour conclure, l’auteur propose la vision procédurale de la gestion des données personnelles par l’utilisateur en excluant de cette gestion “les informations particulièrement discriminantes qualifiées de sensibles par la CNIL : la religion, les convictions politiques, les origines ethniques et les données médicales.” [p.213]

Les utilisateurs décideraient d’autoriser ou non l’accès à leurs informations en échange d’une prestation de service. Ces traces laissées seraient gérées par l’utilisateur qui pourrait publier, rectifier et effacer toutes les données le concernant sur les réseaux qu’il utilise.

Chapitre 11 par Jean-François Legendre

Ethique de la normalisation ou éthique dans la normalisation

Conclusion par Jacques Perriault


[1] Association Française pour la NORmalisation

[2] 7 majors américains du cinéma et 4 majors du disque accaparent plus des ¾ du marché mondial des industries cinématographiques et phonographiques.