Le web 2.0 entre mode, marketing et réalité technique
Depuis quelques mois, l'expression fleurit, non plus seulement dans le petit groupe des initiés de l'Internet, mais dans les médias grand public (1). L'expression se pare donc des vertus magiques de la nouveauté qui pourrait bien n'être qu'un slogan de marketing et une mode de plus.
La notion "2.0" renvoie objectivement à un numéro de version, à l'instar des logiciels. Il y aurait donc une nouvelle génération du Web... Et la presse d'entonner des hymnes de louanges et d'adoration du nouveau phénomène. Avec beaucoup d'exagérations et de contresens.
Bien évidemment, il faut savoir raison garder, et par conséquent, faire la part des choses, entre ce qu'il faut bien continuer d'appeler le "mythe Internet", paré de toutes les vertus et tous les faux semblants - positifs autant que négatifs - de la nouveauté que peu connaissent réellement en profondeur.
Lors de l'arrivée du premier Web, au milieu des années 90, un enseignant chercheur du CNAM, pionnier de l'Internet confiait volontiers qu'assistant pour la première fois à la médiatisation d'un phénomène qu'il connaissait parfaitement, il lisait tellement de contre-vérités dans la presse qu'il inclinait à ne plus croire la presse sur les autres sujets traités par celle-ci...
On le sait, l'expression même de "Web 2.0" a été lancée comme un vague terme générique, destiné à décrire commodément une nébuleuse de techniques et de services, autour d'une idée force. D'où les difficultés supplémentaires pour cerner un sujet qui échappe un peu plus à chaque fois qu'on veut l'enfermer dans des limites connues.
Nous allons donc tenter de nous frayer un chemin dans cette jungle, à la lumière de notre expérience du terrain, autant comme praticiens que comme formateurs, contraints de rendre compte et d'expliquer les concepts et les réalités enseignées.
Un réel déplacement du centre de gravité du web
Le web 1.0 en tant que bibliothèque mondiale
Le premier Web - c'est-à-dire l'Internet grand public basé sur la norme HTML et ses dérivées, et qui prend son essor à partir de 1993 - s'est construit selon une logique de production de l'information. Ce Web "1.0" se présente comme un immense gisement d'information, de surcroît en expansion continuelle - rappelons-nous la loi qui permettait d'estimer que le Web doublait de volume tous les 18 mois - jusqu'à prendre des dimensions galactiques.
Selon une logique héritée des penseurs grecs, tout internaute pouvait donc légitimement s'attendre à trouver sur ce Web toutes les informations et connaissances dont il avait besoin, produites par les détenteurs de ceux-ci : informations produites par les sources elles-mêmes - sites institutionnels, pris dans le sens le plus large -, et connaissances structurées et mises à disposition par ceux qui savent.
De sorte que la relation au Web ne différait presque en rien de celle de tout individu désireux d'enrichir son savoir et se procurant les outils classiques pour le faire : bibliothèques, librairies, ouvrages, revues, encyclopédies... Ce Web-là peut être vu comme une source - et/ou un canal d'accès - de plus au savoir. Les grands avantages de ce nouvel accès étant la mondialisation et la démocratisation (coût de production de l'information en ligne devenus marginaux) des sources.
Bien sûr, au côté de cet aspect de rapport à la connaissance et à l'information, le Web mondial apportait un prodigieux outil de communication décuplant les possibilités de contacts entre les hommes, et ce, directement au niveau planétaire, contribuant ainsi - avec l'accélération des moyens de transport - à "rétrécir" psychologiquement notre planète.
Tout ce Web constitue déjà, en soi, un phénomène d'ampleur comparable à l'invention de l'imprimerie : un immense pas en avant dans les moyens de communication humains.
Les premiers grains de sable dans la mécanique : la notion d'auteur subvertie
Dès ces premiers temps du web, tout le monde n'a peut-être pas totalement pris conscience d'un nouveau phénomène qui allait considérablement changer la donne.
Le Web est né de la norme HTML, mettant - comme son nom l'indique - les possibilités immenses de l'hypertexte à la portée de tous. On a assez dit que le web constituait une sorte d'hyper-document mondial. Mais peu ont poussé l'analyse plus avant.
Dans un document classique, consultable en séquence, de la première à la dernière page - même s'il est possible de sauter des passages ou de s'orienter par la table des matières - l'auteur est maître de son discours ; il mène son lecteur comme il veut, par où il veut.
L'hypertexte permet au lecteur de naviguer dans un texte comme il errerait dans une ville, s'orientant selon ses goûts ou sa fantaisie, choisissant la voie qu'il souhaite à chaque carrefour, plutôt que de suivre un itinéraire dicté par un "auteur". De sorte que la notion d'auteur - qui inclut logiquement la création du discours mais aussi la maîtrise de ses enchaînements - se trouve démembrée. Si l'auteur premier garde la maîtrise de son texte, il cède à son lecteur la maîtrise du cheminement dans celui-ci. Le lecteur peut "zapper" comme il l'entend d'un bout de texte à un autre, voire d'un auteur à un autre.
De sorte que la notion classique d'auteur éclate, se dilue au sein de l'immense hyper-document qu'est "le Web". Et dès lors, l'internaute devient maître de son parcours, libre d'enchaîner les textes qu'il veut, dans l'ordre qu'il veut. Chacun devient donc auteur d'une œuvre virtuelle qui est unique de par la juxtaposition personnelle des divers morceaux de textes parcourus. On connaît peut-être les "Cents mille milliards de poèmes" imaginés par Raymond Queneau en 1961, dont les pages sont coupées ligne à ligne, le lecteur pouvant choisir de composer le poème qu'il veut à partir de dix propositions de 14 vers réguliers de l'auteur premier. C'est dans le même esprit que le Web a démultiplié cette possibilité.
Nous constatons donc que lorsque les médias nous présentent le Web 2.0 comme la possibilité de mettre l'utilisateur au centre du réseau, ce n'est pas nouveau.
Tristan Nitot (responsable de Mozilla Europe) a d'ailleurs bien rappelé que le Web 2.0 correspondait à l'aboutissement de ce qu'avait rêvé Tim Berners Lee aux origines du Web (http://solutions.journaldunet.com/0606/060623-video-tristan-nitot.shtml).
L'hypertexte en lui-même mettait déjà l'internaute au centre du réseau, lui offrant toutes les navigations originales possibles.
Un progrès technique incontestable
Le Web 2.0 tente en fait d'aller plus loin, ou, comme le souligne Tristan Nitot, offre la possibilité à l'internaute de devenir auteur et acteur du réseau. Là est, à notre sens, le très réel apport du Web 2.0, par delà les slogans et les fantasmes.
Des "sites perso" aux blogs
Compte tenu des coûts de production marginaux d'un site, toute personne peut depuis longtemps produire son propre site sur le Web. Mais jusqu'à ces derniers mois, il fallait maîtriser quelque peu la technique de l'Internet, connaître un minimum la norme HTML, et ce, pour des résultats d'une qualité esthétique et ergonomique douteuses. Nombre de sites personnels qui ont fleuri dans les années 90 pouvaient être d'une redoutable laideur, mais surtout d'une commodité d'usage discutable. Il n'est encore pas rare de tomber sur ces fameuses pages "profondes" d'un site qui ne permettent ni de repérer sur quel site on est (aucun sens de la communication), ni de revenir vers les pages supérieures (ergonomie non pensée).
Aujourd'hui, des outils simples permettent à des néophytes de mettre en œuvre des sites personnels propres.
Cela a commencé avec les outils de CMS (content management system), notamment ces logiciels libres de création et de gestion de site clé en main tels que SPIP ou Joomla.
Aujourd'hui ce sont les outils de blogs (voir lexique) tels que OverBlog (http://www.over-blog.com) ou Haut et Fort (http://www.hautetfort.com).
Grâce à ces outils, tout un chacun peut administrer simplement son site et publier les informations qu'il souhaite (voir notre article sur les outils emblématiques du Web 2.0).
Des outils collaboratifs grand public
D'autres outils fonctionnent sur le bon vieux mode collaboratif. Là encore, rien de nouveau, conceptuellement et sociologiquement, sous le soleil... Le concept de groupware (collecticiel) se fait vieux. Il a plus de 15 ans d'âge et l'archétype, le logiciel Lotus Notes, lancé en 1992, est toujours bien vivant dans les entreprises.
Sur Internet, les forums de discussion Usenet (aussi appelés newsgroups), préexistaient au Web. Ils permettaient aux internautes de partager des informations. Mais il fallait être un minimum connaisseur du système pour s'y abonner et un peu plus pour poster des informations sur ces groupes. Les listes de discussion vont en partie les relayer, avec plus de souplesse d'usage puisqu'elles se basent sur la seule maîtrise de la messagerie électronique, passée dans toutes les pratiques professionnelles.
La nouveauté consiste à acclimater le concept d'outil collaboratif en en simplifiant l'usage.
Dès avant le Web 2.0, un répertoire généraliste de sites tel que Dmoz , qui est aussi l'annuaire de Google, est conçu sous forme collaborative. Face au répertoire de Yahoo! (Yahoo Guide français : http://fr.dir.yahoo.com), alimenté par des professionnels, Dmoz permet à tout internaute de prendre en charge l'alimentation d'une rubrique ou d'une sous-rubrique et de contribuer ainsi au repérage des bons sites d'un secteur donné.
Le récent phénomène de Wiki (voir lexique), notamment avec Wikipedia, la plus grande encyclopédie collaborative du net (version française : http://fr.wikipedia.org), fonctionne lui aussi sur le mode collaboratif, pour le meilleur et pour le pire (voir plus loin).
Les flux rss/atom
Les flux RSS ou ATOM s'intègrent dans la même évolution du Web. Ils permettent à l'internaute de choisir, voire d'agréger, ses fils d'informations et de décider de les recevoir dans le lecteur de son choix (voir notre article sur les lecteurs RSS). Certains sites commencent même à proposer de personnaliser un flux : celui-ci est généré à partir d'une requête de l'internaute basée sur une série de mots-clés, facilitant ainsi une démarche de veille.
Une pratique réellement centrée sur l'internaute
Pour avoir pratiqué et testé de nombreux outils estampillés Web 2.0, et pour en rendre compte régulièrement dans nos formations, nous pouvons affirmer que le centre de gravité du réseau se déplace perceptiblement vers l'internaute, à condition qu'il décide d'en être l'acteur, et non plus le spectateur. Bien sûr, ce mouvement est loin d'être achevé. Il n'est pas de semaine sans que de nouvelles annonces fassent entrevoir de nouvelles possibilités, toujours plus au service du citoyen actif.
La technologie Ajax au service du producteur d'information
AJAX (Asynchronous JavaScript And XML) - qui s'appuie sur la combinaison de technologies déjà existantes - offre un nouveau confort d'utilisation et de navigation à la fois pour le producteur d'information et le simple utilisateur d'un service Web 2.0.
C'est ainsi que les services ayant recours à AJAX permettent d'exécuter des applications directement dans le navigateur. L'actualisation d'un élément de la page se fait de manière autonome (par rapport aux autres éléments affichés) sans provoquer le rechargement complet de la page concernée. Ce qui offre un affichage beaucoup plus rapide ainsi que de nouvelles possibilités d'interaction avec les différentes applications présentes dans la page.
Ce nouveau confort d'utilisation se trouve parfaitement illustré à travers des applications comme le nouveau Yahoo Mail (http://fr.mail.yahoo.com), l'outil de bureautique en ligne Google Docs & Spreadsheets (http://docs.google.com/) ou encore l'outil de personnalisation de sa page d'accueil Google (http://www.google.fr/ig?hl=fr). Dans ce dernier exemple, l'utilisateur peut très facilement déplacer les blocs d'actu et les positionner comme bon lui semble au sein de la page. Cette technique facilite donc encore plus la personnalisation du Web par l'internaute.
Dissiper quelques faux-semblants
Nous avons souligné à quel point le concept de Web 2.0 véhiculait de faux-semblants médiatiques et/ou marketing, les médias étant prompts à créer ou amplifier des phénomènes de mode pour pouvoir vendre du sensationnel, et les commerciaux cherchant toujours le bon slogan vendeur et surfant sur les phénomènes de modes.
Pour ne pas nous emballer, considérons plutôt que le Web 2.0 est avant tout un phénomène d'avancée technique remarquable dans son ampleur, qui décuple certaines possibilités déjà en germes dans l'Internet, et surtout sur le Web. Et comme toute avancée technique, il s'agit de la langue d'Ésope : la meilleure et la pire des choses.
Nous avons déjà montré dans les lignes qui précèdent combien les soi-disant nouveautés n'en étaient pas, mais tout juste des améliorations techniques considérables. Restons donc lucides et ne nous esbaudissons pas, béats, devant le miracle qui tout d'un coup, grâce au Web 2.0, donnerait à l'internaute la parole sur le net. (s'esbaudir : "Se resjoüir autant que fait un baudet qui se donne du plaisir en se frottant et se roulant dans un pré." - définition du dictionnaire de l'Académie française de 1694...)
Permettons-nous donc de remettre en perspective historique quelques affirmations péremptoires relevées ici ou là.
Le web 2.0 va permettre les nivellements sociaux puisque tout un chacun peut publier sur le net.
L'argument nous est resservi régulièrement depuis le groupware, la messagerie Internet, les forums Usenet, le premier Web... En fait, la technique n'est que ce qu'en font les hommes.
Évoquons un souvenir personnel. À la grande époque où l'on vantait le nivellement des relations humaines grâce au courriel - même le président des États-Unis avait son e-mail ! - nous nous sommes adressé à un des grands penseurs du net pour lui demander d'intervenir dans une conférence. Il nous fit répondre par sa secrétaire...
Le web va permettre une plus grande diffusion de la connaissance
Si l'ouverture du Web permet à toute personne de communiquer, si elle peut permettre une plus grande mise en commun des savoirs, il n'est pas douteux que celle-ci risque aussi de se trouver noyée sous les non-savoirs.
Connaissance ou ego magnifié ?
Prenons un exemple neutre, celui du partage de photos sur le net (par exemple sur FlickR : http://www.flickr.com). Tout vacancier va pouvoir mettre ses photos personnelles en ligne. Certaines sont d'une qualité ou d'un intérêt assez limités, quand bien même elles seraient proposées libres de droit. De sorte que l'outil se transforme en galerie permettant à tout citoyen de se donner l'impression qu'il est valorisé parce qu'il est sur le net. Mais si tout le monde est sur le net, l'orgueil d'y être en prend un coup...
Une partie - nous pesons nos mots - de ce qui va se trouver sur le net relève plus de ce désir d'exister aux yeux des autres, un peu à la manière de ces émissions de téléréalité dans lesquelles on assiste à la réconciliation ou aux retrouvailles de familles qui étalent ainsi leur vie intime devant les téléspectateurs. En d'autres termes, sous cet angle, le Web suit les phénomènes de société, rien de plus.
De la connaissance à la "doxa"
Aujourd'hui, il est vrai, toute personne qui sait quelque chose peut publier sur le net (sous forme de blog, par exemple), ou participer à une encyclopédie contributive telle que Wikipedia. Mais aussi, toute personne qui croit savoir peut s'autoproclamer expert et publier - parfois de bonne foi - de graves erreurs sur le net. Wikipedia a sur ce point été l'objet de critiques. En août 2005, un débat a été lancé sur le sérieux de cette encyclopédie sur la liste Biblio-fr. On a ainsi appris que certains articles médicaux fournissaient des informations erronées, ce qui - en médecine - peut poser de graves problèmes.
Rien ne permet donc de garantir que les auteurs qui interviennent sur le net publient des informations exactes. Là encore, inutile de sacrifier au mythe de l'Internet - en sens négatif, cette fois - en voyant systématiquement dans le réseau un repère de mafieux et de désinformateurs. Il faut savoir que depuis que l'imprimerie existe, le papier aussi a accueilli des millions de contre-vérités.
Ce qui pose problème sur le net, c'est la puissance de diffusion, et maintenant le foisonnement des auteurs, noyant les sources sérieuses au milieu de sources douteuses, ou qui sont le reflet d'opinions communes et non de réalités contrôlées par des experts. Le phénomène est dénoncé par certains philosophes, conscients de ce danger. Sous le titre "Le nouveau royaume des idiots ?" le philosophe allemand Norbert Bolz, spécialisé dans les médias, confie au Spiegel, relayé par Courrier International (n°826 du 31 août 2006), qu'on est retombé de la vraie connaissance, du savoir fondé scientifiquement, prônée par les philosophes de l'antiquité grecque, à la doxa, l'opinion commune, qui prévalait en Grèce avant les philosophes. Ainsi, avec nos outils de mesure d'opinion, on en arriverait à considérer que telle opinion est vraie puisque 51% de personnes la pensent...
Là encore, le Web est le reflet de nos sociétés. Nous voyons souvent, sur des listes professionnelles, des questions de droit posées par des non-juristes et la réponse d'autres non-juristes commençant pas "je pense que..." En matière juridique, comme en toute autre science, on ne "pense" pas ; on sait, ou on vérifie. Mais les médias jouent déjà ce jeu du règne de l'opinion, lorsqu'ils s'attachent à capter avec un infini respect l'avis de telle comédienne en vue sur le conflit libanais ou sur la TVA des restaurateurs, plutôt que de recueillir et de bien rendre compte de l'avis d'experts...
De la connaissance à la guerre de l'information
Mais les choses peuvent aller dangereusement plus loin. La généralisation du travail collaboratif au plan mondial et sans contrôle, part du postulat - caricaturons un instant - que tout le monde il est beau ; tout le monde il est gentil. Rappelons-nous nos croyances naïves des débuts des listes de discussion professionnelles, non modérées, partant du postulat qu'entre adultes responsables et sérieux, on ne risquait rien. Il a fallu un beau dérapage sur certaine liste pour qu'on se décide à les modérer.
Le Web 2.0 n'échappe pas à ce phénomène. Ainsi, toute personne qui peut publier sur Wikipedia une notice sur n'importe quel sujet et présenter celui-ci de manière volontairement malhonnête. Quelles que soient les volontés de contrôle des responsables de l'encyclopédie, ils ne peuvent détenir la science universelle pour tout contrôler. D'autant plus que certains groupes d'utilisateurs parviennent à s'organiser pour tenter d'imposer - de manière subtile - leur version sur un sujet. Et nous avons pu constater que certains modérateurs de Wikipedia se laissent « endormir », quand ils ne violent pas ouvertement leur devoir de stricte neutralité, notamment lorsqu'il s'agit de problématiques politiques ou scientifiques. Sur certains sujets sensibles (politique, histoire...), il peut se trouver ainsi des présentations délibérément orientées.
Par ailleurs, toujours sur Wikipedia, toute personne peut intervenir pour corriger ou ajouter des informations dans un article. Il ne s'agit pas de poster un commentaire au bas de la fiche, mais d'intervenir pour modifier directement celle-ci. L'auteur premier de la fiche ne sera prévenu qu'après mise en ligne des modifications, ce qui laisse la place pour faire passer des informations fausses ou tendancieuses pendant quelques heures, voire plus. Là où le bât blesse, c'est le positionnement privilégié qu'occupent les fiches issues de Wikipedia dans les résultats de recherche de Google. Un internaute peut donc accéder à tout moment à une fiche présentant un contenu tendancieux.
On a même vu se livrer des "guerres d'édition" sur l'illustre encyclopédie collaborative. Certaines personnes, décidées à imposer leur analyse subjective d'un fait ou leur opinion exclusive sur un sujet, passent leur temps à corriger certaines fiches. Dès que l'auteur revient à sa version originale, celle-ci est à nouveau modifiée dans les minutes qui suivent. On peut s'en rendre compte en sortant de l'Article et en consultant l'onglet Historique ou Discussion. Mais il faut lire parfois entre les lignes, et de plus, le grand public ne pense pas à consulter des onglets.
En guise de conclusion
Le Web 2.0 constitue à nos yeux une avancée technique essentielle pour rendre encore plus simple l'accès à la production d'information par le plus grand nombre sur le Web. Il faut donc s'attendre à l'atomisation de la production d'information.
C'est un prodigieux progrès dans le sens d'une plus grande liberté de communiquer. Mais toute liberté est à double tranchant : liberté de s'exprimer et des clamer des vérités envers et contre toute tentative d'étouffement du médiatiquement correct ; liberté de manipuler l'opinion en répandant des contre-vérités. L'outil technique devient d'autant plus vulnérable qu'il est puissant et universel. Il devient autant le lieu des vérités minoritaires que celui de la guerre de l'information. Il convient donc de rester critique et d'apprendre à recouper ses informations, ou à comparer et prendre en compte divers points de vue.
Il faut aussi s'attendre à un nouveau bond en avant des volumes d'informations disponibles et donc à de nouvelles problématiques pour retrouver l'information. C'est pourquoi les outils s'affinent et qu'on tâtonne encore aujourd'hui autour de la technique des tags, de la taxonomie et des ontologies.
En tout cas, plus que jamais, il importe de méditer l'adage "Trop d'information tue l'information" et faire la part entre le reflet des opinions et la vraie connaissance.
|cc| Didier Frochot et Fabrice Molinaro - décembre 2006
1. Courrier International en août 2006, puis plus récemment la plupart des grands quotidiens, y compris Le Monde.