Je voulais à l’origine poster un simple commentaire chez Frédéric Cavazza, mais les idées venant, il devenait évident qu’un billet serait beaucoup plus approprié. Frédéric se pose tout simplement la question des limites du Web 2.0, et il en voit principalement 3.

Les communautés isolées d’utilisateurs

Les communautés sociales à l’instar d’Orkut reposent sur un système d’invitations pour garder le lien social entre les membres, et se ferment par là à l’extérieur, tout en proposant l’adhésion à des communautés parallèles. On peut y voir soit une volonté claire de monopole et d’exclusivité, je pense notamment à Microsoft et sa batterie d’outils autour de MSN, Google et son identité qui permet d’accéder à tous ses services, ou Skyblog et la récente ouverture du Skymessenger, bien que dans ce cas, la fermeture à l’extérieur puisse relever d’une volonté de ne pas polluer le reste du Web.

Le manque d’interopérabilité entre les différents services en ligne

La majorité des groupes de services en ligne tentent d’agréger un maximum de fonctionnalités pour attirer un maximum de clients. Les rachats à tout va de Yahoo! en sont le parfait exemple.

Les limitations liées à l’architecture de l’Internet.

D’abord Internet n’est pas le Web. Cette différentiation peut sembler pointilleuse et inutile à première vue, mais de nombreux protocoles ne pourraient pas fonctionner en mode autre que client / serveur, bien que Freenet ait montré des possibilités dans ce sens difficiles à appliquer à grande échelle. L’idée de voir mes mails cryptés et répartis sur des centaines d’hôtes me semble assez plaisante, mais je ne leur ferai cependant pas confiance, moi qui ai déjà du mal à faire confiance à mes propres configurations.

J’ai commencé à y réfléchir aussi, et j’en ai tiré les points suivants :

Un rapport signal / bruit assourdissant.

Un des intérêts du Web réside dans la facilité de rechercher et trier rapidement les données en obtenant des résultats conformes à la recherche lancée. La quantité de données à exploiter avec le passage du “Few to many” au “Everybody to everybody” rend les méthodes d’indexation des données traditionnelles obsolètes. L’introduction du système de tags par le moteur de recherche Technorati est une réponse adéquate à la fragmentation des contenus (blogs, wikis, albums photos) mais risque de connaître le même sort que les mots clé meta. Ils permettent cependant d’indexer des articles de manière relativement fiable. Reste à voir ce que cela donnera dans le futur.

Une autre piste intéressante réside dans les Microformats, dont le but est là aussi une indexation précise du contenu X(HT)ML en fonction de la nature du document (CV, article de blog, carte de visite), ainsi qu’une réutilisation simple et efficace du contenu par des outils externes, le tout avec les avantages des standards et sans les limitations des formats propriétaires, mais j’y reviendrai bientôt. Une paupérisation du contenu.

Inévitablement, le contenu s’appauvrit à mesure que le nombre de contributeurs peu ou pas spécialisés augmente. Le plus flagrant est une paupérisation linguistique effarante due à l’utilisation massive de langage dérivés des SMS, et à un abandon des règles du [mettez votre langue maternelle ici] sous le prétexte trop souvent entendu que ce qui est en ligne n’est pas vraiment réel et ne nécessite donc pas d’efforts. Le résultat se voit une fois de plus dans les moteurs de recherche : les mots mal écrits ne ressortent pas dans les résultats, même si au final le contenu est pertinent. Cela n’a rien à voir, mais j’aimerais pouvoir comparer le niveau linguistique des écoliers et du Web aujourd’hui et dans dix ans. Assistera-t-on à un “nettoyage” en règle du Web ou à un appauvrissement général de la langue ?

[à compléter…]

Perry the Platypus wants you to subscribe now! Even if you don't visit my site on a regular basis, you can get the latest posts delivered to you for free via Email: