Après les portails, les moteurs de recherche et les réseaux sociaux, les contenus denses (et payants) préfigurent la nouvelle ère du journalisme numérique. C’est la thèse d’un article très stimulant relayé par le site spécialisé Poynter. Propre au journalisme, cette évolution n’en est pas moins riche d’enseignements pour la communication digitale.
Portails, moteurs de recherche, réseaux sociaux : les 3 (premières) ères du web
Résumons la thèse de l’auteur : depuis la création d’internet, les internautes ont accédé aux contenus (articles, vidéos, infographies…) mis en ligne par différentes voies.
D’abord, ils ont consulté des “portails” qui agrégeaient une sélection de contenus publiés ailleurs en ligne. Les portails ont été lancés au début des années 90. Et ils n’ont d’ailleurs pas disparu. Orange et Yahoo, entre autres, en proposent encore :
Le portail d’actualités d’Orange
Ensuite, les moteurs de recherche sont arrivés, dont le célèbre Google, créé en 1998. C’était alors une nouvelle façon d’accéder aux contenus publiés en ligne, plus personnelle. En quelque sorte, chaque utilisateur crée, à chaque fois qu’il tape une requête, son portail personnalisé.
Aujourd’hui, nous sommes encore tous utilisateurs des moteurs de recherche, dont Google capte plus de 90 % du marché en France.
Google répond même aux requêtes les plus hostiles
Enfin, les réseaux sociaux ont connu le succès qu’on connaît aujourd’hui. Facebook, créé en 2004, en est l’archétype : avec près de deux milliards d’utilisateurs, il est devenu un incontournable pour une majorité d’internautes. A tel point que certains d’entre eux confondent Facebook avec internet !
Pourquoi la 4ème ère du web (journalistique) peut inspirer la communication digitale
Après avoir traversé ces 3 premières vagues (portails, moteurs de recherche et réseaux sociaux), le journalisme numérique entrerait maintenant dans une nouvelle ère : le modèle par abonnement payant… justifié par des contenus de meilleure qualité.
Le postulat de base est le suivant : internet est envahi de contenus de mauvaise qualité. La fameuse “infobésité”, ou “surcharge informationnelle” si vous préférez faire chic. De ce point de vue, les internautes seraient demandeurs de contenus de meilleure qualité, quitte à en consulter moins.
Et ici, le journalisme numérique peut inspirer la communication digitale.
Contenus : les limites du partout, tout le temps
Aujourd’hui, les entreprises et institutions sont souvent dans une logique de flux : il faut produire beaucoup et régulièrement pour alimenter site(s) internet, application(s) et comptes sociaux. Quitte à publier des contenus de mauvaise qualité. Qui peut leur jeter la pierre quand Google récompense les sites régulièrement mis à jour et quand les réseaux sociaux encouragent à publier très souvent ?
Mais.
Suite au Brexit et à l’élection de Donald Trump, la problématique des “fake news” a fait son apparition. Les moteurs de recherche et réseaux sociaux, Facebook en premier lieu, en ont souffert : ils étaient accusés de laisser se propager de “fausses nouvelles”. Ces acteurs ont alors mis en place des solutions pour lutter contre ce phénomène, opérant ainsi un tri entre les “bons” et les “mauvais” contenus.
Et trier, cela fait longtemps que les grandes plateformes numériques le font. Après tout, c’est le principe même de Google : parmi tous les contenus disponibles, le moteur de recherche se donne pour mission de faire remonter uniquement les plus pertinents selon ses algorithmes. Idem pour Facebook, qui, entre toutes les publications qui sont mises en ligne chez lui, trie celles qui doivent apparaître sur les flux de chacun de ses utilisateurs.
L’algorithme de tri des publications de Facebook privilégie l’intérêt des publications à la chronologie.
Ce tri est d’ailleurs de plus en plus radical. Facebook combat par exemple depuis longtemps les “clickbaits”, ces contenus “pièges à clics” : pauvres en information mais qui savent nous tenter en choisissant des titres accrocheurs (“17 inventions absolument géniales”). Dans la même veine, le réseau social de Mark Zuckerberg a récemment mis en place une évolution de son algorithme pour lutter contre les “liens de mauvaise qualité”. De son côté, Google multiplie les mises à jour pour bannir les contenus qu’il considère inintéressants ou malhonnêtes et donne un malus aux contenus trop courts, partant du principe que ce sont souvent des brèves sans intérêt.
Peu à peu, cette limite du « partout, tout le temps » engendre une prime aux contenus denses.
Vers une prime de visibilité aux contenus denses
Internet regorge donc de contenus mais les plateformes via lesquelles ces contenus sont consultés (réseaux sociaux et moteurs de recherche) opèrent un tri très sévère qui aboutit à en exclure la plupart.
D’où cette question : en tant qu’entreprise qui travaille sa communication digitale, n’ai-je pas intérêt à produire moins pour être plus visible ? Rien n’est garanti mais si la tendance se poursuit, les contenus denses, informatifs et sourcés seront toujours plus favorisés par les grandes plateformes numériques. Ils seront alors plus visibles, donc plus consultés.
Les contenus denses bénéficieraient donc d’une sorte de prime aux contenus de qualité, même si cela nécessite de sortir de la logique de flux en prenant plus de temps pour produire chaque contenu. Après la 3ème ère du web (proéminence des réseaux sociaux), construite sur un flux continu de publications, la communication digitale pourrait (ou devrait) entrer dans une ère du “slow web”, comme il y a du “slow journalism”.
Cette évolution n’enterre pas les réseaux sociaux, qui eux-mêmes prennent doucement ce virage : Facebook n’encourage-t-il pas les vidéos longues et les (vrais) articles plutôt que les simples “status” ?
Comme quoi, sur internet comme chez La Fontaine, c’est toujours la tortue qui gagne.
D’ailleurs, si vous voulez poursuivre la réflexion, n’hésitez pas à nous répondre (et à prendre le temps de le faire) !