Editeurs de contenus, si vous cessiez de vous faire phagocyter par Google et Facebook ?

Facebook a modifié son algorithme Edgerank. Ce dernier filtre les publications qui s’affichent sur le mur des abonnés d’une page fan. Désormais, sont privilégiés ceux qui suscitent le plus de likes, de commentaires, de partages…

Comme l’explique lemonde.fr dans une tribune, ceci est une prime aux contenus les plus insolites, les plus « fun », les plus « émotionnels ». Le Monde, journal de référence refuse donc cette tentative d’inflexion de sa ligne éditoriale.

La qualité socio-économique de son lectorat, qui se vend plus cher que la moyenne, met peut-être lemonde.fr économiquement à l’abri d’une légère baisse d’audience. Mais les concurrents qui le talonnent et ne cherchent qu’à le détrôner, réagiront-ils de la même manière ? La guerre fait rage pour intégrer le top 5 des sites d’info les plus fréquentés, car ici se concentre une bonne part du gâteau publicitaire…

LES JOURNAUX DEJA SOUS LE JOUG

Les titres de presse ont déjà très largement baissé les bras face à Google et Google News. Vu l’importance que représente la recherche en termes de trafic pour un site web d’information (entre 60 et 90% du trafic), ils n’ont pas d’autre choix que de s’adapter. Jusqu’ici, c’était plutôt une bonne chose, car Google cherchait surtout à satisfaire l’utilisateur.

Non pas par philanthropie, mais parce que c’était son modèle économique.

  • C’est grâce au moteur de recherches que les sites d’information ont accepté, souvent à contrecœur, de mettre des liens vers d’autres sites. « On ne va quand même pas pointer vers la concurrence, il faut garder le lecteur chez nous ! »  Tant pis pour le lecteur qui ratait une information, au moins on le gardait captif (du moins croyait-on).
  • C’est grâce à Google qu’on a pu vaincre les résistances des SR qui reproduisaient en ligne la sublime densité des pavés de texte bien rectilignes que personne ne lisait sur le web. C’est parce que le moteur récompensait leur présence via le Pagerank  (note de référencement) de la page, que les balises <p> (  saut de paragraphe) , <strong> (gras) ou <li> (puce) ont pu enfin se répandre sur les sites Internet.
  • C’est encore grâce à Google et sa prise en compte de la richesse et l’affinité sémantique des articles, que les titres racoleurs, sans rapport direct avec le contenu du texte, ont commencé à disparaître.

Mais c’est aussi depuis l’arrivée de Google, que les titres se sont uniformisés, avec les fameux “kickers” (démarreurs), ces surtitres suivis de deux points qui composent la grande majorité des titres d’info aujourd’hui, à l’image de celui-ci.

GOOGLE POUSSE LES JOURNAUX A LA FRENESIE

C’est l’irruption du moteur qui a modifié le rythme et le process de publication des journaux en ligne. Désormais, on publie au fil de l’eau pour être le plus rapide et avoir une chance de remonter dans Google News.

La recherche Google favorise elle-même l’information la plus chaude : chaque mise à jour d’un même article renforce son PageRank (PR). Sur deux articles équivalents, Google favorise le plus récent. Par ailleurs, comme les commentaires glanés améliorent aussi le PR d’un article, plus ce dernier est chaud, plus il fait une bonne pêche aux réactions, et donc mieux il est référencé.

Ceci pousse naturellement les sites d’information à publier de plus en plus vite, au risque de se tromper quelquefois (le lien est cassé car Metro a enlevé le lien, mais le titre est évocateur).

Par ailleurs, le succès de Twitter et son incroyable vitesse de propagation de l’information ont encouragé Google a privilégier les contenus toujours plus frais. Quand vous tapez votre nom dans Google, n’est-ce pas votre page Twitter qui remonte parmi les premiers résultats ? (bien sûr, il faut pour cela que vous publiez un peu sur le gazouilleur 🙂

Le moteur valorise aussi les articles qui se partagent bien sur les réseaux sociaux, indice de qualité démocratique s’il en est. Sauf que c’est aussi une prime à l’information émotionnelle : spectaculaire, insolite, fun ou de fait divers …

LES EDITEURS DE CONTENUS, PRISONNIERS VOLONTAIRES

Crédit photo : fdecomite via Flickr.com

Il faut toutefois relativiser la responsabilité de Google. Ce sont les journaux eux-mêmes qui se sont passés le licol, car ils y avaient intérêt : plus d’audience, c’est plus de revenus publicitaires.

A l’origine, Google favorise l’ordre des mots clés dans les titres, car il a constaté que les lecteurs sur écran lisaient surtout le début des phrases. Il récompense ainsi les articles qui apportent vite l’information. Mais ce sont les journaux qui ont choisi de généraliser l’usage des fameux « kickers », pour tirer le meilleur profit des règles Google.

Tant pis pour la répétition un peu lassante des titres et l’agrément de lecture. Les médias ont appliqué consciencieusement la règle de Google, car ils y gagnaient du clic.

Ce sont les fils d’actu à chaud qui désormais occupent la meilleure place des sites d’info, lefigaro.fr, leparisien.fr, lequipe.fr… tous ces grands sites ont désormais un gros bloc de brèves en « tête de gondole ».

De gauche à droite et haut en bas : lequipe.fr, le parisien.fr, lexpress.fr, lefigaro.fr, lesechos.fr

LA PRESSE, PIGEONNEE PAR LES GEANTS DU WEB ?

La presse obéit donc parfois aveuglément aux règles de référencement de Google, et notamment à ce critère de fraîcheur de l’info. Ce faisant, elle ne sert pas tant les intérêts du lecteur, que ceux du moteur. L’objectif de ce dernier est de fournir des résultats pertinents le plus vite possible, afin de susciter un maximum d’autres requêtes. Les recherches sont la matière première que le moteur monétise, via les Google Ads. Donc, plus nous recherchons, plus nous lui rapportons de l’argent.

Ceci a une conséquence néfaste sur la qualité de service à l’utilisateur. C’est que Google ne fait pas dans la dentelle. Il nous rapporte vite ce qui est susceptible de nous plaire, pas ce qui peut nous surprendre, ni nous amener à découvrir de nouvelles choses. La fameuse sérendipité, chère aux cyberflâneurs, a du plomb dans l’aile. D’autant que Google récompense les sites qui font beaucoup de trafic, ce qui accentue la mise en avant des mêmes gros sites, au détriment de la diversité.

Pire, cette circularité de recherche s’aggrave avec les résultats personnalisés. Ces derniers s’appuient sur l’historique du navigateur pour affiner les résultats selon vos goûts. Si vous tapez « pyramide » et que vous vous intéressez habituellement à l’Histoire, Google vous servira d’abord les pyramides égyptiennes. Si vous êtes plutôt fan de télé, il vous servira peut-être avant tout l’émission éponyme… Fini les surprises, vous avez exactement ce que vous aimez. Mais pas plus.

SI LE PRODUIT EST GRATUIT, C’EST QUE LE PRODUIT, C’EST VOUS

En donnant aux éditeurs de presse un accès gratuit à son outil de statistiques Analytics, Google a permis aux journaux de produire des contenus plus efficaces.

L’objectif du moteur était loin d’être désintéressé. Il s’agissait d’augmenter la pertinence des résultats de recherche, afin de doper l’usage du moteur par les internautes. « Donnez-moi des contenus adaptés à MA logique de tri, pour que les résultats soient meilleurs et plus rapides. Ce, afin que mes utilisateurs en fassent davantage », pourrait-on résumer.

Le géant Facebook, de la même façon, a piégé les éditeurs de contenus. La firme de Zuckerberg leur a gracieusement offert des outils communautaires performants et des plug-in de partage sociaux gratuits.

Là encore, il s’agissait de se servir des contenus pour booster l’usage du réseau social. Avec, comme objectif, le ciblage publicitaire maximal, grâce à la manne d’informations recueillies sur les goûts des internautes, sur leur environnement social, géographique…

La richesse de Facebook, ce sont nos informations personnelles. C’est pourquoi il a intérêt à multiplier nos échanges et notre engagement, via ce nouvel algorithme. C’est aussi la raison pour laquelle il est si facile de publier un statut Facebook : l’outil récupère tout seul, textes, lien, image…

Mais, au final ce sont bien nous, les consommateurs qui sommes pris dans cette frénésie de l’information-socialisation à tout crin. Certes, personne ne nous force et d’une certaine manière, nous sommes des « otages volontaires ».  Mais a-t-on jamais vu un enfant refuser une sucrerie ?

C’est pourquoi  lemonde.fr a raison de dire stop, tout comme Marie Catherine Beuth n’a pas tort d’alerter les journalistes sur le risque de phagocytage des contenus par Twitter. Mais, le problème est bien plus général : il concerne tous les géants du web, qui commencent à devenir gourmands et se servent de l’alibi du service au lecteur pour promouvoir leur business.

Les journaux doivent résister à la pression et afficher un front uni pour refuser de perdre chaque jour davantage le contrôle de leur ligne éditoriale. Le billet du monde.fr sonne comme un appel à l’union des éditeurs de contenus autour de cette question.

Il y va aussi de l’intérêt du lecteur, car ce dernier doit se voir proposer autre chose que des sujets émotionnels et « engageants ». Il nous saura gré demain de lui avoir proposé bonbons ET brocolis, tout comme nous remercions nos parents de nous avoir forcé à goûter de tout.

Cyrille Frank – Sur Twitter / Sur Facebook 

Sur le même sujet : SEO_copywriting, l’anti-Pulizer


LIRE AUSSI :

Crédits photo : martinlabar et fdecomite via Flickr.com

37 commentaires sur « Editeurs de contenus, si vous cessiez de vous faire phagocyter par Google et Facebook ? »

  1. Les règles misent en place par les éditeurs, tout celles édictées par Google, correspondent d’abord et surtout à des réponse suite aux analyses de comportement du lectorat. Pourquoi faire un titre long quand la grande majorité des lecteurs réclament veulent savoir rapidement et simplement quelle est l’information ? Peut-on se contenter de publier une information plusieurs jours après celle-ci alors que le public réclame des nouvelles rapides, instantanées ?
    On en arrive alors à la question qui anime cet article : Faut-il se mettre à dos une majorité de son audience pour satisfaire une poignée de personnes ? J’aurais tendance à dire « oui » et vous aussi à ce qu’il semble. Mais il n’empêche que les groupes de presse, déjà en grande difficultés, eux, n’ont pas envie de prendre de risque.

    1. Bonjour Lyto,

      Vous touchez du doigt plusieurs problèmes. D’abord l’arbitrage à faire entre les critères quantitatifs de Google et la nécessaire prise en compte qualitative de la production éditoriale.

      Le lecteur veut un titre aussi court que possible, dans la mesure où il comprend vite ce dont on lui parle. Google lui ne peut évaluer que la présence ou pas des mots clés. La longueur lui importe peu. Voyez, ce n’est pas si simple… A choisir entre clarté et concision, je privilégie toujours la clarté. La concision est un bonus (qui a de la valeur mais n’est pas toujours possible sans déformation).

      Par ailleurs vous évoquez aussi la dualité des publics. Les fidèles arrivés sur la page d’accueil et les lecteurs anonymes et variés arrivés via la recherche. On parvient à concilier les deux grâce au double titrage (home/article) qui permet de faire de la connotation dans les titres de rubriques et sur la home. Le titre de l’article restant toujours informatif pour ne pas perdre l’audience de Google (60 à 90% du trafic d’un site d’actu !)

      La seule réponse qui vaille est : quel est le service rendu au lecteur. Google n’est utile que dans la mesure où il sert le même dessein. Quand il s’en écarte, il ne faut pas suivre Google, mais bien l’intérêt du lecteur. Ex : le problème de longueur que vous évoquez, y compris dans la rédaction des articles.

      En réalité Google serait ravi de pouvoir intégrer ce paramètre de qualité, mais il ne peut pas tout simplement. L’être humain a encore un peu d’avance sur la machine, profitons-en !

      Cordialement

  2. Attention, le PageRank dépend de la quantité des liens qui pointent vers une page web. En aucun cas, il ne dépend de la quantité de commentaires, ou des mises-à-jour faites à un article.

    Par ailleurs, si la fraîcheur est un critère dans le positionnement, ce n’est pas le seul. J’ai beau mettre à jour des dizaines de fois ma page Twitter, elle ne ressort pas dans les résultats de recherche sur mon nom. D’ailleurs, le premier site qui apparaît sur mon nom est mon site personnel, pas mis à jour depuis… des années. Suivent d’autres réseaux sociaux, tout aussi peu souvent mis à jour.

    Pour ce qui est du Monde, il faut bien comprendre qu’il y a un fossé entre ce qu’ils annoncent et ce qu’ils font. En effet, depuis maintenant des années, le monde truffe ses articles de liens invisibles, que cela soit sur des noms de personnalités ou, plus récemment, des verbes, renvoyant vers des pages au contenu généré automatiquement. Ce sont des techniques tout à fait prohibées par Google que l’on qualifie de spamdexing, ou spam web. Elles visent à augmenter la quantité de liens vers des pages au contenu prétendument utile (comme des milliers de pages de conjugaison, de synonymes, de définitions sans intérêt pour le lecteur), mais en réalité sans intérêt pour le visiteur, le tout dans le but d’améliorer artificiellement le PageRank, et le positionnement dans les résultats de recherche. Ici, Le Monde vise manifestement à tromper les annonceurs sur le public qualifié de son réseau, dans le but de monétiser à la hausse ses espaces publicitaires. Google n’est alors qu’un moyen, parmi tant d’autres.

    J’entends ici que lire que la presse se veut garante d’une certaine qualité, quitte à refuser d’adapter sa ligne éditoriale aux contraintes du marché est faux. Les faits le démontrent. Quel journaliste ajouterait systématiquement des liens sur chaque verbe de son article ? Bref, Le Monde, la presse en général, et Google, les géants du web en général, cherchent à atteindre les mêmes objectifs, en l’occurrence d’acquérir le maximum d’audience pour la monétiser au meilleur prix.

    Quant à Google Actualités, j’avoue ne pas comprendre ce qu’on lui reproche, que cela soit ici ou ailleurs. L’audience de la presse continue à baisser depuis des décennies. Dans les années 1990, avant même Google ou Google Actualités, les sites de presse peinaient à être rentables. Google Actualités a aidé la presse à acquérir de l’audience supplémentaire, notamment de la part de publics qui étaient totalement hors phase avec l’actualité.

    Mais Google n’est pas le seul moyen d’acquérir des visiteurs. Facebook et Twitter sont deux autres géants qui facilitent le partage de l’information. Et leur poids sur les visites augmente. Certaines entreprises ne jurent plus que par eux, pour assurer leur indépendance vis-à-vis de Google, et s’en sortent assez bien.

    Ainsi, je suis moi-même venu sur cette page en suivant non un lien issu de Google, mais au hasard d’une conversation entre gens de qualité sur Twitter. Certes, on manque encore d’expérience dans les réseaux sociaux pour pouvoir systématiquement mettre des moyens d’optimisation visant les gens, à savoir les êtres humains, plutôt que des algorithmes déshumanisés. Néanmoins, les outils et les méthodes se développent, s’affinent. Et les sites de presse ont tout intérêt à saisir l’opportunité de se mettre à la page. Non la page actuelle, mais celle à venir. Sans abandonner l’existant, on peut développer de nouveaux canaux d’audience avec succès. Et sans blâmer le moindre géant du Net.

  3. Martin,

    Mertci pour votre long commentaire 🙂

    « En aucun cas, il ne dépend de la quantité de commentaires, ou des mises-à-jour faites à un article. » Ce n’est pas ce que m’ont confirmé des experts SEO et que j’ai observé moi-même ! Ce n’est pas le critère principal, mais ça joue à la marge (2-3%).

    Bien sûr que si, le nombre de commentaires d’un article et sa ré-exploitation ultérieure augmente son PR (donc rafraîchissement d’une même page)

    D’accord pour le Monde et la schizophrénie des journaux que j’évoque moi-même dans ce papier. Je préconise justement que les journaux s’intéressent plus à leurs lecteurs qu’aux moteurs. Nous sommes d’accord sur ce point.

    Je ne parle pas que de Google, mais aussi de Facebook et de Twitter. Et si vous avez lu correctement, je renvoie aussi la presse à ses responsabilités. Il ne s’agit pas de blâmer les géants (ça c’est votre interprétation de mon avis), il s’agit de renégocier la valeur, c’est tout. Je commence par reconnaître des vertus à Google du point de vue utilisateur.

    Mais il faut reconnaître aujourd’hui que la dépendance très forte des éditeurs aux GAFA (google, facebook, amazon, apple) est dangereuse et se traduit par une vilaine course à l’audience qui ne sert pas le lecteur.

    Il faut sortir de cette dépendance totale et de plus en plus forte en se dotant des outils ad hoc, via l’innovation. C’est mon propos.

    Le débat est exactement le même que dans la grande distribution : ceux qui tiennent la distribution (Carrefour, Leclerc…) peuvent écraser les petits producteurs. Il faut trouver un mode de distribution alternatif en ligne, une sorte de Presstalis en ligne par coopérative, par ex.

    Et accepter aussi de prendre des risques et de se remettre en question. La presse a ses torts aussi…

    Cordialement

  4. Martin,

    Mertci pour votre long commentaire 🙂

    « En aucun cas, il ne dépend de la quantité de commentaires, ou des mises-à-jour faites à un article. » Ce n’est pas ce que m’ont confirmé des experts SEO et que j’ai observé moi-même ! Ce n’est pas le critère principal, mais ça joue à la marge (2-3%).

    Bien sûr que si, le nombre de commentaires d’un article et sa ré-exploitation ultérieure augmente son PR (donc rafraîchissement d’une même page)

    D’accord pour le Monde et la schizophrénie des journaux que j’évoque moi-même dans ce papier. Je préconise justement que les journaux s’intéressent plus à leurs lecteurs qu’aux moteurs. Nous sommes d’accord sur ce point.

    Je ne parle pas que de Google, mais aussi de Facebook et de Twitter. Et si vous avez lu correctement, je renvoie aussi la presse à ses responsabilités. Il ne s’agit pas de blâmer les géants (ça c’est votre interprétation de mon avis), il s’agit de renégocier la valeur, c’est tout. Je commence par reconnaître des vertus à Google du point de vue utilisateur.

    Mais il faut reconnaître aujourd’hui que la dépendance très forte des éditeurs aux GAFA (google, facebook, amazon, apple) est dangereuse et se traduit par une vilaine course à l’audience qui ne sert pas le lecteur.

    Il faut sortir de cette dépendance totale et de plus en plus forte en se dotant des outils ad hoc, via l’innovation. C’est mon propos.

    Le débat est exactement le même que dans la grande distribution : ceux qui tiennent la distribution (Carrefour, Leclerc…) peuvent écraser les petits producteurs. Il faut trouver un mode de distribution alternatif en ligne, une sorte de Presstalis en ligne par coopérative, par ex.

    Et accepter aussi de prendre des risques et de se remettre en question. La presse a ses torts aussi…

    Cordialement

  5. Ping : - s

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *