Les marques et la menace ultime du déréférencement…

dereferencement

C’est une petite comédie à laquelle nous avons fini par nous habituer : chaque fois que Google annonce une nouvelle version de son fameux algorithme, les Cassandre de tous poils nous promettent la fin du monde ou presque. La peste et le choléra en mode numérique, en quelque sorte, en attendant les mises à jour suivantes des règles et critères imposés par le premier moteur de recherche mondial.

De ce point de vue, les changements mis en oeuvre par Google le 21 avril dernier n’ont pas échappé à la règle. Qualifiée de « Mobilegeddon » ¹, la modification de l’algorithme qui régit plus particulièrement les résultats de recherche sur smartphone devait avantager les sites mobile-friendly, c’est à dire ceux qui disposent d’une version adaptée aux mobiles…

Qu’en est-il exactement un mois après ? Alors que Microsoft vient tout juste d’annoncer le même genre d’évolution pour son propre moteur (Bing, 2% des recherches mondiales), pourquoi les experts sont-ils aussi sensibles à ces annonces ? Les marques ont-elles raison de craindre un hypothétique « déréférencement » ? 

Bien que le sujet soit volontairement « environné de ténèbres » par les géants du web eux-mêmes et que je ne sois pas un spécialiste (pardon d’avance pour mes éventuelles approximations), je me suis appuyé sur les retours de pros du web et les articles parus récemment dans la presse francophone pour me faire ma propre opinion…

Et le résultat des courses, me direz-vous ? Et bien il est naturellement nuancé, d’une entreprise à une autre. Mais les marques et les professionnels du branding auraient grand tort de prendre à la légère ces évolutions et leurs impacts, comme nous allons le voir.

Le nouvel algorithme de Google : impacts réels ou fantasmés ?

« Toute technologie suffisamment avancée est indiscernable de la magie », disait l’écrivain de science-fiction Arthur C. Clarke. Et cette magie, il faut bien dire que Google prend un malin plaisir à l’entretenir en cultivant la part de mystère qui entoure son/ses algorithmes et leurs évolutions.

Impossible d’avoir une vision d’ensemble et d’anticiper les impacts précis sur tel ou tel site web tant sont complexes les critères et règles prises en compte dans le super outil de calcul du premier moteur de recherche mondial.

File photo dated 30/05/2014 of a Google search removal request displayed on the screen of a smart phone, after BBC economics editor Robert Peston has had a blog, which was published almost seven years ago on the BBC website, reportedly set to be made unsearchable in Google in a move resulting from a court ruling about the "right to be forgotten".

Concrètement, néanmoins, l’impact réel sur la visibilité des sites web français au bout de quelques jours était a priori extrêmement variable. Tandis que les sites leboncoin.fr et celui de la Banque Populaire auraient été fortement pénalisés dans les résultats de recherche par les nouvelles règles de Google (- 34,1 et – 19,2 % respectivement), la visibilité serait restée inchangée pour d’autres acteurs comme jeuxvideo.com, d’après le spécialiste du référencement Yooda.

Naturellement, on peut supposer que les plus gros sites et les plus consultés via des smartphones (comme ceux du Bon Coin et de la Banque Populaire) sont aussi les plus susceptibles d’être affectés dans leur visibilité par les nouvelles règles de Google.

Ce serait néanmoins faire peu de cas de la « claque » enregistrée par les sites d’un certain nombre de TPE et de PME, d’après les échos que j’en ai et le retour de leurs agences, dont certaines ont constaté depuis un mois des baisses de trafic de leurs clients allant de 30 à 50 %, en fonction de leur profil et de leur activité… Loin du constat plutôt rassurant tiré au final par la société de référencement Yooda, pour laquelle « l’impact s’avère pour le moment modéré. En tout cas, ce n’est pas l’apocalypse annoncée. Les sites non adaptés au mobile étant devenus en moyenne 6,2 % moins visibles dans les recherches sur téléphone que dans celles sur ordinateur ».

Le poids de plus en plus important du mobile dans les consultations et le trafic 

Il faut dire que la consultation en ligne via des smartphones ou des tablettes serait littéralement en train de s’envoler puisque, d’après l’institut ComScore, le mobile représenterait d’ores et déjà plus de 60% du trafic sur le web.

Et, malheureusement pour elles, une majorité d’entreprises ne disposent pas encore de sites responsive², susceptibles de s’adapter aux contraintes spécifiques de la consultation mobile. Tandis que 64 % des sites français ne seraient pas mobile-friendly, d’après la société Yooda, les TPE et PME seraient de loin les moins bien loties.

Si on ne dispose pas de statistiques précises concernant les TPE et PME françaises, la National Small Business Association estimait fin 2013 que seules 20% des TPE et PME américaines disposaient d’un site adapté à la consultation sur smartphone et tablettes… Un sacré gap à franchir donc, au vu de l’accélération des innovations et des évolutions technos de ces dernières années, de surcroît.

L’impérieuse nécessité pour les marques de se maintenir à la page…

Mais le constat et l’alerte à sonner ne se limitent pas à la seule compatibilité mobile. Comme le faisait très justement observer Georges Lewi dans son ouvrage de 2014 « e-branding, Stratégies de marque sur Internet » ³, ce sont les marques elles-mêmes qui risquent de devenir moins performantes et moins attractives quand leurs sites web et leurs technologies deviennent obsolètes. Un mal qui guette beaucoup plus d’entreprises qu’on ne le pense…

video-killed-the-radiostar-klii-600x420

Certes, les « e-brands » (à commencer par les sites de e-commerce) paraissent naturellement les plus exposées aux bouleversements technologiques. On concevrait mal qu’elles ne soient pas à la pointe des technologies, tant leur business model repose quasi exclusivement sur leur présence en ligne.

Mais les autres marques, dites « traditionnelles », ne sont évidemment pas à l’abri. Vu l’importance prise par la recherche et la recommandation en ligne, et l’importance d’un bon référencement pour toute entreprise, il serait illusoire de se croire à l’abri d’un « déréférencement » soudain ou progressif, si on ne suit pas le rythme des avancées technologiques. La perspective de se voir déclassé dans les résultats de recherche, ou plus exactement surpassé par des concurrents ayant su prendre en marche le train des nouvelles technologies est donc bien réelle…

Et l’obsolescence est une maladie souvent insidieuse, comme le résume ci-dessoous Jeffrey Zeldman, un des gourous du web :

At the A Space Apart offices.

… CQFD. De fait, les études menées récemment en France le prouvent : la plupart des sites (de TPE et de PME en particulier) ont été conçus ou reposent encore sur des technologies d’il y a 10 ans. Beaucoup sont lents à télécharger, affichent des photos anciennes ou de mauvaises qualité, ne sont pas nécessairement visibles sur tous les principaux navigateurs (Internet Explorer, Firefox, Safari, Google Chrome…), sans parler de leur non adaptation au format mobile.

Plus grave, d’après l’éditeur de sécurité Qualys, sur 200 000 sites français audités, 10 % d’entre eux à peine réalisent les mises à jour nécessaires pour se protéger des virus du moment et 73% n’avaient pas été mis à jour en termes de sécurité depuis au moins un an…

D’abord technique, l’obsolescence finit toujours par être visible par les utilisateurs, qui n’hésitent plus à se détourner des sites et des marques les moins évolués pour leur préférer ceux et celles qui leur offrent le meilleur niveau de fonctionnalités.

Gare donc à ceux qui se croiraient à l’abri : pour la plupart des marques, il y a encore (et il y aura toujours) du pain sur la planche. Et ce n’est plus seulement l’affaire des Directions informatiques, comme on le pensait autrefois, mais un réel souci de compétitivité susceptible de concerner tous ceux qui défendent la/les marques au sein de l’entreprise…

 

Notes et légendes :

(1) « Mobilegeddon » : Ainsi surnommé par la presse américaine, qui n’a pas hésité à prédire dans le changement d’algorithme de Google un phénomène apocalyptique (« Mobilegeddon » = Armageddon du mobile), la crainte exprimée par les médias se référait notamment aux précédents changements réalisés par Google, notamment en 2011 (algorithme « Panda ») ou en 2012 (algorithme « Penguin ») qui avaient sérieusement bouleversé les résultats de recherche pour 10 et 4 % des sites web américains respectivement… 

(2) Sites web « responsive » : le Responsive Web design est une approche de conception Web qui vise à l’élaboration de sites offrant une expérience de lecture et de navigation optimales pour l’utilisateur, et ce, quelle que soit la gamme d’appareils considérée (téléphones mobiles, tablettes, liseuses, moniteurs d’ordinateur de bureau… ). 

(3) « E-branding – Stratégies de marque sur Internet », par Georges Lewi – Editions Pearson, octobre 2013.

 

Crédit photos : 123RF, X, DR, TheBrandNewsBlog 2015.

Plus beaux, les bots ? Les vertiges de l’algorithme et de la com’ « no cost »

Mais puisqu’on vous dit qu’il y a de l’algorithme dedans ! Ne cherchez pas à comprendre, abdiquez toute raison : de toutes façons, ça va vous plaire et ça nous dépasse…

Etre dépassés, certains diront d’ailleurs que c’est un peu ce qui nous pend au nez, à nous autres journalistes et communicants. Vu qu’il y aura prochainement, d’après ces Cassandre, un bot pour nous remplacer au pied levé et réaliser à notre place les taches les plus ingrates… ainsi que les plus nobles ? (avec profit et sans jamais se plaindre, naturellement).

Certains d’entre vous penseront que j’exagère. D’autres en frémissent d’avance ? Dans les deux cas, soyez-en assurés : je n’ai rien en ce qui me concerne contre ces technos ni contre les robots. Et ma belle-mère fait d’excellentes purées avec son Thermomix® ;-)

Mais de là à nous en balancer un peu partout, de cette purée algorithmique et des bots, voilà qui est sans doute un brin exagéré. Pour faire tomber quelques statues et en épousseter d’autres, un petit tour de la question (aussi subjectif que possible) s’impose…

SliderTT_2ter copie

Les robots et l’algo sont partout…

On savait que l’algorithme (« suite d’opérations et d’instructions permettant de résoudre un problème ») était à la base du succès de Google et de tous les moteurs de recherche. Les prévisions météo et de trafic et la gestion de nombreux services reposant sur l’exploitation de modèles statistiques et la corrélation de données (comme les sites de rencontres par exemple) constituent d’autres champs d’application déjà connus.

La production de l’information et la communication n’échappent pas au phénomène. Pour ceux qui en douteraient, l’association Journalisme et Citoyenneté avait choisi d’en faire le thème central des 8èmes Assises Internationales du Journalisme et de l’Information, qui se sont tenues à Metz la semaine dernière*. Il faut dire que les expérimentations d’écriture robotisée menées ces derniers mois par de grands médias anglo-saxons n’ont pas manqué de susciter des commentaires, voire d’inquiéter dans le landernau journalistique. Entre le programme Quakebot, conçu par un journaliste du Los Angeles Times, qui a fourni de l’information immédiatement après le tremblement de terre californien du 17 mars 2014 et la technologie Narrative Science, qui permet à Forbes de produire des contenus enrichis à partir de la data, il faut dire que les effets d’annonce sont souvent spectaculaires.

En matière de médiatisation de ce type d’innovation, c’est d’ailleurs à Associated Press que revient la palme, sans conteste. En annonçant en juillet qu’elle entendait multiplier par 15 son volume de publications grâce aux « automated insights », ces brèves rédigées automatiquement à partir de rapports financiers des entreprises, AP a suscité de nombreux commentaires. Le patron de Forbes, Kristian Hammond, n’est pas moins ambitieux, qui prévoit que 90% des articles seront générés par des robots d’ici 15 ans et qu’un ordinateur gagnera bientôt le prix Pulitzer…

Pas très « rassurante » sur ce point, Alice Antheaume, directrice adjointe de l’école de journalisme de Sciences-Po en rajoute d’ailleurs une petite couche :

AliceAntheaume

Et si l’ennui, en l’occurrence, était aussi d’alimenter la méfiance et la technophobie par de telles comparaisons ?

Algorithme analytique, prédictif ou « créatif » : quand les marques dopent leur formule par une bonne couche de calcul…

Mot-valise, objet de fantasmes, argument marketing favori des GAFA** et d’un certain nombre de start-up en mal de caution scientifique, l’algorithme suscite bien des peurs mais recèle aussi de belles promesses pour les marques. Au-delà du SEO et de la main-mise outrancière du Page Rank de Google sur la visibilité en ligne de toute entreprise, les algorithmes analytiques offrent une efficacité et une rapidité redoutables pour brasser des données complexes et en tirer des résultats pertinents propres à valoriser de nombreux services.

Dans le domaine de l’achat médias, où les agences et les grandes annonceurs ne jurent plus que par l’achat programmatique, l’algorithme permet par exemple d’automatiser et d’optimiser les processus de transactions, en sélectionnant les meilleurs emplacements publicitaires et en ajustant les prix. Dans celui du e-commerce, l’algorithme s’est aussi imposé comme un outil incontournable pour mieux cibler et adresser les besoins du consommateur, par des suggestions personnalisées, en fonction de ses goûts et de son historique d’achat.

Au-delà de ces utilisations devenues « basiques », l’évolution des modèles mathématiques et le croisement de l’analyse de données avec des statistiques poussées a permis d’accoucher d’algorithmes prédictifs, particulièrement prisés. A l’aide de ces programmes avancés, les marques espèrent en effet prévoir les comportements des internautes et pouvoir agir par anticipation, comme le permettent d’ores et déjà les modèles météo et les algorithmes utilisés par certains précurseurs. Comme Meltygroup en France, premier groupe média sur la cible des jeunes, qui se targue d’utiliser un modèle prédictif pour détecter les sujets les plus porteurs… et prédire ceux qui vont survenir ?

A partir de la segmentation fine des cibles et l’analyse poussée des achats, des historiques de navigation ou des évènements passés, l’extrapolation des comportements ou des évènements futurs est devenu le nouveau Graal de tous ceux qui rêvent de révolutionner leur business.

Toujours sur le même recette (le traitement et l’analyse de grandes quantités de data, associés ou non à des études ou panels consommateurs plus classiques), l’algorithme créatif permet quant à lui de dégager des pistes et suggestions pour améliorer une histoire ou un scénario par exemple, en tenant mieux compte des goûts et attentes des futurs spectateurs…

ibo_et_non_redibo_house_of_cards_1

Quand l’algorithme et les bots deviennent de super-arguments de vente et renforcent le lien émotionnel avec les consommateurs

A l’occasion de la sortie de sa série à succès sur les arcanes de Washington (House of cards), Netflix a largement insisté sur les spécificités de son modèle et sur ses méthodes innovantes, dont le recours à l’algorithme n’est pas la moins originale…

Déjà utilisés à toutes les sauces par Netflix, pour mettre au point son business model, détecter les besoins des consommateurs et proposer de nouveaux services, les algorithmes auraient en effet été utilisés pour valider toutes les composantes de la série proposée par Kevin Spacey et David Fincher : casting, pitch, mode narratif… Plus étonnant, à partir de l’analyse d’un grand nombre de séries précédentes, l’algorithme créatif utilisé par Netflix aurait contribué de manière significative à améliorer le scénario d’House of cards, en permettant de combiner intelligemment tous les ingrédients plébiscités par le public.

Qu’il me soit permis de douter de l’effet « miraculeux » de l’algorithme dans ce cas précis. Et de souligner le rôle promotionnel attribué à la technologie pour accroître le phénomène de buzz autour de Netflix…

Pour qui a pu voir la série en question, riche de rebondissements inattendus, de transgressions et d’astuces narratives, réduire son succès et la profondeur du récit à la performance d’un algorithme (aussi puissant soit-il) me paraît faire bien peu de cas du talent purement humain des scénaristes et des acteurs.

Il en est de même dans bien des cas, quand l’algorithme et les bots sont exploités et mis en avant avec plus ou moins de bonheur pour conférer à un produit ou à une marque une image « cool » et « trendy ».

C’est que l’algorithme, comme le soulignent Grégory Casper et Eric Briones dans « La génération Y et le luxe » est aussi devenu un puissant objet de désir, auprès des jeunes en particulier, comme la plupart des marques l’ont bien compris. Symboles de rationalité et de prise de recul, mais également de partage et de collaboration (des valeurs fortes pour la génération Y), les algorithmes sont aussi plébiscités pour ce lien plus émotionnel que suscite leur part de magieCar c’est un phénomène connu de longue date et presque transformé en axiome par l’auteur de science-fiction Arthur C. Clarke : « Toute technologie suffisamment avancée est indiscernable de la magie »… On est là au coeur du rapport éternel entre les technologies produites par l’homme et la dimension du merveilleux. Inattendus, personnalisés, les résultats et suggestions livrés par l’algorithme peuvent en effet enrichir de manière significative l’expérience digitale et émotionnelle proposée aux clients.

ArthurCClarke

Magie noire ou magie blanche : les dégâts potentiels du « no cost » et les véritables enjeux derrière la surenchère technologique

Evidemment, quand on parle de technologie, les questions éthiques ne sont jamais loin... Et si les propos du patron de Forbes (voir ci-dessus) peuvent passer pour de la provocation, car aucun des acteurs n’ambitionne sérieusement d’évacuer l’humain de la scène du travail, les consommateurs semblent quant à eux beaucoup plus circonspects…

En attente d’une relation plus humaine avec les marques (voir mon prochain billet à ce sujet) et redoutant la généralisation du recours aux robots, ils plébiscitent néanmoins l’optimisation de la relation et la personnalisation que permettent les algorithmes.

Les nouveaux web-entrepreneurs et autres génies des big data ne s’y trompent pas, qui relativisent et dédramatisent volontiers eux mêmes la portée de leurs innovations… « Un algorithme ne remplacera jamais un directeur de création » affirmait ainsi Yannick Bolloré, lors de la toute récente Avertising week. Se présentant comme un fournisseur de « solutions d’aide à la création » et d’assistanat des créatifs, Guillaume de Roquemaurel, président de Little Big Data, ne dit pas autre chose : « à partir de la mesure des campagnes précédentes auprès de cibles données, nous aidons les créatifs à mieux bâtir le scénario publicitaire (…) Nous sommes davantage une aide à la création. Notre outil soutient les créatifs pour s’adapter à différents profils de cible ».

Pas de substitution systématique de l’humain par des robots donc, ou par un quelconque algorithme… en tout cas pour le moment. Et le spectre du journalisme et de la communication « no cost » semble encore écarté, pour un temps au moins.

Plus problématique semble en revanche le vide juridique qui entoure l’usage et la diffusion de plus en plus large de ces nouvelles technologies. Au-delà du monopole et de l’opacité de l’algorithme Page Rank, qui alimente toutes les spéculations, les consommateurs sont de plus en plus nombreux à réclamer un droit d’information sur la nature des calculs et des traitements effectués par les machines.

Certains, comme les chercheurs en philosophie Antoinette Rouvroy et Thomas Berns n’hésitent pas d’ailleurs à dénoncer le nouvel ordre mondial instauré par ce « gouvernement algorithmique » et réclament à cors et à cris plus de transparence. « L’algorithme n’a pas vocation à être une boîte noire qui fait peur à tout le monde » confiait il y a peu Thibault D’Orso, fondateur de la start up Spideo. De même, on peut légitimement s’interroger sur ce biais de l’algorithme à réduire les êtres humains à leur seul comportement…

« Ignorant tout des motivations psychologiques des sujets (…) l’algorithme transfigure les sujets moraux en simples coordonnées dans des tables statistiques de calcul… » Un vrai problème à l’heure du machine learning. Car si les robots sont sensés apprendre et décider de plus en plus de manière autonome, quid du résultat de leur délibération, purement rationnelle, quand des intérêts ou des vies humaines seront directement en jeu à l’avenir ?

On le voit, les robots et les algo n’ont pas fini de faire parler d’eux… Et toute nouvelle utilisation soulèvera nécessairement de nombreuses interrogations, pour les marques comme pour les consommateurs.

 

 

Notes et légendes :

* Le grand débat des Assises Internationales du journalisme, organisé par l’association Journalisme & citoyenneté était cette année le suivant : « Algorythme et prédiction d’information : danger ou opportunité pour le journalisme ». Parmi les intervenants invités à s’exprimer sur le sujet figuraient notamment Guillaume Sire, maître de conférence à l’Institut français de presse, Alice Antheaume, directrice adjointe de l’école de journalisme de Science-Po, Basile Simon de BBC News ou encore Emile Servan-Schreiber, directeur général de Lumenologic.

** GAFA : acronyme utilisé en référence aux leaders de l’Internet (Google, Apple, Facebook et Amazon)

« Making of : Algo trip pour la presse », par Amaury de Rochegonde – Magazine Stratégies n° 1786 du 23 octobre 2014

« L’agorythme est-il vraiment le meilleur ami des marques ? », par Capucine Cousin et Emmanuel Gavard – Magazine Stratégies n°1784 du 9 octobre 2014

« Les robots d’Associated Press ont écrit leurs premiers articles », par Thomas Oliveau – Site lefigaro.fr, 21 juillet 2014

« Journalisme & algorithme : Laurent Delahousse est-il condamné à être remplacé par un robot », par Olivier Cimelière – leblogducommunicant2-0.com, 26 juillet 2014

Crédits photos :

123RF, Netflix, Alice Antheaume, X, DR

%d blogueurs aiment cette page :