Subscribe: Référencement, Design et Cie
http://s.billard.free.fr/referencement/rss.php
Added By: Feedage Forager Feedage Grade A rated
Language: French
Tags:
avec  dans  des  données  est  google  les données  les  par  pas  pour  qui  recherche  résultats  seo  sur  une  vous 
Rate this Feed
Rate this feedRate this feedRate this feedRate this feedRate this feed
Rate this feed 1 starRate this feed 2 starRate this feed 3 starRate this feed 4 starRate this feed 5 star

Comments (0)

Feed Details and Statistics Feed Statistics
Preview: Référencement, Design et Cie

Référencement, Design et Cie



Blog sur le SEO, les moteurs de recherche et le web. J'y partage mes réflexions personnelles, informations et astuces sur le référencement.



Updated: 2016-12-06T10:21:33+00:00

 



Scraper les SERPS Google avec Chrome et l'extension Scraper

2016-05-11T11:40:00+01:00

Besoin de scraper les résultats de recherche Google ? Voici une méthode utilisable avec l'extension Scraper pour Chrome. Une fois l'extension installée, faite votre recherche dans Google, faite un clic-droit n'importe où dans la page de résultats et cliquez sur "scrape similar". La fenêtre de l'extension s'ouvre.

Dans la rubrique "Selector", utilisez l'expression Xpath suivante :

//*[@id="rso"]/div/div/div[@class="rc"]

Cette expression va sélectionner dans la page de résultats Google tous les

de classe "rc" contenu dans le bloc "rso", c'est à dire les blocs correspondant à chaque site listé, lesquels contiennent le titre, le lien vert (ou fil d'ariane), et le snippet (description). Maintenant, dans la rubrique "Columns, créez quatre expressions Xpath configurées de la façon suivante :

(image)

Une fois ces lignes créées, cliquez sur "Scrape" : la fenêtre de droite devrait alors afficher dans l'ordre le titre de chaque site, l'URL visible (ou fil d'ariane), le snippet, et l'URL de destination du lien. Vous n'avez plus alors qu'à exporter les données dans Excel ou Google Docs ;) N'oubliez pas de sauvez cette configuration dans les presets pour la réutiliser facilement.




Chute de votre trafic Google Images ? Une explication

2015-09-16T12:51:23+01:00

Si vous êtes un utilisateur un peu avancé de Google Analytics, vous suivez probablement le trafic issu de Google Images, en isolant parmi les référents les sessions répondant à une expression régulière du type ^(/im(gres|ages/(view|search))).

Et peut-être avez-vous remarqué une baisse brutale du trafic images depuis le 11 septembre 2015. Cette baisse n'est qu'apparente. La raison en est que Google a supprimé sur sa page de prévisualisation le chargement en arrière plan de la page hébergeant l'image, affichant à la place un fond gris. La page du site n'étant plus chargée, le script Google Analytics n'est plus exécuté, et aucun referer n'est enregistré.

(image)

Qu'en est-il des clics sur les liens "site web pour cette image" présents sur les pages de prévisualisation ? Google ne transmet pas de referer pour ces clics. Ces visites seront donc comptées comme des accès directs.

Le seul moyen d'apprécier votre trafic image est donc désormais de faire confiance à Google et à son rapport "Analyse de la recherche", en filtrant sur le type de recherche.

PS : Comme le font remarquer justement plusieurs commentateurs, Il semble que les images en HTTPS ne soient pas impactées par ce phénomène.




Combien de temps conserver une redirection 301 ?

2015-09-14T14:45:00+01:00

Combien de temps les redirections doivent-elles rester active ? C'est une question qui m'est régulièrement posée par ma direction informatique, soucieuse de ne pas surcharger ses fichiers de configuration. Ma réponse en général est "ad vitam eternam, autant que possible" ce qui me permet d'obtenir un répit d'au moins un an ;)

Dans un hangout récent, John Mueller, analyste chez Google, donne son opinion sur ce sujet :

"En théorie une redirection 301 est une redirection permanente, qui peut donc être conservée indéfiniement (...) Dans la pratique, quand nous rencontrons une redirection permanente, nous essayons de nous en souvenir pour le futur. Aussi, si vous avez migré votre site et que nous avons bien pris connaissance de cette migration, ce qui peut prendre 6 mois ou 1 an, alors vous pouvez au bout d'un certain temps supprimer vos redirections. Il faut cependant être conscient que si des liens continuent de pointer vers une vieille URL, alors celle-ci sera susceptible d'apparaître dans nos pages de résultats en cas de suppression des redirections (...) Je viserais donc une conservation des redirections 301 d'au moins un an, et plus longtemps encore si possible, en fonction de ce qui est raisonnable dans votre situation".

En résumé : gardez vos redirections actives le plus longtemps possible (et mettez à jour les redirections existantes pour éviter les redirections en chaine).




Mieux exploiter RanksExplorer avec Excel

2015-09-04T12:26:00+01:00

Je pense beaucoup de bien de l'outil de positionnement Ranks, que j'utilise tous les jours. Au delà du simple contrôle de positionnement sur les expressions que j'ai moi-même définies, j'apprécie particulièrement les données fournies par l'outil RanksExplorer qui portent sur un très grand nombre d'expression (plusieurs dizaines de millions de mots-clé français) et permettent de contrer au moins en partie le notprovided.

Sous leur forme brute, les données sont organisées en 3 colonnes : mots-clé, trafic mensuel (théorique) et URLs positionnée. Je vous propose aujourd'hui d'utiliser un tableau croisé dynamique pour exploiter ces données de façon plus aisée.

Téléchargez tout d'abord les données de RanksExplorer au format CSV, et transformez les en tableau. Vous devez obtenir ceci :

(image)

Sélectionnez une cellule du tableau, et dans l'onglet "outils de tableau" cliquez sur "Synthétiser avec un tableau croisé dynamique". Dans votre tableau croisé, faites glisser le champ "Trafic Mensuel" dans les valeurs, et les champs "URL positionnée" et "Mot-clé" dans les étiquettes de ligne :

(image)

Vous obtenez alors un tableau avec une URL par ligne et le trafic théorique correspondant à cette URL dans une deuxième colonne. Un clic sur le bouton "+" permet d'accéder aux expressions sur lesquelles cette URL est visible, avec le trafic estimé pour chaque expression.

(image)

A ce stade, vous aurez peut-être remarqué que chaque modification détruit la largeur des colonnes. Pour éviter ce problème faite un clic-droit sur le tableau, cliquez sur "options du tableau croisé dynamique" puis sur l'onglet "disposition et mise en forme" et désélectionnez le champ "ajuster automatiquement la largeur des colonnes lors de la mise à jour".

Une dernière amélioration de ce tableau consiste à afficher le nombre d'expressions sur lesquelles se positionne chaque URL. Pour ce faire, faites glisser le champ "mot-clé" dans les valeurs. Une nouvelle colonne apparait alors à droite de la colonne trafic affichant le nombre d'expressions associées.

(image)

L'exploitation des données Ranksexplorer devrait maintenant être plus simple :)




Scraper les données du graphe "Analyse de la recherche" dans Google Search Console

2015-09-03T12:25:53+01:00

Depuis ce matin, Google a supprimé l'accès à l'ancienne version du rapport "Analyse de la recherche" dans Google Search Console (ex Webmaster Tools). Ce qui est vraiment dommage, car on ne peut plus télécharger au format CSV les données du graphique comme le permettait l'ancienne version.

Pas de panique cependant, voici une astuce pour récupérer ces données en utilisant Google Chrome est l'excellent plugin Scraper. Pour ce faire connectez vous à Google Search Console, et allez dans le section Analyse de la recherche. N'importe où dans la page, faites un clic droit, cliquez sur "Scrape similar" et copiez l'expression suivante dans le sélecteur Xpath :

//*[@id="wmt-tsq"]/div/div/div/div/div/div/div/div/table/tbody/tr[td]

Cette expression va sélectionner dans le code source de la page toutes les cellules du tableau utilisé pour construire le graphique. Dans la section "Columns" utilisez ensuite les expressions Xpath suivantes pour récupérer les différents données affichées dans le graphe Search Console. Si vous avez activé les options clics et CTR par exemple créez une expression *[1] nommé Date, une expression *[2] nommée Clics et une expression *[3] nommée CTR. Cliquez sur scrape et vous devriez obtenir ceci, qui peut être copié dans Excel :

(image)

Pensez à sauvegarder ce preset pour une utilisation ultérieure :)

PS : comme l'a fait très justement remarquer SeoF1 il suffit en fait d'afficher les données du tableau par date et non pas par requête... preuve que les habitudes nous induisent parfois en erreur. Cela m'aura au moins fait potasser Xpath :)




Afficher plus d'entrées dans Google Webmaster Tools

2015-01-20T16:04:05+00:00

Google Webmaster Tools permet d'afficher dans la rubrique "Requêtes de recherche" jusqu'à 500 lignes. Or ce chiffre est parfois clairement insuffisant quand il s'agit d'aller chercher de l'information en profondeur. Le téléchargement du tableau en CSV ne résoud rien, car on ne bénéficie alors pas des données de second niveau comme les mots-clés associés aux pages, visibles lorsqu'on clique sur la flèche noire précédant une URL.

Heureusement, une solution existe et je vous la livre : il suffit simplement de modifier la valeur du paramètre "grid.s" dans l'URL Webmaster Tools en lui donnant une valeur égale ou supérieur au nombre de pages connues par GWT. Exemple :

(image)

L'intégralité des entrées est alors affichée sur une page unique et une recherche par "Ctrl+F" permet de trouver rapidement les informations associées à une URL donnée :)




Des statistiques sur la cannibalisation du SEO par le SEA

2015-01-20T14:10:23+00:00

Les données fournies par Advanced Web Ranking dans son étude "Google organic CTR history" offrent des statistiques intéressantes sur la cannibalisation du SEO par les liens sponsorisés.

Il apparait d'abord que l'impact de la présence de liens sponsorisés dans les pages de résultats se fait sentir surtout pour les 4 à 5 premiers résultats. Au delà, l'influence de la présence de liens sponsorisés sur les CTR est négligeable.

Pour les sites présents dans le top 5 des résultats naturels, pour les recherches hors-marque, tout se passe comme ci les résultats sponsorisés prenaient la place des résultats naturels (ce qui est le cas visuellement). Le CTR de la 1ere position passe ainsi de 31% à 18% en présence de liens sponsorisés au dessus des résultats naturels, et celui de la 2ème position de 19% à 11%. Ce qui correspond approximativement à des CTR de positions 2 et 3.5 en l'absence de liens sponsorisés.

L'étude met également en évidence la grande différence de distribution des CTR entre le trafic marque et hors-marque : Pour le trafic marque, le CTR de la 1ère position est de 52%, contre 27.5% pour le trafic hors-marque.




Toolbar PageRank : la fin est proche

2014-10-07T15:14:00+01:00

On s'en doutait déjà la dernière mise à jour datant de décembre 2013, mais la fin du Pagerank visible (TBPR ou "toolbar pagerank") se confirme à nouveau. Dans un récent hangout relayé par SERoundtable, John Mueller, analyste chez Google, s'est exprimé en ces termes à propos du Pagerank : "Il n'y aura vraisemblablement plus de mise à jour de celui-ci, en tout cas en ce qui concerne le Pagerank affiché par la barre d'outils".

C'est donc bien la fin de la petite barre verte, si chère aux webmasters et aux SEO. Une question se pose toutefois : comment Google va-t-il alors faire passer le message lors des prochaines vagues de pénalisation pour achat et vente de liens s'il n'y a plus de PR à mettre à zéro ? :)




SEO : faut-il passer au HTTPS ?

2014-09-03T12:47:00+01:00

Le 7 aout dernier, Google a annoncé officiellement que l'utilisation du protocole HTTPS par les sites web était désormais pris en compte par son algorithme en tant que facteur de positionnement. L'argument avancé par le moteur est celui d'un internet "plus sûr". Google reconnait que le poids de ce facteur est actuellement très faible, mais pourrait augmenter dans le futur.

Les webmasters doivent-ils passer au HTTPS sans tarder ? Personnellement je ne le recommande pas (sauf zones sensibles sur certains sites), et voici pourquoi :

  • Pour des pages ordinaires, rien ne justifie le HTTPS.
  • Le poids de ce facteur est ultra faible (d'ailleurs personne n'a remarqué de mouvements dans les SERPS), et le restera probablement.
  • HTTPS étant plus lent, optimiser ce facteur mettra à mal cet autre facteur lui aussi faiblement pris en compte par l'algorithme, qui est le temps de chargement.
  • Si la transition est mal réalisée (appel de ressources non HTTPS) le passage à HTTPS risque de provoquer des messages d'alerte anxiogènes pour les visiteurs qui les feront fuir ou réduiront les conversions.
  • Enfin le passage à HTTPS est une migration, avec tous les dangers que cela comporte.

Bref, il est urgent d'attendre. AMHA.




Le SEO à l'origine de 51% du trafic, loin devant les réseaux sociaux

2014-08-29T12:34:00+01:00

A en croire une étude récemment publiée par BrightEdge, les résultats naturels des moteurs de recherche seraient à l'origine de 51% du trafic devançant largement les liens sponsorisés (10%) et les réseaux sociaux (5%). Ces chiffres sont à prendre avec précaution, car l'étude fournit peu d'informations sur la méthodologie employée ("des milliards de contenus analysés"), et parce qu'un biais lié à l'échantillon reste possible. Néanmoins cette étude rappelle encore une fois l'importance du Search.

(image)

Cette répartition des sources de trafic est très inégale selon les thématiques. Le e-commerce est le secteur qui bénéficie le moins des réseaux sociaux, alors que ceux-ci sont importants quand il s'agit d'internet et de technologie :

(image)

L'étude rappelle également que la recherche universelle est synonyme de CTR souvent plus élevés. En moyenne les videos et images auraient un taux de clic supérieur de 13%.




Le underscore comme jocker dans Google Suggest

2014-08-19T14:49:00+01:00

Google Suggest est un bon point de départ pour rechercher des mots-clés. Cependant, dans la majorité des cas, les expressions retournées seront uniquement celles débutant par l'expression tapée. Par exemple, si je tape "arrêter de fumer" Google va me suggèrer uniquement des expressions commençant par "arrêter des fumer" :

(image)

Sachez cependant que le signe underscore peut être utilisé comme joker (wildcard) dans vos recherches et remplacer zéro, un, ou plusieurs mots. Il permet donc d'identifier des requêtes courantes qui contiennent ou qui se se terminent par une expression, et pas seulement celles qui commencent par celle-ci. Exemple pour "_ arrêter de fumer" :

(image)

Bon à savoir également : le underscore peut être utilisé plusieurs fois dans une requête. Exemple pour "comment _ à _ mari " :

(image)

Enfin, si certaines requêtes ne renvoient aucune suggestion, essayez d'ajouter un espace au début de celles-ci : il est fréquent que des suggestions apparaissent alors ;)




SEO en agence vs SEO chez l'annonceur

2014-06-18T13:16:00+01:00

Faisant suite à la table ronde à laquelle j'ai eu le plaisir de participer lors du SMX Paris avec Béatrice Payonne et Mael Montarou , et ayant œuvré dans les deux mondes, je vous livre aujourd'hui ma réflexion personnelle sur les différences entre le SEO coté agence et le SEO coté annonceur, du point de vue du référenceur essentiellement. Mais les entreprises sauront également en tirer des enseignements ;) Autant le dire tout de suite : aucune de ces positions n'est je pense meilleure qu'une autre dans l'absolu. Tout est question de contexte et d'affinité personnelle, chaque position ayant typiquement les défaut de ses qualités. Avantages et facilités à être SEO chez l'annonceur Un travail plus en profondeur, sur la durée. Une connaissance plus complète du fonctionnement de l'entreprise et de son marché. Des interactions avec avec une grande diversité d'acteurs (transversalité). La possibilité d'évangéliser / former les autres acteurs. Une large autonomie. Souvent plus de moyens pour acheter outils et prestations (chez les gros annonceurs du moins). Des salaire plus élevés (chez les gros annonceurs). Une compréhension de pourquoi les recos des agences ne sont pas appliquées ;) Inconvénients et difficultés à être chez l'annonceur Des rythmes parfois lents (ce qui peut être un avantage : on a le temps pour réfléchir). Une moindre diversité thématique. Un certain isolement si on est seul (pas de discussions entre SEO. heureusement il y a les conférences et apéros divers). La nécessité de connaitre un maximum d'intervenants pour faire avancer les choses. Il faut parfois (souvent) se battre pour obtenir des implémentations. La dimensions politique et les prés carrés de chacun. La frustration quand des facteurs externes affectent négativement le SEO (par ex une réduction de l'offre). Etre considéré comme un salarié parmi plein d'autres, pas comme un expert. Avantages et facilités à être SEO en agence Des rythmes plus rapides. Une très grande diversité thématique : pas de monotonie ! Des tâches très variées (avant-vente, développement de produits, consulting, formation...) Les échanges avec les autres collègues SEO. On a en général un interlocuteur référent (pas besoin de connaître tout le monde). Le fait d'être vu comme un expert par les clients (ça fait du bien à l'égo). Facilité à aller dans les conférences SEO (car bénéfique pour l'agence). Inconvénients et difficultés à être en agence Des prestations parfois "fire and forget", qui ne sont pas implémentées. Des prestations qu'on aimerait parfois travailler dans la durée. Le manque de temps qui ne permet pas toujours d'aller aussi profond qu'on voudrait. Une moindre connaissance des rouages des entreprises clientes. Les plus gros salaires sont chez l'annonceur (mais tous les annonceurs ne paient pas bien et on peut être très bien payé en agence). A lire également le sujet : les billets de Florian Bordet et Arnaud Mangasaryan, qui rejoignent sur bien des points ma propre expérience.[...]



Quand l'outil de planification Adwords vous cache des mots-clés

2014-06-11T13:07:00+01:00

L'outil de planification de Google Adwords est l'une des sources d'inspiration favorite des SEO. Un point trop rarement évoqué cependant est le fait que Google vous cache des mots-clés alors même que celui-ci possède bien des données à leur sujet.

Supposons par exemple que je vende des carrés en soie de la marque Hermès. Une recherche sur "carre hermes" dans l'outil de planification me donne 1300 recherches mensuelles (480 pour la version accentuée de la requête) :

(image)

Si je fais une recherche sur "carre" tout seul, en toute logique, l'outil devrait me remonter la requête "carre hermes" puisque celle-ci contient le terme "carré". En classant les requêtes par nombre de recherches mensuelles je devrais le trouver facilement puisque je connais son volume. Or ce n'est pas le cas :

(image)

Ne croyez donc pas qu'en faisant une recherche sur un terme "X" l'outil de planification Adwords va vous retourner l'ensemble des requêtes contenant le terme "X". Vous n'aurez droit qu'à un échantillon, pas forcément représentatif.

Pour une recherche en profondeur sur une thématique, il est donc primordial d'alimenter l'outil de planification avec d'autres termes que le terme principal. Ces termes additionnels pouvant être déterminés à partir de votre offre, de vos données de trafic, d'un brainstorming, de suggestions précédentes de l'outil de planification, de Google suggest (via Ubersuggest) etc... A vous d'être créatifs :)




Combiner des mots-clés facilement avec Excel 2010

2014-05-14T12:54:00+01:00

Que ce soit dans le cadre de la gestion de campagnes Adwords ou de l'optimisation de son référencement, le besoin de combiner des mots-clés revient assez régulièrement. Des outils dédiés existent pour cette tâche, mais il faut une licence dans le cas des logiciels, et une connexion pour les outils en ligne. La méthode que je vous propose utilise Excel, dans sa version 2010. Excel étant installé sur la majorité des postes professionnels, ce méthode est accessible au plus grand nombre. Cette méthode n'utilise aucune macro, et aucune formule. Le principe est de créer une mini base de donnée qui sera utilisée avec Microsoft Query.

Créez autant de colonnes nommées "tablex" que de groupes de mots à combiner. Par exemple, si vous avez 3 groupes de mots à combiner (type, marque, couleur), vos colonne seront nommées "table1", "table2" et "table3). Immédiatement en dessous donnez un nom explicite à vos colonnes, par exemple "type", "marque" et "couleur". Renseignez ensuite chaque colonne avec tous les mots-clés que vous souhaitez combiner. Vous devriez arriver à quelque chose qui ressemble à ça :

(image)

Sélectionnez ensuite pour chaque colonne l'ensemble des cellules qui la composent et appuyez sur Ctrl+Shift+F3 en vous assurant que l'option "ligne du haut" est bien cochée. Enregistrez votre fichier.

Cliquez ensuite dans le bandeau sur Données / Autres sources / Provenance : Microsoft Query, sélectionnez le type de base de donnée Excel files, et ouvrez votre fichier. Dans la boite d'ajout des tables, double-cliquez sur chacune et fermez la boite. Double-cliquez ensuite sur chacun des groupes de mots-clé de vos tables, dans l'ordre dans lequel vous souhaitez qu'ils apparaissent (ici "type" puis "marque" puis "couleur"). Vos combinaisons apparaissent en dessous comme par magie :) Si ce n'est pas le cas, assurez-vous que le bouton "requête automatique" (point d'exclamation cerclé de flèches) est bien activé.

Pour incorporer les combinaisons dans votre feuille de calcul, fermez Microsoft Query, une fenêtre s'ouvrira vous demandant où insérer les données. Vous obtiendrez alors ceci :

(image)

Vous pourrez alors concaténer les colonnes dans Excel ou plus simplement copier-coller les colonnes dans un éditeur de texte type notepad, et remplacer les tabulations par des espaces :)




Ce que la barbe nous enseigne en matière de SEO

2014-03-13T20:05:19+00:00

Ce matin, tout en conditionnant ma barbe avec de l'huile de jojoba, je me suis mis à penser à tout ce que ce que le port de cet attribut avait de commun avec le SEO.

En premier lieu, la barbe comme le SEO vous rendent remarquable. Et chez les barbus comme chez les SEO, on trouve plein de gens cools : Moise, Jesus, Le Père Noel, Rand Fishkin...

Comme le SEO, le port de la barbe peut paraitre une chose facile au béotien : après tout il suffit de ne pas se raser n'est-ce pas? Mais les barbus un tant soit peu sérieux eux savent bien que la facilité réside plutôt dans le fait d'être rasé de près. Une barbe digne de ce nom requiert du dévouement et de la ténacité, et ces deux qualités sont particulièrement utiles au SEO.

La barbe peut être une source de frustration, et il n'est pas rare que celle-ci ne pousse pas comme on l'aimerait. Pas assez haute sur les joues, pas assez dense ici ou là... Un conseil souvent donné sur les forums est d'essayer de mettre en valeur ce que l'on possède plutôt que de se lamenter sur ce que l'on a pas. Ce conseil est tout aussi valable en SEO : vous ne pouvez obtenir telle ou telle fonctionnalité ? Ok, c'est rageant. Mais n'y a-t-il pas des leviers à activer sur lesquels vous avez la main ?

Parfois votre barbe vous rendra fou, au point que vous souhaiterez y renoncer. Ne le faites pas, vous le regretteriez certainement. Prenez le temps de la réflexion, soufflez et remettez-vous à l'ouvrage. Il n'en va pas autrement avec le SEO.

Happy beard day ;)




3 Outils pour identifier un update Google

2014-03-03T13:42:47+00:00

Vos positions ont brutalement varié dans Google ? Comment savoir si cela concerne uniquement votre site, ou si c'est le signe d'une mise à jour de l'algorithme du moteur ? Difficile de savoir quand on a pas auparavant mis en place un suivi des sites concurrents ou un suivi plus général du contenu des SERPs. Heureusement, des outils librement accessibles existent, permettant d'évaluer les variations des résultats de recherche des moteurs. J'en connais personnellement trois. Comme je suis sympa, je les partage avec vous :

Le Serpomètre : offert par Ranks, le Serpomètre nous montre la variabilité des résultats Google sur les 4 derniers mois, sur une échelle de 0 à 10, la variabilité moyenne se situant autour de 3 à 4. Les pics à 6-7 correspondent en général à des updates de l'algorithme, ou à des mises en oeuvre de filtres. Les 100 premiers résultats sont pris en compte, 1000 mots-clés étant surveillés quotidiennement. Le Serpomètre est évidemment mon favori, puisque centré sur le web francophone. De plus il possède la fenêtre temporelle la plus longue, et une profondeur d'analyse idéale.

Mozcast : proposé par Moz, cet outil donne la météo des SERPs Google US sur les 30 derniers jours. La température y est d'autant plus haute que les variations dans les SERPs sont importante. Cet indice repose sur 1000 mots-clés suivis. Seuls les 10 premiers résultats sont pris en compte.

Flux Charts : proposé par SERPmetrics, Flux Charts se distingue par le fait que les variations dans les pages de résultats Bing et Yahoo sont également surveillées (on constatera que bien que ces 2 moteurs utilisent la même technologie, ils affichent des variabilités différentes). Flux Charts mesure la variabilité des résultats du jour par rapport à la moyenne des 30 derniers jours. Les 100 premiers résultats sont pris en compte.




Vague portrait en 11 questions

2014-02-25T10:16:02+00:00

Ayant découvert que Bruno m'avait taggé, et les questions posées poussant à la réflexion, voici donc mes réponses à son interview en 11 questions : Si le Net n’existait pas, aurais-tu cherché malgré tout un moyen d’exprimer tes idées à l’attention des autres ? Comment et pourquoi ? En matière de communication je crois que la fonction crée l'organe autant que l'organe crée la fonction. Ce que je partage sur le web, je le partage en partie parce que le web existe. Il n'est pas dit que je l'aurais partagé si le web n'existait pas. Par exemple, je n'ai jamais été intéressé par le fait de m'exprimer sur un support papier. Mais j'ai fait de la radio FM. Alors oui, peut-aurais-je cherché à exprimer mes idées hors-web. Ou pas. A ton avis, le Web a-t-il créé du lien social ou bien a-t-il contribué à éloigner les gens les uns des autres ? Les deux, mais je ne saurais pas dire si la balance est positive ou négative. Oui, le web crée du lien social en permettant aux gens de se rencontrer et d'échanger. Cela est d'autant plus vrai que l'on est sur des sujets pointus ou exotiques (pour parler foot le bistrot suffit). Mais le fait d'être tout le temps connecté nous déconnecte aussi de la réalité, et des autres. Les gens qui consultent en permanence leur smartphone m'insupportent au plus haut point. Et si je suis sociable je ne suis pas très social, alors suis-je la meilleure personne pour répondre à cette question ? Comment vois-tu ton avenir ? Pour mon avenir proche, j'utilise Outlook :) Au-delà, aucune idée mais ce sera toujours liés aux moteurs de recherche je pense. Sauf si le web disparaissait. Et là je serai vraiment embêté. Si tu devais recommander 3 sites à des gens qui découvrent internet, ce serait lesquels ? Leconjugueur, Hoaxbuster, et la page d'aide Google sur les opérateurs de recherche avancés. Le premier pour moins m'écorcher les yeux en lisant leurs statuts Facebook, le second pour qu'ils relaient moins de co**eries sur Facebook, le troisième pour qu'ils apprennent à chercher intelligemment. A choisir, tu préfères lire un livre sur l’écran de ton PC, sur une tablette numérique, une liseuse, un smartphone… ou bien sur un truc avec des pages en papier qu’il faut tourner à la main et qu’on peut utiliser même sans aucune source d’énergie ? J'opte sans hésiter pour le papier. On a pas fait mieux en terme d'ergonomie et de durabilité. En plus en mode survie on peut se chauffer avec. Va faire ça avec un iPad ou une liseuse. On t’offre la possibilité d’un voyage dans l’espace qui va durer plusieurs années et, indépendamment du fait que tu puisses t’y rendre avec tes proches, on ne t’autorise à emporter avec toi que 5 objets pour un poids maximum de 5 kg. Que choisis-tu ? Un dosimètre gamma pour estimer si on vivra assez longtemps pour arriver vivants à destination, une pince Leatherman, une lampe de poche, une tablette, plusieurs tera-octets de données sur cartes SD. Si tu devais dissuader quelqu’un de te fréquenter, que lui dirais-tu pour le décourager ? "Tu es probablement quelqu'un de très gentil, mais je doute d'avoir quoi que ce soit partager avec toi. Le foot ? Je considère que c'est l'opium du peuple. La dernière émission ou le dernier animateur à la mode ? Je n'ai pas la télé et de toute façon trouve l'essentiel de la production médiocre. La dernier album de l'artiste que tout le monde écoute ? Non merci. La politique ? il y a 99% de chances que mes opinions te froissent. Le buzz du jour sur internet ? Rien à f[...]



Scrapez facilement avec Scraper pour Chrome

2014-02-17T13:55:19+00:00

N'avez-vous jamais eu l'envie de scraper le contenu de pages web alors que vous n'êtes pas à l'aise avec la programmation et les expressions régulières ? Si c'est le cas, alors l'extension Scraper pour Google Chrome est faite pour vous ! Avec son interface point and click, Scraper permet en effet d'extraire très facilement les données qui vous intéressent des pages web de votre choix, tout en demeurant puissant grâce au support de XPath et jQuery.

Une fois l'extension installée, son utilisation est des plus simple : faites un clic-droit sur un élément à scraper (par exemple une URL dans une page de résultats Google) et cliquez dans le menu contextuel sur "Scrape similar..." : une fenêtre s'ouvre alors affichant les paramètre du scrap à gauche et les données récoltées à droite. Il est alors possible soit d'exporter les données vers Google Docs, soit de copier-coller directement les données du tableau pour les coller dans Excel ou le logiciel de votre choix. Si les données récoltées comportent des anomalies il sera peut-être nécessaire d'ajuster l'expression XPath. Mais la plupart du temps Scraper se débrouille très bien tout seul.

Petite astuce : si vous scrapez des données présentées sous forme de tableau HTML un simple clic-droit peut ne pas suffire pour scraper toutes les données. Le truc est de sélectionner toute une ligne du tableau puis de faire un clic-droit dessus. Scraper comprendra alors que toutes les colonnes du tableau sont à scraper.

Cette extension s'avère extrêmement pratique à l'usage. Avec Scraper il est par exemple possible de récupérer toutes les URLs indexées par Google pour un domaine ou une forme d'URL donnés, de collecter des adresses d'annuaires très rapidement pour soumission ultérieure, de récupérer les pageranks de domaines passés auparavant dans un outil tel que Bulk Pagerank Checker... les possibilités sont infinies !




Taux de clic dans les pages de résultats des moteurs : tentative d'état des lieux

2014-01-30T13:18:54+00:00

Les études sur le taux de clic dans les SERPs des moteurs de recherche ne sont pas si fréquentes. M'étant récemment penché sur le sujet, je vais tenter de dresser un état des lieux de la littérature.

Parmi les études publiées les 5 dernières années, 6 ont retenu mon attention : Celles de Chitika (juin 2013), Synodiance (sept 2013), Bluerank (juin 2012), Optify (avril 2011), Slingshot SEO (juin 2011) et Neil Walker (mai 2010)

Les méthodes de collecte et de calcul de ces études diffèrent, et je ne rentrerai pas dans le détail de ces différences (on remarquera notamment que si l'on additionne les taux de clics, on dépasse pour certaines études les 100%). Toutefois, malgré ces différences, la forme de la distribution des clics reste globalement la même, à savoir approximativement une loi de puissance (pour la 1ère page de résultats).

(image)

En faisant la moyenne et en insérant une courbe de tendance dans Excel, on peut même déterminer l'équation donnant le CTR en fonction du positionnement : CTR=40.547*position^-0.905

(image)

Toutefois il convient de rester critique face à ces chiffres : oui, les 3 premiers résultats ont généralement des taux de clics bien plus élevés que les suivants, et vous avez tout intérêt à viser ces positions. Mais cela est vrai uniquement sur de larges échantillons d'expressions et de sites. Pour une expression donnée, vous ne multiplierez pas forcément votre CTR en passant de la 3ème position à la 1ère. Toujours sur une expression donnée, il se peut très bien qu'un site placé en 3ème position affiche un CTR supérieur à celui des 2 sites placés plus haut. D'ailleurs, si l'on trace un nuage de points des CTRs individuels des expressions en fonction des positions, tout devient plus flou (données pour le site 3 Suisses) :

(image)

Enfin il ne faut pas oublier qu'un grand nombre des requêtes prises en compte pas ces différentes études sont des requêtes navigationnelles. Le CTR de la position 1 est donc surévalué et n'est pas applicable a priori pour les requêtes informationnelles et transactionnelles.

Que se passe-t-il en page 2 ? Les études Chitika et Synodiance montrent toutes deux un rapide effondrement des CTR à partir de la page 2 avec une moindre décroissance pour l'étude Synodiance :

(image)

Cette tendance se retrouve dans le nuage de point présenté plus haut.




Des requêtes de recherche plus précises dans Webmaster Tools !

2014-01-07T16:58:53+00:00

Meilleurs voeux à tous ! En guise d'etrennes pour cette nouvelle année, Google nous offre deux changements plus que bienvenus dans la section "requêtes de recherche" de ses Webmaster Tools.

Le premier changement est que le nombre d'impressions et de clics n'est plus arrondi à la hache comme c'était le cas auparavant. On pourra donc suivre bien plus finement l'évolution du nombre d'impressions, de clics, et donc le taux de clic. Ce changement est rétroactif qui plus est.

Le second changement, encore plus intéressant, est que Google fourni désormais les expressions générant des impressions et du trafic pour une page donnée ! Pour visualiser les expressions associées à une page il suffit de cliquer sur l'onglet "Pages les plus populaires" puis de cliquer sur l'URL de la page en question. Les expressions associées apparaissent immédiatement en dessous. Cela ne compensera pas la perte d'information engendrée par la mise en place du Not Provided, mais cette nouvelle fonctionnalité est plus qu'appréciable.