samedi 5 mars 2011

vendredi 25 février 2011

Google Algorthmique

Google : Changements importants des algorithmes

Un nouveau changement majeur des algorithmes de Google Search est prévu et ne devrait pas plaire à certains qui n’étaient pas encore à jour avec les consignes pour webmasters de Google.


Logo Google

L’objectif de Google est simple, ils souhaitent donner aux personnes les réponses les plus pertinentes à leurs questions, et ce le plus rapidement possible avec un moteur qui privilégie la qualité et non la quantité d’informations inutiles.

L’entreprise de Mountain View réalise un réglage journalier de ses algorithmes pour pouvoir présenter les meilleurs résultats et à l’occasion de nouvelles mises à jour réalisées et prévues pour combattre le spam, les farm links et autres sites inutiles, Google a présenté son point de vue en anglais sur son blog officiel.


Une grande mise à jour algorithmique a bouleversé le classement de près de 12% des requêtes (plus précisément 11,8%), c’est pour cette raison que Google est sorti de son silence et à parler concernant certains changements.

Cette mise à jour va permettre de diminuer le classement des sites peu pertinents pour les utilisateurs et qui n’offrent pas de valeur ajoutée. Ce qui veut dire que les sites Internet comme ceux qui ne présentent que des informations de fils RSS, les fermes de contenu, les sites qui relayent les mêmes informations que d’autres sans valeur ajoutée risquent d’être maintenant pénalisés. Cette mise à jour de l’algorithme de Google est une suite aux articles suivants :



qui présentent la volonté de Google d’avoir des résultats pertinents avec des contenus de qualité pour les internautes.

Cette mise à jour algorithmique va permettre aux sites de grande qualité ayant un contenu original et des informations intéressantes de pouvoir remonter plus facilement dans le moteur de recherche de Google.

Comme tout changement algorithmique important de la part de Google et étant donner la nature des changements, cela va donc affecter beaucoup de sites web et des grands changements de position des sites Internet sont prévus (dans la limite des 12% actuellement). Google souhaite encourager les personnes à faire d’Internet un écosystème sain et nous encourageons aussi les référenceurs à aider avec leur travail les moteurs et les personnes en présentant les meilleurs résultats.

Il y a quelques jours, Google avait mis en place avec l’équipe antispam de Matt Cutts, une extension pour Chrome afin de pouvoir bloquer les sites, nous en avions déjà parlé avec l’article suivant : Google Chrome extension pour bloquer les sites, il faut savoir que les changements algorithmiques actuels n’ont rien à voir avec cette extension.


L’équipe de Google a quand même comparé les résultats du nouvel algorithme et les données des listes noires des utilisateurs. La bonne nouvelle est que les préférences des utilisateurs sont bien représentées, puisque 84% des sites de la liste noire ont été filtrés par la mise à jour de Google.

Ce changement va être progressif, pour le moment il va se déployer aux États-Unis puis au reste du monde peu à peu. C’est donc le moment pour les webmasters, référenceurs et professionnels d’Internet de vérifier les positions de leurs sites et de savoir si ce fameux changement d’algorithme de Google va modifier leur travail et remettre en cause leurs connaissances du moteur Google Search et de l’optimisation pour les utilisateurs.

D’autres informations en anglais :

Google

mardi 1 février 2011

Sites Médias : Facebook - Twitter

Facebook maintient son niveau d'affluence

Etude réalisé du 1er au 30 novembre 2010 sur un périmètre de 12 grands sites web d'actualité français audités par AT Internet. Publié le 14/12/2010 : les réseaux sociaux , une nouvelle manière de communiquer qui envahit de plus en plus notre quotidien...L'étude ci-dessous présente la place qu'occupe aujourd'hui Facebook et Twitter en termes de génération de trafic pour les sites web d'actualité français.


Facebook génère en moyenne 1,4% des visites d'un site d'actualité français en novembre 2010.

Pour réaliser cette étude nous avons considéré 12 grands site web d'actualité français mesurés par une solution AT Internet.

Sur l'ensemble des visites toutes sources confondues d'un site web d'actualité français , la part moyenne de Facebook an tant qu'affluent est de 1,4% en novembre 2010 tandis qu'elle est de 0,2% pour Twitter :







  • Facebook : 1,4% des visites des sites médias en novembre 2010 vs 1,3% du 6 au 12 septembre 2010,
  • Twitter : 0,2% en novembre 2010 vs 0,1 du 6 au 12 septembre 2010.

Facebook se maintient bien avec, en moyenne pour un site d'actualité français, un peu plus d'une sur 100.Même tendance pour Twitter mais avec une part de visites nettement inférieure.

" Facebook message " lancé le 15 novembre dernier permettra-t-il au géant du réseau social de renforcer encore sa position?

étude d'après AT Internet



lundi 24 janvier 2011

Le Fichier Sitemap

Un plan de site avec le fichier Sitemap


Littéralement, un Sitemap (anglais) est une "carte d'un site", un plan de site.

En quoi consiste un fichier Sitemap ?


Selon Sitemaps.org (*1) :

"Google Sitemaps permet aux webmasters d'indiquer facilement aux robots des moteurs de recherche les pages de leurs sites à explorer. Dans sa forme la plus simple, un plan Sitemap est un fichier XML qui répertorie les URL d'un site ainsi que des métadonnées complémentaires sur chaque URL (date de dernière modification, fréquence de révision et importance relative par rapport aux autres URL du site), de façon à favoriser une exploration plus intelligente du site par les moteurs de recherche."

Un fichier Sitemap pour quels moteurs de recherche ?


Fin 2006, un format "sitemap" commun a été adopté par Google, Microsoft, Yahoo, Ask.com et Exalead, basé sur le format de Google. Le site Sitemaps.org (*1) donne toutes les informations nécessaires :

  • Définitions des balises XML
  • Caractères d'échappement d'entité
  • Utilisation des fichiers d'index Sitemap
  • Emplacement du fichier Sitemap
  • Validation de votre plan Sitemap
  • Extension du protocole Sitemap
  • Envoi d'informations aux robots d'exploration du moteur de recherche

Nota : en avril 2007, la » commande spécifique "sitemap" « était mise en place afin de déclarer » l’emplacement du Sitemap dans le fichier robots.txt «.

Utilité d'un fichier Sitemap


Un fichier Sitemap est particulièrement utile dans les cas suivants :

  • Votre site intègre du contenu dynamique.
  • Votre site est récent et seuls quelques liens permettent d'y accéder.
  • Votre site contient de nombreuses pages de contenu mal ou non reliées entre elles.
  • Toutes les pages de votre site n'ont pas été détectées par Googlebot lors du processus d'exploration (p.e : les pages avec du contenu AJAX ou Flash).

Fichiers Sitemap spécifiques


Il est possible de créer un fichier Sitemap spécifique à un type de contenu, comme, p.e :

  • un fichier » Sitemap vidéo «,
  • un fichier Sitemap pour mobile,
  • un fichier Sitemap pour Google Actualités,
  • un fichier Sitemap pour Google Recherche de code.

Comment envoyer un plan Sitemap à Google ?


Vous déclarez votre "sitemap" :

  • soit dans le fichier robots.txt,
  • soit via Google Webmaster Tools ( Plans Sitemap/Ajout d'un plan Sitemap)




samedi 27 novembre 2010

Sites Marchands

Sites marchands : comment optimiser son référencement naturel

Quelles actions mener pour maintenir un bon référencement de ses produits sur les moteurs de recherche ? Sur quels mots clés se positionner ? Comment structurer ses pages ? Les conseils des spécialistes.

ref-site-marchand-ebusiness-e-commerce-a7

Définir les objectifs de sa politique de référencement

Doit-on veiller au bon référencement de l’ensemble de ses produits ? Ou choisir ceux sur lesquels concentrer ses efforts ? Pixmania se positionne sur un million de mots clés en référencement naturel et 4 à 5 millions en référencement payant. « Nous suivons la loi de Pareto des 80-20 et nous nous focalisons sur les top mots clés qui nous apportent le plus de chiffre d’affaires« , explique Ulric Jérome, directeur exécutif de Pixmania. Au total, l’e-commerçant commercialise plus de 1,2 million de références.

Les mots clés « appareil photo» ou encore « GPS» sont très concurrentiels. A l’inverse, il existe des termes qui ne lui apportent qu’une visite par mois. Mais au total, ils représentent un trafic non négligeable. « Or il est plus facile de se positionner sur ces mots clés car ils sont moins concurrentiels. Ils nécessitent moins d’attention. Nous travaillons donc aussi le référencement du fond de catalogue, mais nous monitorons surtout les 20 % qui sont à l’origine de 80 % du trafic provenant des moteurs.»

Cédric Morelle, patron du cabinet de conseil en référencement et marketing Toucouleurs, estime que la longue traîne génère une partie très importante du chiffre d’affaires des e-commerçants. « Amazon par exemple réalise 70 % de ses ventes sur son fond de catalogue« , affirme-t-il. Le consultant, également directeur du site marchand de parapharmacie MonGuideSante.com, ajoute d’ailleurs qu’il lui arrive même de travailler le référencement de produits hors stocks. « On propose alors des produits de substitution et on gagne contre les concurrents : l’objectif qui consiste à générer du trafic sera atteint

Les mots clés peuvent être des termes génériques, une référence produit complète, la moitié du libellé d’une référence produit, des intitulés au pluriel, avec fautes d’orthographe, etc. Chez Pixmania, une même référence peut ainsi correspondre à 5 ou 6 mots clés. « Les noms de marques sont moins souvent des mots clés de référencement naturel que payant, auquel cas nous voyons cela avec elles en amont« , précise Ulric Jérome.

Le référencement passe par l’optimisation des pages

Une fois définis les objectifs de la politique de référencement, en particulier les mots clés sur lesquels se positionner, il reste à définir les actions qui permettront d’optimiser leur référencement. Cédric Morelle remarque que depuis des années, il est connu que les méta-tags, introduits à l’époque désormais lointaine d’Altavista, ne servent pas à grand-chose. « C’était un premier axe pédagogique pour comprendre que la structure de la page est importante pour le moteur de recherche.» Quand tout le monde s’y et mis, il a fallu trouver autre chose.

Pour Ulric Jérome, quel que soit le site marchand, le plus important pour être bien référencé sur un mot clé est de travailler sur les pages du site. Chez Pixmania, la fiche produit est la page la plus importante car c’est le plus souvent par elle qu’arrive le trafic. C’est donc sur elle que se concentrera le travail du référenceur. « Les éléments les plus importants à améliorer pour optimiser une page pour le référencement sont sa popularité, la densité des occurrences du mot clé sur la page et la pertinence du mot clé par rapport au contenu de la page.»

« Si un site baptisé ‘tout sur les téléviseurs’ parle de lingerie, Google ne trouvera pas de cohérence en analysant les mots, jugera le site peu crédible et de lui accordera pas d’importance« , confirme Cédric Morelle qui ajoute : « le temps de chargement de la page ne tardera pas non plus à être pris en compte par l’algorithme« . Autant d’actions qui doivent évoluer en même temps que l’algorithme : « il ‘vit’ et nous ne sommes pas prévenus en amont de ses évolutions« , explique Ulric Jérome.

De plus, toutes les équipes de l’e-commerçant doivent être sensibilisées aux exigences du référencement, par exemple au moment de concevoir de nouvelles pages, puisque le référencement doit être pensé en amont. « La page doit d’abord être accessible par les moteurs, indique Ulric Jérome. D’autre part, le maillage doit être optimal, du point de vue des liens entre les pages. La hiérarchisation du contenu est elle-aussi importante.» Mais il s’agit également de trouver un équilibre entre l’ergonomie de la page, pensée pour le client, et les exigences du référencement, « ceci d’autant plus que la popularité du site, qui dépend de l’ergonomie, est prise en compte par l’algorithme de Google« . Plus largement, Cédric Morelle juge que « les moteurs de recherche sont de moins en moins stupides et leurs algorithmes se comportementalisent» , d’où l’importance d’un travail de référencement très qualitatif.

A noter que le mot clé à surveiller peut correspondre à tout un univers de produits. Avant la coupe du monde de football par exemple, Pixmania veille au bon référencement de son univers TV. Et pour cela, optimise toutes les pages produits de l’univers.

Des actions complémentaires sur le nom du marchand

De façon complémentaire, Pixmania monitore aussi la présence de son nom sur les forums, les réseaux sociaux… « Mais nous le faisons surtout dans une optique de relation client, souligne Ulric Jérome. Les conséquences sur le référencement ne sont pas la priorité de ces actions.» Cédric Morelle ne partage toutefois pas cette opinion : « c’est parce que l’on en parle sur les blogs, les forums et les réseaux sociaux que les grands e-marchands comme Rue du Commerce ou La Redoute remontent dans les résultats

Le consultant préconise donc plutôt de constituer un réseau de petits sites – annuaires, blogs, réseaux sociaux… – qui auront pour objectif de crédibiliser le site marchand, critère le plus important pour le référencement selon le spécialiste. « Je vends des télévisions. Pour améliorer mon référencement, je vais créer un site qui passe en revue les différents téléviseurs récemment apparus sur le marché et animer un blog où les utilisateurs pourront poser leurs questions. Ce site aura une autonomie propre et un contenu authentique, crédibilisé par les futurs acheteurs. Il va servir de passerelle pour les moteurs de recherche vers le site marchand final. Restera à le structurer plus ou moins finement avec des bannières, des liens cachés ou pas…»

A titre d’exemple, voici les principaux critères de positionnement pris en compte par les moteurs de recherche selon la dernière édition du baromètre SEOmoz, publiée en septembre 2009 :

positionnement-alerte7

Des actions spécifiques pour les soldes, les événements, les saisons…

« Le mot clé ’soldes’ est tellement générique qu’il est quasiment impossible d’arriver en première page des résultats d’un moteur de recherche, à moins de faire du référencement de masse ou du Google bombing, dont l’efficacité ne dure qu’un temps, ses auteurs étant souvent rapidement dénoncés à Google par la concurrence, assure Cédric Morelle. Mieux vaut donc effectuer un travail plus qualitatif.

Cette difficulté n’empêche pas d’essayer d’être en ligne avec les différentes actualités produits, comme le conseille Ulric Jérome. « Il peut s’agir d’actualités ‘macro’ comme les soldes, Noël, la Saint Valentin ou encore la rentrée des classes, mais également des produits de saison, comme les ventilateurs avant l’été« . L’e-commerçant met alors en place une stratégie spécifique pour ces mots clés, qui demandent un travail d’anticipation sur l’optimisation des pages de ces catégories de produits.

« Nous plaçons d’abord une alerte sur tous les termes sensibles par période, explique son directeur exécutif. Par exemple, nous savons plusieurs semaines avant Noël que nous devons dresser le ‘top vente’. Ensuite, l’objectif est d’être présent dans le top 3 des résultats sur Google pour ces mots clés.» Comme l’algorithme change, rien n’est figé. Le cybermarchand doit recommencer à chaque saison, en monitorant les mots clés en continu pour s’assurer une meilleure réactivité.

Pour les actions à mener ponctuellement, Cédric Morelle ajoute qu’il est également possible d’adopter une stratégie spécifique. « Prenons la sortie d’un jeu vidéo pour console. Le premier commerçant qui a connaissance de la date de sortie va se positionner dessus et aussitôt prendre la tête dans les résultats des moteurs. Pour revenir dans la course, les autres devront ajouter du contenu supplémentaire, des vidéos, des liens vers des communautés de joueurs…»

Faut-il aussi optimiser le référencement pour Bing et Yahoo ?

Chez Pixmania, Ulric Jérome avoue se préoccuper essentiellement du référencement sur Google. Toutefois, si le référencement est optimisé pour Google, il ne l’est pas forcément pour les autres moteurs. Si un changement dans la structure d’une page est stratégique pour améliorer le référencement sur Bing, il risque de modifier le référencement sur Google et Yahoo.

Cependant, en France, Google détient 80 % de part de marché. « Ce que font le plus souvent les entreprises qui se donnent les moyens de travailler à la fois sur Google, Bing, Yahoo et les autres, c’est optimiser le référencement naturel pour Google et compenser sur les autres moteurs par du référencement payant« , souligne Cédric Morelle.

Par ailleurs, le consultant prévoit que l’accord passé entre Microsoft et Yahoo aura un fort impact sur les politiques de référencement dans le futur. « Bing va devenir plus intelligent, or Windows 7 propose Bing par défaut. Le marché des moteurs de recherche va encore changer dans les années à venir et avec lui le référencement.»

Effectivement, le référencement sur Google n’est déjà plus ce qu’il était il y a seulement deux ans. « Aujourd’hui, Google place chez l’utilisateur un cookie valable 180 jours qui analyse toutes ses recherches« , indique Cédric Morelle. Bientôt, les résultats d’une requête pourront ne plus être les mêmes d’une région à l’autre ou d’une période de l’année à l’autre. « Google et Bing – les autres suivront – vont casser le référencement tel qu’on le pratique actuellement. Par exemple, le Google bombing ne sera sans doute bientôt plus possible, car le moteur n’a pas intérêt à ce qu’on puisse ainsi ‘bidouiller’ son index alors que tout le monde paie.»

Le référencement est donc une discipline vivante, qui force les référenceurs à sans cesse adapter leurs actions au fil des évolutions des algorithmes.

Surveiller le résultat de ses actions

Naturellement, il est primordial de surveiller l’impact des actions menées. Le référenceur doit donc pouvoir analyser l’évolution d’un certain nombre d’indicateurs en fonction des modifications qu’il apporte aux pages du site ou à ses réalisations à l’extérieur. « La personne en charge du référencement regarde en premier lieu le taux de transformation et le chiffre d’affaires générés par le travail réalisé en matière de référencement naturel. C’est d’abord à cela qu’il juge leur efficacité et peut ensuite adapter ses actions« , affirme Cédric Morelle.

Les ressources à consacrer au référencement

« Optimiser le référencement est un travail de fourmi, concède Ulric Jérome. Certes, le référencement naturel est gratuit, mais il demande beaucoup de ressources L’équipe trafic de Pixmania, qui s’occupe aussi du référencement sur les comparateurs de prix, comprend 70 personnes. « Mais il faudrait aussi compter tous ceux qui ont toujours le référencement en tête dans la pratique de leur métier, comme les 40 personnes qui travaillent au webdesign.»

Le directeur exécutif de l’e-commerçant constate que la part de son trafic provenant du référencement naturel sur Google ne cesse d’augmenter. « C’est une très bonne chose, car il est très rentable et coûte en particulier beaucoup moins cher que les sources payantes de trafic. Il nécessite donc beaucoup de moyens, mais pour un ROI très intéressant.»

Pixmania gère son référencement en interne, en particulier de façon à pouvoir se montrer réactif tout au long de la journée. « De plus, le référencement concerne plusieurs départements de l’entreprise, pas uniquement le trafic.» D’autres cybermarchands font toutefois le choix d’engager un prestataire. « L’avantage dans ce cas est le gain de temps, juge Cédric Morelle. Par exemple, si le prestataire dispose déjà d’un réseau de sites constitué, il pourra le mettre très vite à la disposition de son nouveau client. Même chose s’il a déjà travaillé dans sa thématique.»

Plus largement, sa connaissance du référencement dans d’autres thématiques lui permettra aussi de mieux comprendre le fonctionnement des moteurs. « Ceci sachant qu’il faut absolument lui confier tous les indicateurs qui lui permettront de réaliser un travail de qualité : taux de transformation, chiffres d’affaires et tous les éléments de contexte économique« .

Pour le consultant, l’inconvénient majeur du prestataire réside dans le fait qu’il se porte garant des techniques qu’il emploie. « S’il utilise des techniques douteuses – IP flocking, injection de liens…- , elles seront peu efficaces sur le long terme, or le client ne peut pas contrôler la façon de travailler du prestataire. De plus, rompre un contrat avec un prestataire alors que le référencement repose sur le réseau de site du référenceur peut constituer un vrai risque pour le client, qui n’a pas la main sur ce réseau.» Il faut alors penser à définir ces modalités dès la signature du contrat.

journaldunet.com

Rechercher dans ce blog

Chargement...
annonce gratuite Paperblog Blog Argan du Maroc- مجلة ألمرأة لمغربية- Annuaire Blog- Recherchez Ici-séjour à Marrakech-Franchise