samedi 5 mars 2011

vendredi 25 février 2011

Google Algorthmique

Google : Changements importants des algorithmes

Un nouveau changement majeur des algorithmes de Google Search est prévu et ne devrait pas plaire à certains qui n’étaient pas encore à jour avec les consignes pour webmasters de Google.


Logo Google

L’objectif de Google est simple, ils souhaitent donner aux personnes les réponses les plus pertinentes à leurs questions, et ce le plus rapidement possible avec un moteur qui privilégie la qualité et non la quantité d’informations inutiles.

L’entreprise de Mountain View réalise un réglage journalier de ses algorithmes pour pouvoir présenter les meilleurs résultats et à l’occasion de nouvelles mises à jour réalisées et prévues pour combattre le spam, les farm links et autres sites inutiles, Google a présenté son point de vue en anglais sur son blog officiel.


Une grande mise à jour algorithmique a bouleversé le classement de près de 12% des requêtes (plus précisément 11,8%), c’est pour cette raison que Google est sorti de son silence et à parler concernant certains changements.

Cette mise à jour va permettre de diminuer le classement des sites peu pertinents pour les utilisateurs et qui n’offrent pas de valeur ajoutée. Ce qui veut dire que les sites Internet comme ceux qui ne présentent que des informations de fils RSS, les fermes de contenu, les sites qui relayent les mêmes informations que d’autres sans valeur ajoutée risquent d’être maintenant pénalisés. Cette mise à jour de l’algorithme de Google est une suite aux articles suivants :



qui présentent la volonté de Google d’avoir des résultats pertinents avec des contenus de qualité pour les internautes.

Cette mise à jour algorithmique va permettre aux sites de grande qualité ayant un contenu original et des informations intéressantes de pouvoir remonter plus facilement dans le moteur de recherche de Google.

Comme tout changement algorithmique important de la part de Google et étant donner la nature des changements, cela va donc affecter beaucoup de sites web et des grands changements de position des sites Internet sont prévus (dans la limite des 12% actuellement). Google souhaite encourager les personnes à faire d’Internet un écosystème sain et nous encourageons aussi les référenceurs à aider avec leur travail les moteurs et les personnes en présentant les meilleurs résultats.

Il y a quelques jours, Google avait mis en place avec l’équipe antispam de Matt Cutts, une extension pour Chrome afin de pouvoir bloquer les sites, nous en avions déjà parlé avec l’article suivant : Google Chrome extension pour bloquer les sites, il faut savoir que les changements algorithmiques actuels n’ont rien à voir avec cette extension.


L’équipe de Google a quand même comparé les résultats du nouvel algorithme et les données des listes noires des utilisateurs. La bonne nouvelle est que les préférences des utilisateurs sont bien représentées, puisque 84% des sites de la liste noire ont été filtrés par la mise à jour de Google.

Ce changement va être progressif, pour le moment il va se déployer aux États-Unis puis au reste du monde peu à peu. C’est donc le moment pour les webmasters, référenceurs et professionnels d’Internet de vérifier les positions de leurs sites et de savoir si ce fameux changement d’algorithme de Google va modifier leur travail et remettre en cause leurs connaissances du moteur Google Search et de l’optimisation pour les utilisateurs.

D’autres informations en anglais :

Google

mardi 1 février 2011

Sites Médias : Facebook - Twitter

Facebook maintient son niveau d'affluence

Etude réalisé du 1er au 30 novembre 2010 sur un périmètre de 12 grands sites web d'actualité français audités par AT Internet. Publié le 14/12/2010 : les réseaux sociaux , une nouvelle manière de communiquer qui envahit de plus en plus notre quotidien...L'étude ci-dessous présente la place qu'occupe aujourd'hui Facebook et Twitter en termes de génération de trafic pour les sites web d'actualité français.


Facebook génère en moyenne 1,4% des visites d'un site d'actualité français en novembre 2010.

Pour réaliser cette étude nous avons considéré 12 grands site web d'actualité français mesurés par une solution AT Internet.

Sur l'ensemble des visites toutes sources confondues d'un site web d'actualité français , la part moyenne de Facebook an tant qu'affluent est de 1,4% en novembre 2010 tandis qu'elle est de 0,2% pour Twitter :







  • Facebook : 1,4% des visites des sites médias en novembre 2010 vs 1,3% du 6 au 12 septembre 2010,
  • Twitter : 0,2% en novembre 2010 vs 0,1 du 6 au 12 septembre 2010.

Facebook se maintient bien avec, en moyenne pour un site d'actualité français, un peu plus d'une sur 100.Même tendance pour Twitter mais avec une part de visites nettement inférieure.

" Facebook message " lancé le 15 novembre dernier permettra-t-il au géant du réseau social de renforcer encore sa position?

étude d'après AT Internet



lundi 24 janvier 2011

Le Fichier Sitemap

Un plan de site avec le fichier Sitemap


Littéralement, un Sitemap (anglais) est une "carte d'un site", un plan de site.

En quoi consiste un fichier Sitemap ?


Selon Sitemaps.org (*1) :

"Google Sitemaps permet aux webmasters d'indiquer facilement aux robots des moteurs de recherche les pages de leurs sites à explorer. Dans sa forme la plus simple, un plan Sitemap est un fichier XML qui répertorie les URL d'un site ainsi que des métadonnées complémentaires sur chaque URL (date de dernière modification, fréquence de révision et importance relative par rapport aux autres URL du site), de façon à favoriser une exploration plus intelligente du site par les moteurs de recherche."

Un fichier Sitemap pour quels moteurs de recherche ?


Fin 2006, un format "sitemap" commun a été adopté par Google, Microsoft, Yahoo, Ask.com et Exalead, basé sur le format de Google. Le site Sitemaps.org (*1) donne toutes les informations nécessaires :

  • Définitions des balises XML
  • Caractères d'échappement d'entité
  • Utilisation des fichiers d'index Sitemap
  • Emplacement du fichier Sitemap
  • Validation de votre plan Sitemap
  • Extension du protocole Sitemap
  • Envoi d'informations aux robots d'exploration du moteur de recherche

Nota : en avril 2007, la » commande spécifique "sitemap" « était mise en place afin de déclarer » l’emplacement du Sitemap dans le fichier robots.txt «.

Utilité d'un fichier Sitemap


Un fichier Sitemap est particulièrement utile dans les cas suivants :

  • Votre site intègre du contenu dynamique.
  • Votre site est récent et seuls quelques liens permettent d'y accéder.
  • Votre site contient de nombreuses pages de contenu mal ou non reliées entre elles.
  • Toutes les pages de votre site n'ont pas été détectées par Googlebot lors du processus d'exploration (p.e : les pages avec du contenu AJAX ou Flash).

Fichiers Sitemap spécifiques


Il est possible de créer un fichier Sitemap spécifique à un type de contenu, comme, p.e :

  • un fichier » Sitemap vidéo «,
  • un fichier Sitemap pour mobile,
  • un fichier Sitemap pour Google Actualités,
  • un fichier Sitemap pour Google Recherche de code.

Comment envoyer un plan Sitemap à Google ?


Vous déclarez votre "sitemap" :

  • soit dans le fichier robots.txt,
  • soit via Google Webmaster Tools ( Plans Sitemap/Ajout d'un plan Sitemap)




Rechercher dans ce blog

annonce gratuite Paperblog Blog Argan du Maroc- مجلة ألمرأة لمغربية- Annuaire Blog- Recherchez Ici-séjour à Marrakech-Franchise