Pour savoir où on va, il faut savoir d'où l'on vient

Vous avez
une question ?
Un projet ?

Contactez nous !
 

Contactez-nous

Vous avez une question ? un projet ? 
Vous souhaitez plus d'informations sur un produit ? sur notre offre ? 
Contactez-nous, on vous répond sous 4H.

retour

Les pages spéciales moteur

Les pages spéciales moteur

Comme on l’a dit, les robots indexeurs sont bien élevés : d’une part ils respectent les instructions du fichier robots.txt, et d’autre part ils ne cherchent pas à se faire passer pour un internaute quelconque, ils s’identifient clairement, au moyen du paramètre user-agent qui est défini dans chacune des requêtes http.

User-agent permet généralement d’identifier le navigateur, et certains sites l’utilisent pour adresser des pages différentes selon les possibilités du navigateur cible.

Ainsi, le robot Google s’identifie en indiquant « user-agent=googlebot » dans chacune de ses requêtes.

Il est donc possible d’utiliser ce paramètre pour servir à Google des pages spéciales, différentes de celles qui seront servies aux internautes.

Cette technique a été beaucoup utilisée aux débuts du référencement, pour servir à chaque moteur d’indexation des pages correspondant à ses caractéristiques. Yahoo aimait les keywords, on lui en donnait, … Altavista voulait des <H1> mais ne supportait pas le bourrage de keywords, on lui donnait satisfaction aussi.

C’est une technique complexe, qui demande un travail considérable, pour des résultats aujourd’hui assez faibles.

Mais elle a encore ses adeptes. Pour voir un exemple, tapez par exemple « louer appartement » sur Google, et demandez la version ‘en cache’ des pages en tête de liste.