Google limite l’analyse des forums !

Damien Guigue,
1 vote, average: 1,00 out of 51 vote, average: 1,00 out of 51 vote, average: 1,00 out of 51 vote, average: 1,00 out of 51 vote, average: 1,00 out of 5
Loading...

Google limite l'analyse des forums !

En étudiant des problèmes rencontrés par un de nos clients, nous avons découvert que Google limitait fortement les requêtes pouvant servir au Black Hat SEO dans la recherche de forum à spammer.

Une réponse au Black Hat SEO

Les liens sont toujours un puissant levier de référencement, et le spam de forum à la recherche de lien est un sport à la mode. Pour ce faire, les Black Hat SEO utilisent des recherches sur Google pour détecter des "spots" ou poster leur liens.
La récente vulgarisation d'outils d'automatisation de ce type de spam de liens à remis en lumière la vulnérabilité de Google face à ce type de manipulation.
Il semble que Google ait décidé de tarir la source en limitant fortement les possibilités de "scraper" (de grappiller) des listes de discussions à spammer sur les forums.

Comment cela se traduit-il ?

Lors d'une requête site:xyzforumxyz.com Google impose très très rapidement une vérification par Captcha. Ce dernier arrive beaucoup plus rapidement qu'habituellement, quelques pages seulement. Google refusera ensuite toutes les requêtes depuis cette IP pour toute requête site: contenant 'forum', tant que le captcha n'aura pas été rempli. Si le captcha est rempli, il restera hyper sensible à ce type de requête et le redemandera très fréquemment.
Si vous changez ne serait-ce qu'une lettre au mot forum de l'URL, l'analyse reprend normalement. Ce n'est donc pas un problème de volume global de requêtes.

Conséquence pour les utilisateurs de SeeUrank

Les analyses d'INDexation d'un site ayant le mot 'forum' dans l'URL n'ont quasiment aucune chance d'arriver à leur terme.

Si Google s'attaque à la recherche d'empreintes de site, on peut anticiper d'autres requêtes soient affectées en ricochet.
Connaissez-vous d'autres requêtes affectées spécifiquement affectées par une limitation ?

 

Note du 10/02/2012 : Limitation identique avec le mot "postal"

Suite au retour d'un client ayant des difficultés à analyser les pages indexées d'un site dont l'URL contient le mot "postal", nous avons identifié que Google limite également l'analyse des sites dont l'URL contient ce mot-clé. L'objectif de Google est probablement ici d'éviter le scrapping de contenus locaux ou le même spam.

 

 

1 vote, average: 1,00 out of 51 vote, average: 1,00 out of 51 vote, average: 1,00 out of 51 vote, average: 1,00 out of 51 vote, average: 1,00 out of 5
Loading...
3 Commentaires
harisseo

J’ai bien ressenti ce changement … mais à tout problème une solution… 🙂 L’algo de google est trop faible et le sera tant que c’est un bot !

Jérémy

Google est un Bot ( comme le dit Harisseo ) à Multi ip … Je prends une page, je passe le relais à un autre datacenter qui a son tour enchaîne sur la boucle.

Une page crawlée par IP ? Intéressant, mais c’est Google lui-même qui nous explique comment solutionner les problèmes qu’il cause !

Si site:xyzforumxyz.com ne passe que 5 ou 6 fois par IP, il suffira de passer par un VPN ou des scrapes à IP unique ! C’est aussi simple que ça.

Lionel Miraton – Yooda boy

Bonjour Jeremy;

Personnellement, je ne suis pas capable de dire si Google gère ses restrictions de requêtes par Datacenter ou globalement. Je ne suis pas en mesure de dire non plus si interroger les datacenters directement ne déforme pas les résultats en positionnement.
Chez Yooda, nous avons l’obligation de fournir des résultats identiques à ceux proposés par Google via son interface web. Nous ne prenons donc aucun risque là dessus.

En ce qui concerne les proxies, c’est malheureusement très pénible à gérer. En effet, les proxies sont très fréquentés, et du coup très rapidement « crâmés » par Google. Le scap à IP unique n’est pas simple du tout. C’est même très couteux pour maintenir une liste de proxies à jour.