Mesures anti scraming de Google, contre qui ?

Mesures anti scraping de Google : qui est visé ?

Google a récemment adopté de nouvelles mesures impactant plusieurs outils de référencement. Nous en avons parlé dans le billet intitulé Lutte de Google contre le scraping. Dernièrement, il a ajouté une nouvelle mesure : activer JavaScript pour pouvoir utiliser le moteur de recherche. Le résultat de ce nouveau commandement du Dieu du Web est le blocage de nombreux scrapers et API : un petit séisme !

L’activation de JavaScript nous permet de mieux protéger nos services et nos utilisateurs contre les robots et les formes évolutives d’abus et de spam, et de fournir les informations les plus pertinentes et les plus récentes.

Google pour TechCrunch du 17 janvier 2025

De même, Google a annoncé une statistique intéressante qui le ‘disculpe’ de l’intention de nuire à ses adeptes :

– 0,1 % des recherches sur Google sont effectuées par des personnes qui désactivent JavaScript.

Google

Or, il est connu que les scrapers automatiques désactivent JavaScript quand ils pompent les données de Google. Ils sont donc utilisateurs visés par cette contrainte googlienne.

Conséquences des mesures anti scraping de Google

Cette nouvelle mesure a causé une interruption des données fournies par plusieurs outils de référencement tels que Semrush, SimilarWeb, Rank Ranger et d’autres. Shay Harel, directeur principal de SimilarWeb, a expliqué :

Dans la nuit du 15 janvier, Google a apporté des modifications importantes à la manière dont ses systèmes gèrent les interactions automatisées. […] Les solutions de suivi des classements et de données SERP ont été temporairement perturbées car de nombreuses configurations existantes sont devenues non fonctionnelles. Chez SimilarWeb, nous nous sommes rapidement adaptés […] pour restaurer toutes les fonctionnalités dans les 18 heures.

Shay Harel

Traduction de Google !

Rescapé des mesures anti scraping de Google

Un rescapé agile ?

Tomek Rudzki, co-fondateur de ZipTie.dev, a également confirmé ce problème :

Nous avons observé une diminution (d’environ 2 points de pourcentage) des taux de détection AIO […] Il semble que Google bloque les vérificateurs AIO de manière intelligente, bien au-delà des captchas traditionnels. Nous cherchons des moyens d’améliorer le taux de détection AIO.

Tomek Rudzki

Traduction via Google

Certains outils comme Sistrix, Monitorank et Ahrefs paraissent ne pas être affectés par ces changements.

Lutte anti-Scraping ou autre enjeu ?

Certains acteurs pensent que ces nouvelles mesures de Google ne visent pas seulement à protéger contre le scraping de données, mais aussi à entraver les IA génératives de texte (LLM) qui pourraient menacer sa position de leader en matière de recherche en ligne.

Patrick Hathaway, cofondateur de Sitebulb, a souligné :

Il est beaucoup plus probable qu’il s’agisse d’une réaction à une menace croissante pour la domination de Google – les LLM comme ChatGPT étant considérés comme un remplacement adéquat/meilleur de la recherche Google. […] En rendant leurs données plus difficiles d’accès à grande échelle, Google se protège contre les LLM […]. Les outils de suivi des mots-clés ne sont que des dommages collatéraux.

Patrick Hathaway

Ces mesures illustrent les efforts continus de Google pour affiner son écosystème de recherche et introduire des contrôles plus stricts. Les professionnels du SEO doivent faire preuve d’agilité et d’innovation pour faire face.

L’année 2025 sera marquée par des tournants majeurs en matière de search, SEO, IA… et les Trump-eries !

Soyons vigilants et agiles !

Faites défiler les articles

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.