Selon brodieclark.com, la communauté SEO a récemment découvert que Google a désactivé le paramètre &num=100, qui permettait d'afficher 100 résultats par défaut au lieu de 10. Cette modification a eu des répercussions significatives, notamment sur les fournisseurs d'outils de suivi de positionnement et sur les données de la Google Search Console (GSC), où une baisse spectaculaire des impressions a été observée.
L'impact de la désactivation du paramètre &num=100
La désactivation du paramètre &num=100 a lourdement affecté divers fournisseurs de suivi de positionnement. Beaucoup d'entre eux s'appuyaient sur ce paramètre pour obtenir des données de classement de manière efficace. Cette modification pourrait potentiellement multiplier par dix le coût de récupération d'un seul résultat, rendant l'accès aux données de positionnement beaucoup plus onéreux.
Une conséquence inattendue, et tout aussi préoccupante, est le changement significatif dans les données de la Google Search Console. De nombreuses propriétés ont constaté une chute drastique des impressions. Bien que des doutes aient été émis sur une potentielle anomalie de données ou un simple changement de rapport dans la GSC, le timing entre la désactivation de &num=100 et ces anomalies de rapport est trop étroit pour être une coïncidence.
La "Grande Déconnexion" réévaluée
La théorie de la "Grande Déconnexion", souvent acceptée comme un fait, suggérait que les impressions augmentaient en raison des aperçus d'IA, sans que les clics ne suivent la même tendance. Cependant, cette récente modification remet en question cette hypothèse.
Des experts comme Mark Barrera et Malte Landwehr ont souligné le lien entre le pic d'impressions récent et le scraping excessif des outils SEO. Les captures d'écran initiales montrant une "déconnexion" et une augmentation des impressions, coïncidant avec l'arrivée des aperçus d'IA, pourraient en réalité être liées à l'activité de ces outils. La date de la baisse des impressions dans la GSC (10 septembre) coïncide étrangement avec le fait que l'outil Semrush Sensor n'ait pas été mis à jour depuis la même date, ce qui n'est pas une coïncidence.
Théories expliquant l'augmentation des impressions de bots dans GSC
L'examen des données révèle que la baisse des impressions dans la GSC provient principalement des recherches sur ordinateur de bureau, l'impact sur le mobile étant moindre. La plupart des projets de suivi de positionnement des outils SEO utilisent le bureau comme paramètre par défaut. L'ampleur des impressions de bots est stupéfiante, avec une diminution de plus de 200 000 impressions quotidiennes sur le bureau seul.
Bien que les impressions de bots aient toujours existé, leur augmentation rapide est probablement due à l'intensification de la concurrence dans l'espace de la recherche basée sur l'IA au cours de la dernière année. Deux théories principales émergent :
- Google aurait désactivé
&num=100pour réduire l'abus de ses systèmes par des services de suivi externes, peut-être en lien avec l'utilisation de SerpApi par ChatGPT. - Google chercherait à mettre fin à la mauvaise presse concernant l'impact des aperçus d'IA sur les impressions.
Explication du changement de mesure dans GSC
Pour qu'une impression soit enregistrée dans la GSC pour un classement organique, l'annonce doit apparaître sur la page actuelle et être visible par les utilisateurs, même si elle n'est pas défilée. Pour un utilisateur normal, la "page actuelle" afficherait 10 résultats organiques. Cependant, comme les outils de suivi de positionnement utilisaient &num=100, un résultat classé à la position 99 générait une impression dans la GSC, même s'il s'agissait d'une impression de bot. Cette pratique a malheureusement pollué les données de la GSC avec de nombreuses impressions de bots au cours de la dernière année, réduisant la fiabilité de l'ensemble de données.
Comment les fournisseurs d'outils SEO réagissent
Voici un aperçu des réponses des principaux fournisseurs d'outils SEO face à l'incapacité d'utiliser &num=100 :
- Semrush : Une mise à jour a été publiée, encourageant les utilisateurs à considérer la valeur des 10 à 20 premiers résultats. Bien que le suivi des classements au-delà de la position 20 continue pour l'instant, le libellé de la mise à jour suggère un changement imminent.
- Ahrefs : Tim Soulo a fait allusion à des changements similaires à ceux de Semrush, sollicitant les commentaires des utilisateurs sur la valeur du suivi des classements au-delà de la position 20. Les données d'Ahrefs ne semblent pas avoir été perturbées pour le moment.
Quels résultats pouvons-nous attendre ?
Google n'a pas encore communiqué publiquement sur cette situation, mais une déclaration est attendue. Si le changement de &num=100 n'est pas annulé, les coûts de suivi de positionnement pourraient grimper en flèche. Concernant les données de la GSC, il sera intéressant de voir comment elles évoluent et si elles peuvent désormais donner une image plus claire de l'impact réel des aperçus d'IA.
Il s'agit d'une situation en constante évolution, et il est clair que les données de première partie avec lesquelles les SEO travaillaient étaient malheureusement pas particulièrement précises, surtout si les "impressions" et le "CTR" étaient les principales métriques utilisées pour tirer des conclusions sur l'impact des aperçus d'IA.
Source : Brodieclark.com
Cet article a été rédigé avec l’assistance d’un modèle de langage (LLM).