怎么解决最近 Shopify 电商独立站页面含有 SRSLTID 参数带来的一些SEO困扰?

最近发现一些读者公司的Shopify电商站出现了这么一个问题:

Google搜索结果里的很多页面都带有 ?srsltid= 这么一串莫名其妙的参数,导致 Google Search Console 和 Ahrefs 等第三方SEO工具出现了数据方面的诸多问题,可能会导致你误认为网站的SEO排名和流量下滑、被8月的核心算法更新打击了。

其实,真实的情况并非如此,截至目前,我还没见到真的因为这个 SRSLTID 参数问题导致SEO流量下滑的案例(虽然有Reddit网友反馈)。

比如:site:某电商站的域名,Ahrefs工具条显示这个 DR 47(流量30K+)的首页流量为0,没有外链。。这个显然不正常。

怎么解决最近 Shopify 电商独立站页面含有 SRSLTID 参数带来的一些SEO困扰?

原因也很简单:因为这个展示在SERP结果里的URL其实不是真正意义的首页URL,细心的你会发现,它带有一串尾巴,?srsltid=xxxx 这个参数。

这个带有 srsltid 参数的URL跟不带参数的标准URL在搜索引擎眼里,是2个不同的页面。

如果你看GSC里的Top Pages,大概率也会发现这样的页面:

怎么解决最近 Shopify 电商独立站页面含有 SRSLTID 参数带来的一些SEO困扰?

过去几天我做了一点调查,也问了一个Shopify SEO朋友,今天专门写一篇帖子来跟大家分享我的一些研究发现。

首先,这个问题是什么时候发生的?

应该是8月初(1个月前),然后8月中旬,陆续有Shopify站长和SEO人发现了这个问题,Reddit和部分SEO社区有人反馈这个问题。

怎么解决最近 Shopify 电商独立站页面含有 SRSLTID 参数带来的一些SEO困扰?

Reddit的这个SEO网友看到公司管理层的截图,当时吓坏了。

SRSLTID 参数什么?怎么引起的?

?srsltid= 这个参数来自 Google Merchants Center,目的是用来管理和跟踪电商网站在Google Shopping Ads里的购物广告表现。

按理说,带有这类参数的页面是不应该被出现在 Google 自然搜索里的,但不知道什么原因,Google把这个功能打开了,可能是为了便于广告商(即我们的品牌电商站)更好的跟踪转化,也有可能是系统故障,目前不清楚具体的原因。

但,因此触发了不少SEO问题和困扰。

Google官方的回应

这是Google官方发言人 John Mueller 在LinkedIn上的回应:

怎么解决最近 Shopify 电商独立站页面含有 SRSLTID 参数带来的一些SEO困扰?

很显然,Muller的一些陈述是不对的,比如:他提到这些URLs是不被爬取和收录的,但事实上已经发生了。

对SEO(可能)的影响?

我总结了一下,有如下几个方面:

1)重复页面问题。

特别是分类页面和产品页面,可能有大量的带有不同?srsltid=参数的新页面产生,但这些页面的内容都是一样的,可能误让搜索引擎认为网站有重复页面问题。

2)潜在的关键词排名和SEO流量下滑。

声明:这个发生的概率应该很小,大家不必惊慌。

就如上面提到的,有可能导致搜索引擎不收录不带参数的那个最标准的页面,一旦发生,后果可能会很严重,比如:这个重要页面的排名会下滑或者消失。因为取而代之的是带有参数的新页面,其年龄和历史表现几乎为零。

3)GSC和第三方SEO工具数据出现大幅变动或者失真。

这也是我在文章最开始提到的,SEO数据方面可能会被干扰,一旦出现流量下滑,你(或者是公司高层)还可能以为是被8月中旬推出的Google核心算法更新击中了。

解决方案有哪些?

目前来看,有2个解决办法,但都不完美。

1)关闭 Google Merchant Center 里的 auto-tagging 功能

潜在的坏处:影响Google Shopping广告的跟踪表现,建议跟你们公司的广告部门沟通后决定。

具体步骤如下:

怎么解决最近 Shopify 电商独立站页面含有 SRSLTID 参数带来的一些SEO困扰?

参考来源:

https://ppcmania.com/digital-marketing/googles-new-srsltid-parameter-in-organic-search

2)禁止Google 收录这些带有 ?srsltid= 参数的页面

挑战和难点:怎么以最小的时间和代价去执行,这个听起来很容易,但执行起来并不简单,特别是一旦有几百上千个这样的页面已经被Google收录。

我看过了多个SEO人的操作,已经几乎证实:把这些带有参数的重复页面添加 rel=”canonical” 标签、或直接放入 Robots.txt 文件都无法100%解决,因为Google爬虫似乎不完全尊重这个标签和禁用文件。

唯一的办法就是:禁止收录(noindex),然后怎么让Google爬虫尽快重新爬取这些带有参数的重复页面也是个挑战。

我咨询过的SEO高手 Marc Moller,他解决了这个问题,但花了不少时间研究这个。

具体,看他的这篇文章和YouTube视频:

https://www.youtube.com/watch?v=wzEkniLtjkw

https://www.linkedin.com/pulse/srsltid-shopify-parameters-massive-problem-2024-how-fix-marc-moeller-kpfic/

虽然,他在文章和视频也没把解决方案全部透露出来,但我咨询他的时候,他大概透露了,处于尊重,这里就不公开,需要Marc帮忙的话,你可以联系他,或者联系我先(我可以看看你们的网站)。

当然了,最希望看到的结果是:我们不用做什么,Google能解决这个问题最好,但问题是,Google会吗?什么时候?这个,谁也不知道。

来源公众号: 英文SEO实战派(ID:SEOAction)不一样的SEO干货和资讯,For Serious Internet Marketers Only

本文由 @英文SEO实战派 原创发布于奇赞平台,未经许可,禁止转载、采集。

该文观点仅代表作者本人,奇赞平台仅提供信息存储空间服务。

(0)

为你推荐

发表回复

登录后才能评论
李坤锦
公众号
视频号
小程序