什么样的网站被称为优秀的网站?健康、功能完善的网站,还是根据市场和关键词研究、E-A-T、内容与搜索意图的相关性、反向链接情况等进行优化的网站?。所有优秀的网站都拥有的一个共同点是:他们的技术SEO需求得到了满足。
你的网站技术SEO需求形成了一个层次结构。如果层次结构中较低的需求没有得到满足,下一层次的需求就很难实现。每个层次都响应搜索引擎世界中的不同需求:可抓取性、可索引性、可访问性。
理解金字塔的每个层次所涉及的内容有助于让SEO工作变得更加容易,让你的整个工作计划变得更加有条理。
可抓取性
在SEO技术需求的金字塔基础,是一个URL的可抓取性。
可抓取性涉及URL被搜索引擎机器人发现的能力。不可抓取的URL仍然可以被访客访问,但由于机器人看不到它们,它们就不会出现在搜索结果中。
被搜索引擎抓取发现。搜索引擎通过抓取链接和阅读网站地图来发现URL。
谷歌SEO的技术需求有哪些?
机器人不被禁止。大多数搜索引擎机器人会尊重robots.txt文件中的meta robots指令和指示,要求它们不要抓取某些页面或目录。
由网站的抓取预算所覆盖。不太常见的是,谷歌算法给予的 “预算 “被用于网站的其他部分,导致特定URL被抓取出现延迟或问题。
例如,SEO技术审计的第一步是发现哪些页面无法被索引,以及原因是什么。有时这是故意为之,有时是因为失误。
同样,虽然抓取看似深奥,难以量化,但基本原理是,当优化抓取成本,优先页面优先呈现时,可以通过搜索引擎获得更多流量。技术性SEO利用页面的发现方式和优先级来促进更好的抓取;利用抓取频率的历史数据和过去引发抓取活动增加的情况来提高当前的抓取率。
新抓取的页面按页面组分布。’其他’灰色类别是垃圾类别。大量的抓取预算被浪费在了抓取这些页面上。
可索引性
在搜索引擎优化技术需求的层次结构中,排在可抓取性之上的是可索引性。
可索引性URL是指搜索引擎可以将其包含在可在搜索结果页面中呈现的网页目录中的URL。即使一个URL已经被抓取,各种属性也会阻止它被添加到索引中。
在最直接的情况下,可以通过meta robots和robots.txt指令阻止页面被索引。
策略组页面的可索引性状态。
但当同一内容存在更权威的版本时,谷歌也会选择不索引网页。当机器人发现以下内容时,会出现这种情况。
重复的内容。
规范的声明。
备用版本,如可打印页面或移动页面。重定向。
为了确保正确的页面能够被索引,技术SEO会验证这些元素是否正确设置,以及它们是否适用于正确的页面。
可访问性和网站性能
一个可访问的URL是容易显示或渲染的。
一个既可抓取又可索引的URL,在搜索引擎的机器人试图抓取它时,也有可能无法访问。排名靠前但持续存在可访问性问题的网页和网站往往会在搜索结果中受到惩罚。
爬虫机器人和用户的可访问性涵盖了广泛的相关内容。
服务器性能。
HTTP状态。
加载时间/页面大小。
JavaScript渲染。
网站架构中的页面深度。
独立页面。
网站对垃圾邮件和黑客的抵抗力。
我们的目标是发现可访问性和性能指标对SEO性能产生负面影响的阈值,并确保网站的所有页面至少达到该最低水平。因此,技术SEO使用工具来衡量任何东西,从服务器停机时间或服务于机器人和用户的HTTP状态,到页面被请求时传输的资源(CSS、JS、图像……)的大小或加载时间指标,如TTFB、FCP或TTLB。
桌面和移动机器人和资源之间遇到的平均响应时间。
技术性SEO审核,我们要努力消除表现不佳的独立页和页面深度过大的URL。包括用户的可访问性,一个不能与屏幕阅读器配合使用的页面,无论它的内容或关键词优化有多好,都不能被很多用户使用。
一旦解决了可访问性问题,我们就可以说一个页面的基本技术SEO需求得到了满足。没有它们,页面和网站的SEO就会受到影响。
|