SEO之大量的长尾关键字如何管理?
<p>举例20万的长尾关键字,如何进行分类,管理,创造相关页面,排名跟踪等相关工作?这个问题确实是个非常非常好的问题。
</p>
<p>
20 万甚至上百万千万的词管理,如果没有较好的管理措施,将会是个灾难。
</p>
<p>
有说把时间放在关键词管理上还不如放在内容创造上,这是他的回答;有这个精力不如放在新内容挖掘上!
</p>
<p>
既然是长尾词,不知道你是什么行业,可能会有时效性!也有可能没有这个缺陷!但是你很难解决每一个长尾词的排名,这就涉及到在当初设计网站结构的时候有没有考虑布词结构。如果当初有系统的结构,那么和程序沟通做出相应的工具!比如根据日志导出关键词表格,然后在导入查询排名 ! 如果没有系统的结构 20 万次,20 万个页面,那么即便监测到了,改起来也是一个庞大的工程,有一定的道理。
</p>
<p>
这个道理的前提是你搞不定这些词库管理。搞不定关键词管理,希望堆内容来掩盖问题,好了,现在你就有两个混乱的问题了——关键词和内容。
</p>
<p>
这个问题非常值得专门写好几篇文章谈一下,我写过一篇文章,SEO之建立有效页面数据库:目的、定义、流程、应用,里面核心逻辑可以借鉴到海量关键词管理上——建立关键词数据库。这里简单说点思路。
</p>
<p>
请注意:思路是重点,技术不是。掌握了思路,就算是用 Excle,也是能够搞定。当然,最好是升级技能点,Excel 处理十万以上的数据有点拖后腿了。
</p>
<p>
已经假定你这些词本身不需要做清洗了,我也不关心你这些词是怎么来的(当然来源方式对后续的整理方式有影响),反正就是已经有了 20 万词,这个量级用来做关键词管理练手是非常好的,再少些感觉少了点。
</p>
<p>
一、构建数据表
</p>
<p>
首先一定要建立这样一个观念,任何一个词都是一条记录。类似于任何一个页面都是一条记录。实际上任何页面与词都有对应关系(不是一一对应关系)。
</p>
<p>
既然每个词都是一条记录,那么记录就有相应的字段。记录 + 字段 就是构成一张数据表了,多张表构成数据库了。这里面的核心是搞定数据表构建。
</p>
<p>
细节逻辑阐述会有点绕,如图。
</p>
<p>
图表一:
</p>
<p style="text-align:center;">
<img />
</p>
<p>
看起来很规整的样子。
</p>
<p>
图表二:
</p>
<p style="text-align:center;">
<img />
</p>
<p>
还是看起来很规整的样子。
</p>
<p>
图表三:
</p>
<p style="text-align:center;">
<img />
</p>
<p>
仍然看起来很规整的样子
</p>
<p>
图表四:
</p>
<p style="text-align:center;">
<img />
</p>
<p>
仍然还是看起来很规整的样子。
</p>
<p>
图表五:
</p>
<p style="text-align:center;">
<img />
</p>
<p>
不管怎样都是很规整的样子。
</p>
<p>
完成上面的表构建,就远远超出楼主说的如何分类的这个小小的目标了,这何止是分类啊,这是大卸八块。
</p>
<p>
这些东西是怎么演变出来的,结合这五张图表推演下。貌似网上找不到关于大量关键词管理的资料,我也是自己在实际需求中琢磨出来的。这个行业内肯定有一大把人有各种套路来管理这些海量的词的,但是没有看到分享。
</p>
<p>
熟练了之后,十万级别的关键词就是塞牙缝的,百万级别也就是喝口汤。但是如果要做细致管理,需要对业务有进一步的了解,不然容易闹出笑话。
</p>
<p>
二、创造相关页面
</p>
<p>
页面包括模板和内容。其实从前面的表格,就可以很明确地设计页面模板了。
</p>
<p>
接下来是内容的确定。在确定内容之前,要考虑页面类型。基本类型就两种:详情页和聚合页。这两者甚至可以互相转化,但仍然建议做这两种基本区分,甚至更细致的区分。也许会有详情页 A、详情页 B 等划分。
</p>
<p>
除了那种 PGC,内容理解为数据组织,这样的思路会让效率和质量显著提升。内容基本上就是复制、组合、精简、关联等几个基本动作来完成。
</p>
<p>
词条就是着陆页,词条的细分以及与其他词条的关系(这个关系需要另外做表)就已经决定页面内容大概是什么样子了。假定有两个人在词库的指导下生产内容,具体文字不一样,但基本要点都是偏离不了的。偏离才是有问题的。
</p>
<p>
三、排名跟踪
</p>
<p>
关键词排名跟踪分两种:一个是关键词对应的不确定页面排名跟踪,一个是关键词对应的确定页面排名跟踪。两种都做更好。
</p>
<p>
排名跟踪本质是数据统计分析。那么就得按照数据分析的规矩来办事。前面有人提到分组抽样,这个是对的,他也提到了随机抽样。虽然也要用到随机抽样,但还是有一些前提的。样本要具有典型意义。就好比 10000 个品牌词,就不能笼统做品牌词随机抽样,因为这些品牌词可能有 80?不太重要的,而有 18?般重要的,2?至关重要的。数据分析中要注意这个 2/8 法则的应用。
</p>
<p>
数据分析还有其他的一些常用的思维,如象限法、对比法、多维法等等,灵活地应用一起来。
</p>
<p>
最后,再强调下,完成这些动作,市面上的现成工具就能满足,只是很多时候在思路没有理清楚的情况下,被搞复杂了,还在想怎么遍历完20万甚至百万千万的词。用程序员的说法就是,这算法有问题。所以,很多时候,多优化思维才是捷径和正道。
</p>
页:
[1]