在做SEO的过程中,我们经常会有这样一个观点,很少去针对百度搜索引擎算法的深度研究与议论,理由非常简单,由于技术水平有限,我们很难去精准定位一个算法,真实的有效性!
https://www.batmanit.com/p/1317.html
因此,对于蝙蝠侠IT而言,我们非常清楚,自己针对百度SEO而言,永远都是一个“实践”派。
但这并不是说,我们否认对SEO理论研究的重要性,而是在讲,我们的技术水平,真的没有达到那个程度,让我们深入的做技术研究。
这里我们并没有特指任何人,而是最近有很多SEO小伙伴,经常说,多分享一些案例,纯粹的文章,更加枯燥,对于这个问题,我是这么认为的:
实际上,我们每天都在做大量的实操测试,也得到很多相关性的结论,但从另外一个角度来讲,我们没有办法,确保这些策略是百分百的精准。
根本没办法做出一个标准化产品,所以还是选择不公开半成品。
因为,这种半成品可能赚了眼球获得了流量,实际上,并没有真正的意义。
就比如最近很多小伙伴,私信我们如何利用TF-IDF,这个算法,去做百度相关性很高的内容,这是90%以上,百度SEO人员经常会问道的问题!
但从目前来看,基于百度搜索结果为基准的研究,我们认为都是牵强的,而个人以为TF-IDF,这个“东西”做谷歌的小伙伴经常叫做SEO摩天楼,实际上,从某种角度来讲,它是在告知你,一个内容页的核心关键词到底是什么。
这就好比,你认为页面的关键词是A,而实际上,基于算法的计算,它可能是B,或者是A1。
但我们知道,搜索排序的影响因子很多,有的时候,算法识别的核心关键词是B,而你给了A更多的外部资源,比如:反向链接(包括:内链+外链),它排名的关键词,仍然是A。
面对这种事情就是相对的尴尬,因此,我们总是会和SEO你问我答的小伙伴里面,戏称:百度是SEO经验主义,谷歌是标准化产品。
有的时候我们看搜索专利,我一定是会比对着去看,比如:
百度的超链文本检索系统和方法
谷歌的最为熟知的Pagerank
虽然二者,都是基于超链接研究,但是前者更加关注的是关键词的相关性,而后者更多的是基于链接关系的计算,比如:不同链接质量的问题。
当然,后期我们认为相关的算法都在不断的升级与完善,比如:谷歌可能会更深入的计算一下链接距离之间的关系。
综上所诉,针对SEO案例的问题,我们会定期根据自己的实测,分享基本80%左右精准的相关策略给到大家,比如:白帽如何快速排单页,如何基于TF-IDF算法,最大限度的解决采集的问题!(你没看错,是采集问题)等等。
但我们认为技术总是有限的,很多理论的研究,仍然在路上,甚至是蒙圈的,我们在学习的道路上,还有很多路要走,SEO若不懂,不妄议,我们暂且分享一些心得体会与大家相互学习与交流!