网站 流量具有可控性?该怎么做?
时间 :
2016-08-18,08:52:33
访问次数 :449
seo引擎优化是搜索引擎的产物,所以想要网站 流量具有可控性,我们首先要去考虑搜索引擎。须从常识去考虑。
首先我们先说SE的用户:想在网路上找到自己想要的信息的人SE的价值:为搜索用户提供他们最想要的信息SE的盈利方式:拥有大量的用户的前提下,通过投放广告赚取费用。
而SE就像一颗摇钱树,为公司自动赚钱。公司每年也为SE投入大量的资金,公司要做的就是提升SE的算法,做到尽可能让搜索用户获得最有价值和他们最想要的信息,从而留住搜索用户,再赚钱。而SEO却是与SE背道而驰,我们想要做的就是把自己的网页推到前面去,如果我们不考虑我们能为搜索用户提供有价值的信息,那被SE刷掉是早晚的事情,那些做SE的公司绝不会让我们把他们的摇钱树破坏的。
既然提到维护SE的费用,那SE肯定也不会它的算法告诉你,那我们只能去猜,但是不能凭空去猜,我们可以通过常识去确定方向。
通过常识去确定方向
首先我们要知道我们做的都是网页的排名,而不是网站,这一点是常识,但是很多人的思维还是考虑着网站的排名,现在先不管,先调转你的观点。那想要网页有排名,那必须要做的一件是就是让SE去收录这个网页,才会存在排名。最后一点就是点击,没有点击就没有流量,就没有价值,收录和排名都是SE的事情,SE只负责把你的网页推到用户的眼前,至于用户会不会去点击的网页,这个就和网页本身的内容有关了,这个是SE不能控制的。
通过上面的尝试我们能推论出一个公式:SEO流量=整体收录量*整体收录*整体点击率
这个公式大家应该都熟悉,基本每个培训机构,每本关于SEO的书籍都会讲到。他们都提及到了这个公式,但是却没有告诉大家这个公式是哪里来的,也没有去细分这个公式,所以很多人知道但是不了解。其实这个公式就是告诉我们做SEO的大方向。那让我们再把这个公式继续拆分:
整体收录量是由什么决定的?
说到收录量那我们必然会联想到蜘蛛,我们知道收录的过程:爬虫爬行抓取,提取有价值的网页进行收录。那我们又能总结一个公式:
整体收录量=搜索引擎抓取量*页面质量
搜索引擎抓取量是由什么决定的?
我们知道蜘蛛爬行的时间有限,SE会通过你网站的更新频率,权重,蜘蛛信道(外链)的数量等等因素来决定你蜘蛛来的次数和停留时间。那我们又能总结一个公式:
搜索引抓取量=蜘蛛总的停留时间/单个页面停留时间
其实这个公式还能无限细分下去,细分下去其实都是影响的因素,那我就大概的提几点。蜘蛛总的停留时间上面有提及到了,网站的更新频率,权重,蜘蛛信道(外链)的数量等等因素。单个页面的停留时间又由网页的加载速度,在细分就是服务器的速度,网站代码的简化,服务器的系统,等等一些列的原因所影响,这里就不具体细分了下去了。
页面质量是由什么决定的?
页面质量又能分成两部分:1.技术2.内容
很容易理解,技术方面涉及到页面代码的优化程度是否精简,HTTP标头是否设置正确,是否使用了烂大街的模版。技术方面的因素印象了抓取的效率。内容方面那就更容易理解了,无非是内容的重复性,而这内容的原创性由是影响权重(正真意义上的权重,而不是在线工具给的值)的重要因素之一。那同样我们得到一个公式:
页面质量=页面技术*页面内容
通过上面从常识出发的推论得到的公式我再给大家整理一下,我们刚其实只是细分了“整体收录量”这个因素,而且没有细分的很彻底,但是方法已经点到了,如果真要写的话真的太多太多,我们要这些影响SEO流量的因素都列出来,那真的是太多了。所以没有所谓的SEO就是更新站内+发外链,这种简单的思维是不成立的。那让我再整合一下“整体收录量”:
整体收录量=(蜘蛛总的停留时间/单个页面停留时间)*(页面技术*页面内容)
那我们假设把所有的因素都公式化,那如果我们去动手去操作某个因素,都是能直接影响SEO流量的,但是有的时候只是基于我们SEO流量太少,所以效果不是明显。但是又基于能修改的因素太多了,那我们都去尝试优化这些因素,那流量会来的很容易,而且是按倍数去增加的。
思路就是如此简单,只要懂SE,就能推断出,而且大方向可以肯定是不会错的,因为我们的思路是符合SE的标准的在操作。
作为一个真正的seo网站推广者,如果只以为seo网站推广就是“网站更新+发外链”,那么你真的是门外汉,在大数据的时代,会显得那么渺小,大数据的时代是属于那些懂得网站流量分析的人的时代,网站借助大数据才会更加强大,才会具有可控性。