1. 您的位置:首页 > seo技术 >内容

[seo]合格的SEO应该适用于IIS日志分析

在我们的优化路径中存在一些困扰我们的问题,例如:我们是否对头发的外链有影响?我们可以买一个稳定的空间吗?蜘蛛对我们的页面有什么喜欢,他们不喜欢什么?当蜘蛛频繁爬行我们的网站时,我们什么时候需要更新内容?这些问题我们实际上可以通过我们的服务器IIS日志进行简单分析,作为合格的SEO,IIS日志的真实分析可以不是简单地查看状态代码,在此提醒中购买空间时必须购买可以下载IIS日志,不能下载买不买,以下是通过IIS日志分析网站问题的要点。

I.IIS log

的重要作用

1. 通过IIS日志可以了解网站上的蜘蛛's基本爬行情况,可以知道蜘蛛爬行的轨迹和爬行量,通过我们的IIS日志,或多或少地在链外,网站蜘蛛爬行量是直接的影响,我们说链接诱饵是如果你做了一个外链,蜘蛛将其爬行到链页面之外并将页面推出,蜘蛛可以使用您留下的链接爬行网站,IIS日志将记录蜘蛛'爬行动作。

2. 网站和IIS日志蜘蛛爬行频率的更新频率一般来说,更新频率越高,蜘蛛爬行频率越高,我们的网站更新不仅仅是增加新内容以及我们的微调操作。

3. 我们可以根据IIS日志响应情况,在警报之前向我们的空间提供一些事情和问题,因为服务器如果IIS日志中的问题将首次反映,以了解服务器速度的seo稳定性和打开速度都会直接影响我们的网站。

4. 通过IIS日志,我们可以知道这些页面的网站非常受欢迎r与蜘蛛,哪些页面不被蜘蛛触摸,我们还可以发现由于服务器资源过度爬行而导致一些蜘蛛消耗非常大,我们必须做屏蔽工作。

其次,如何下载日志和日志设置注意事项

1. 首先,我们支持IIS日志下载的空间,这非常重要,在我们购买空间之前必须先说hello支持不支持IIS日志下载,因为一些服务提供商不提供此服务,如果空间背景的支持通常有日志weblog日志下载此功能要将其下载到FTP上传到本地can中的根目录,则可以设置服务器将日志文件下载到指定路径。

2. 这里'这是一个非常重要的问题,强烈建议IIS日志每小时构建一次,小型企业站和网站内容较少可以设置为一天,默认为一天,如果更多或大型站点设置为生成一天,然后一天只生成一个文件,这个文件会相当大,我们有时会打开计算机会引起恐慌,设置单词来查找空间来协调设置可以。

III。IIS日志分析

1. 记录日志的后缀我们使用记事本打开,选择自动行的格式以便看起来方便,同时使用搜索功能搜索Baiduspider和Googlebot这两个蜘蛛。

例如:

百度蜘蛛

2012-03-13 00:47:10 w3svc177 116.255.169.37 get/-80-220.181.51.144 baiduspider-favo+(+http://www.baiduseo.com/search/spider.htm) 200 0 0 15256 197 265

谷歌机器人

2012-03-13 08:18:48 w3svc177 116.255.169.37获取/robots.txt-80-222.186.24.26 googlebot/2.1+(+http://www.google.com/bot.html) 200 0 0 985 200 31

我们蜘蛛'将在章节中解释。

2012-03-13 00:47:10蜘蛛爬行日期和时间点

w3svc177这是机器代码。这是我们唯一关心的事情'不关心。

116.255.169.37此IP地址是服务器的IP地址

Get Rep Event

离开是蜘蛛爬行网站页面,代表主页斜线

80是端口

的含义

220.181.51.144这个IP是蜘蛛's IP,这里告诉你一个真假的百度蜘蛛方法,我们用计算机点击开始运行输入cmd打开命令提示符,输入nslookup space加蜘蛛IP点击返回,一般来说真正的百度蜘蛛有自己的服务器IP,假蜘蛛不是。

152,如图153所示

It'是一只真正的蜘蛛,在一只假蜘蛛下面。

如果该网站出现大量虚假蜘蛛,有人伪装成百度蜘蛛来收集您的内容,您需要注意,如果过于猖獗而无法占用您的服务器资源,我们需要筛选他们的IP。

200 0 0这里是状态代码状态代码含义,可以在百度搜索

197 265最后两位数字表示访问和下载的数据字节数。

2. 我们分析了第一次查看状态代码200代表下载成功,304页面未被修改,500代表服务器超时,这些都是一般的其他代码可以是百度,针对不同的问题我们必须处理。

3. 我们想看看which pages蜘蛛经常爬行,我们必须记录下来,分析为什么它们经常被蜘蛛爬行,以便分析蜘蛛的内容。

4. 有时我们的路径与斜杠不一致,没有斜杠,蜘蛛会自动识别斜杠跳到页面的301,在这里我们发现搜索引擎能够确定我们的目录,所以我们想统一我们的目录。

5. 我们长期分析对数分析,可以看到spider'掌握定律,单个文件爬行频率间隔以下的相同目录和捕获频率间隔的不同目录可以看到,这些爬行频率间隔是根据站点重量和站点更新频率自动确定的蜘蛛。

6. 用于我们页面爬行的蜘蛛是根据重量下降,头部页面的一般顺序,目录页面,内部页面进行分级的。

7. 不同的IP蜘蛛爬行频率不同225

IIS日志是我们对网站'的分析;重要的参考数据,我们应该经常对其进行分析,总结经验,以便我们的指尖有许多问题。

本文由http://www.51diaoche.net原创A5欢迎重印



本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。如若转载,请注明出处:http://www.botadmin.cn/sylc/4851.html