北京seo相关文章
- 标签:北京seo 发布时间: 2021-02-12 21:50:32
只是做SEO,如果是不知道如何分析日志的SEOer,你看这里你知道我会秘密告诉你的对数分析与中药的脉搏检测相同。您仍然需要随时获取网站的最新信息,别忘了开个处方,为网站制作诊断报告,处方正确药物的时候到了,希望网站稳步发展,更符合SEO优化规则,网站的日志分析和诊断绝对是不想执行此工作的SEO。事情是不可避免的。
所谓的网站日志,它没有您想像的那么深刻。通过各种搜索引擎下的蜘蛛,通过域名爬行网站的踪迹,成为传奇“网站日志”用这种方式更好理解吗?
一、如何分析和诊断网站日志?
1. 造访总数
蜘蛛访问该网站的次数可以间接反映该网站的权重。为了有效地增加蜘蛛访视次数,需要根据服务器性能进行分析和优化, 深层的外链建设, 层次结构, 入口增加, 等等
2. 总停留时间
蜘蛛停留时间与网站结构密切相关, 服务器响应时间, 简单的网站代码, 网站内容更新, 等等
3. 总抓取量
蜘蛛爬网的数量与网站结构密切相关, 网站内容更新, 服务器Cookie设置, 等等蜘蛛爬网的数量与站点的包含度直接相关。抓取量越大, 网站越可能包含更多
4. 每次爬网
蜘蛛一次爬行大量页面,说明该网站内容丰富,网站结构有利于搜索引擎蜘蛛的爬行
5. 单页爬网停留时间
单页爬网的停留时间与页面加载速度密切相关, 页面内容信息量, 页面代码简洁, 等等提高页面加载速度,减少蜘蛛在单个页面上的停留时间,增加蜘蛛的总爬行速度,然后增加网站集合,增加整体网站流量
6. 目录搜寻
爬虫抓取的主要目录应与网站的主要栏目保持一致。为了提高包容性, 关键列的权重和关键字排名,SEO策略需要从外部链接的角度进行调整, 内部链接, 等等; 对于不需要包含或抓取的列,需要使用机器人禁止爬行
7. 页面爬行
蜘蛛会在网站上停留有限的时间。建立良好的网站结构,关键页面的建筑物入口,降低页面的重复爬网率,将蜘蛛引入更多不同的页面,有利于提高网站的包容性
8. 状态码
清除页面中的无效链接,它可以帮助蜘蛛平稳地抓取页面,提高搜索引擎的友好性。
二、 网站日志下载及设置注意事项!
1. 首先, 我们的空间必须支持网站日志下载,这个非常重要,在购买空间之前, 我们必须首先询问它是否支持网站日志下载,由于某些服务提供商不提供此服务,如果支持, 空间背景通常具有日志WebLog日志下载功能。 将其下载到根目录,然后通过FTP上传到本地。可以设置服务器将日志文件下载到指定的路径。
2. 这里有一个非常重要的问题,强烈建议将网站日志设置为每小时生成一次。小型企业网站和页面内容较少的网站可以设置为一天,默认为一天,如果内容很多,或者将大型站点设置为每天生成一次,然后一天只生成一个文件,这个文件会很大,有时我们打开计算机会导致崩溃,如果您进行设置, 您可以找到一个空间提供商来协调设置。
3. 网站日志分析。
1. 如果日志的后缀是log, 我们用记事本打开它。选择自动换行格式,这样看起来很方便,同时使用搜索功能来搜索两个蜘蛛BaiduSpider和Googlebot。
E.G:
百度蜘蛛2012-03-13 00:47:10 W3SVC177 116.255.169.37 GET / – 80 – 220。181.51.144 Baiduspider-favo +(+百度/ search / spider)200 0 0 15256256265
Google Robot 2012-03-13 08:18:48 W3SVC177 116.255.169.37 GET /robots.文本文件 – 80 – 222.186.二十四、26 Googlebot / 2.1 +(+ Google / bot)200 0 0 985 200 31
拆分说明:
2012-03-13 00:47:10蜘蛛爬行的日期和时间点; W3SVC177这是机器码,这是唯一的。 我们不在乎; 116.255.169.37该IP地址是服务器的IP地址。 GET代表事件,在GET是蜘蛛抓取的网页之后,斜线代表首页,80表示端口,220。181.51.144这个IP是蜘蛛的IP,这是识别真假百度蜘蛛的方法,单击我们的计算机以启动,然后输入cmd以打开命令提示符,输入nslookup空间加Spider IP,然后单击Enter,通常, 真正的百度蜘蛛有自己的服务器IP,但假蜘蛛没有。
如果网站上有很多假蜘蛛, 这意味着有人假装是百度蜘蛛来收集您的内容。你需要注意如果太猖, 它将占用您的服务器资源,我们需要阻止他们的IP。
200 0 0这是状态码。 状态代码的含义可以在百度中搜索; 最后两个数字197 265表示访问和下载的数据字节数。
2. 当我们分析时 首先查看状态码200,这表示下载成功。304表示该页面尚未修改,500代表服务器超时,这些是其他通用代码,可以是百度,我们必须处理不同的问题。
3. 我们需要查看蜘蛛经常爬行的页面,我们必须记录下来分析为什么它们经常被蜘蛛爬行,以便分析蜘蛛喜欢的内容。
4. 有时候我们的道路不统一 斜线是否存在问题。蜘蛛会自动识别为301跳到带有斜线的页面,在这里,我们发现搜索引擎可以判断我们的目录,因此,我们必须统一目录。
5. 我们已经分析日志很长时间了,我们可以看到蜘蛛如何爬行,可以看到同一目录下单个文件的爬网频率间隔和不同目录下的爬网频率间隔。爬虫会根据网站的权重和网站更新频率自动确定这些爬网频率间隔。
6. 蜘蛛抓取我们的页面是分层的,根据重量而减少,总的顺序是第一页, 目录页面, 和内页。
7. 具有不同IP的蜘蛛具有不同的爬网频率
三、我们可以从网站日志中了解什么?
1. 我们发布的外部链是否有效?
2. 我们购买的空间稳定吗?
3. 蜘蛛喜欢我们的页面,他们不喜欢哪些页面?
4. 蜘蛛何时会经常抓取我们的网站,我们什么时候需要更新内容?
事实上, 通过我们的服务器IIS日志可以轻松分析这些问题。作为合格的SEO, 您需要真正地分析IIS日志,而不是简单地查看状态代码。
摘要:特科网专注北京网络营销优化,长沙网络营销推广技术,北京seo培训,成都SEO技术服务外包公司提供SEO优化培训、百度关键词排名优化服务。