欢迎来到青松SEO网络,我们专注于上海网站建设,上海网站优化,上海SEO外包服务。
打开客服菜单
上海SEO新闻动态
上海SEO首页 > 上海SEO经验分享 > 网站审计中应避免的4个误区
网站审计中应避免的4个误区
编辑 : 上海SEO 时间 : 2018-05-25 09:53文章来源:http://www.xiaowang92.com/

  

  一个好的网站审核对于你的网站SEO健康的整体观点是很重要的。青松SEO解释了在进行网站审计时应该避免哪些错误

网站审计中应避免的4个误区

  正如所有SEO专家都知道的,排名在搜索引擎中是一个众所周知的不可预测的追求。每一次更新都会产生强烈的、不可预见的影响。通过简单地在标题标签、页眉标签和内容中添加关键字以获得一些反向链接的排名已经结束。残酷的事实是,许多企业努力跟上这些变化。

  在确定你的地位时,搜索引擎会考虑到很多因素。其中一些大的是:内容质量、权威、响应性、网站速度

  知道如何精确地改进这些是说起来容易做起来难。因此,总是需要进行质量审核。请记住,深入审计不是一项你可以在几个小时内完成的任务。根据你的商务网站的大小,它需要几天的时间来完成。

  在整个审计过程中,有几个关键的疏忽可以为你在SERP上的排名带来灾难。让我们来看看网站审计中应避免的4个误区吧!

  一:爬行前先爬行

  首先,为了在你的网站上诊断问题,你需要有一个清晰而完整的图片来说明你到底在做什么。因此,重要的是要对整个网站进行彻底的爬行。如果你在改变之前忽略爬行,你基本上是在黑暗中拍摄。

  如果你是新的审计,首先选择一个好的爬行工具。我推荐尖叫青蛙的SEO蜘蛛,因为它的简单和合理的价格。然而,如果你正在寻找免费的,BeamUsUp是另一个伟大的工具使用。

  从你的网站进入URL字段开始。

  你也可以选择你的子域(如果适用的话)来爬行。

  这一过程是成功审计的关键因素。它为任务的其余部分形成路线图,并且应该始终是第一步。

  二:不可访问优先次序

  简单地说,如果搜索引擎和用户无法访问你的网站,你在设计登陆页面和创建品牌内容时所花费的时间和资源基本上是没有价值的。这样说,你想把搜索引擎放在最佳位置来索引你的网站。

  现在,你不需要搜索引擎来爬行和索引你网站上的每一个文件。您可以使用您的Roopts.txt文件来指定要爬行的页面和文件夹,哪些不可以。下面是Roopts.txt文件的样子:

robots.txt

  在上面的屏幕截图中,网站所有者已经“不允许”网站的某些部分被爬行。检查这个文件是重要的,以确保您不限制爬虫访问您网站的重要部分或页面,因为这在您的排名中可能不是很好。

  可以使用元机器人NoW索引标签从搜索引擎索引中阻塞单个页面。因此,查找可能错误地实现此标签的页面是至关重要的。下面是那个meta标签的样子:

nofollow标签

  您最初的网站爬行很可能会显示一些HTTP状态代码。如果你使用尖叫青蛙的SEO蜘蛛,你需要在“响应代码”选项卡中查看这些。

  以下是一些要注意的HTTP状态代码:

  200:OK -每个人(两个爬虫和用户)都到达所需页面。这是“正确”的代码。

  301:永久重定向-两个爬虫和用户都被重定向到一个新的位置,这被认为是永久的。

  302:临时重定向-两个爬虫和用户都被重定向到一个新的位置,但是新的页面被认为是临时的。

  404:找不到-想要的页面丢失。

  503:服务不可用-服务器当前无法处理请求。

  开始查看所有重定向(301和302)。百度和谷歌坚持在使用任何类型的30X重定向时不存在PageRank稀释,这意味着301和302重定向应该同时保存PageRank值。然而,许多SEOS对此说法持怀疑态度。现在,最好的做法是确保你在全线使用301个重定向,除非重定向确实是暂时的。

  接下来,404个错误可以用几种方式来解决。您可以告诉服务器将404IN页面重定向到另一个页面。在某些情况下,您甚至可能希望还原已删除的页面,如果它们仍然为搜索者保留值。虽然404个错误不会造成任何不可弥补的伤害,但它们会让你的网站看起来很邋遢。我建议一个月至少看一次——如果你有一个大网站,一周一次。

  503个错误意味着服务器宕机。这些通常在停机期间使用,让搜索引擎知道很快就会回来。

  除了错误,您还需要密切关注XML站点地图。这为搜索引擎爬虫提供了一个路径,可以轻松地找到网站上的所有页面。搜索引擎希望站点地图有一定的格式。如果你不符合,它就有被错误处理的风险。如果站点地图中列出的页面没有出现在爬行中,则可能意味着需要在站点体系结构中找到它们的位置,并确保它们至少有一个内部反向链接。

  最后,定期监控你的网站的性能是必须的。记住,这些天用户的注意力很短。信不信由你,这些天的平均值大约是八秒。搜索引擎爬虫也不知道它们的耐性。他们有有限的时间分配给每个网站。你的网站加载越快,索引就越多。PunDOM是一种用于测试加载速度的简单工具。

  它会给你一个详细的清单,你的网页上的一切,以及它们如何影响你的加载时间。在此基础上,提出了如何减少瓶颈和瓶颈以提高整体绩效的建议。

  可访问性是网站审计的影响因素之一。没有做出重大努力来优化这一领域可能会破坏你的排名。

  三:忽略页面排序因子

  就页面排名因素而言,你的网站上有很多东西可以在显微镜下观察。

  对于初学者来说,也许最重要的是,页面的内容(以及导致它的标题)是什么使得你的网站在搜索结果中的地位。最终,这是人们访问和停留在你的平台上的原因。在一个基础层面,创造恒星,真实的内容需要成为你的首要任务。

  从SEO的观点来看,有很多事情需要牢记。

  材料是否坚固?作为一个经验法则,建议内容的每一页都有至少300字。

  你的内容是否给读者提供了价值?这是一个灰色地带。基本上,你需要确保你的材料写得很好的,相关的和令人信服的。

  图像是否优化?你的网站应该提供图像元数据,以便搜索引擎可以为您的排名因素。

  你使用目标关键字吗?做你的研究和确定哪些用户正在寻找有关你的行业。

  内容可读吗?使用工具,如喷雾指数来衡量你的文本可以通过普通读者的理解。

  搜索引擎能处理它吗?确保内容不陷入复杂的图像,过多的JavaScript或者Flash。

  当通过梳理你的网站的消息,有三种有害的罪魁祸首你要密切关注。

  重复内容。这是不是你做任何有利于可以为搜索引擎爬虫的混乱,他们将必须决定哪个版本的内容排序。你可以在网站爬行过程中精确地找出这些片段。或者像CopySCAPE这样的工具在Web上标识重复。

  信息体系结构。这定义了如何你的网站给出的消息。它应该是有目的的,以及利用健康的目标关键词数量。

  关键词自相残杀。这种严峻的比喻描述的情况下你有多个页面,同样的关键词目标。这将为用户和搜索引擎产生混淆。通过创建你的网站的关键词索引避免这一切。

  接下来,您需要检查URL。一般来说,他们必须在115个字符长。同时,网址简要描述它链接到的内容是很重要的。对于URL结构化有很多实践需要考虑。花点时间和他们在一起。

  外部链接是另一个需要考虑的因素。这些就是把你的页面连接到其他站点的原因。简而言之,这就像是背书。在审核期间,你要确保这些链接去信赖的,有信誉的网站。我使用的一个策略是在Twitter上查找网站。如果帐户验证,它通常是一个合格的源。

  除了是决定性的搜索排名,页面上的因素是什么游客与他们去你的网站的时候。因此,忽视甚至少数长期来看会非常昂贵。

  四:忽略页面排名因素

  即使这些因素来自外部来源,它们对你的排名是至关重要的,不应该被忽视或放在后面。

  首先,看看你的总体知名度。你的网站有多少流量?为此,你需要对你的分析保持常规的标签。如果您使用谷歌分析,请确保您不会丢失大量的有机流量随着时间的推移。

  现在,做一些有竞争力的分析,看看你的网站的知名度如何与类似的平台相媲美。QuxCube是一个很好的工具来衡量你的观众和整体的独特性对竞争对手

  你也可以通过使用MZRead等度量指标来衡量你从其他网站接收到的反向链接的网站流行度。

  谷歌的座右铭曾经是“不要作恶”。考虑到这一点,你可以想象在确定排名时有多大的可信度。当审查链接到你的网站时,寻找不可信的行为,比如垃圾邮件或恶意软件。识别这些东西时需要寻找的一些红色标志是:

  关键字填充-内容内关键字的非自然数量。

  伪装——向搜索引擎和用户展示网站的不同版本。

  隐藏文本-向搜索引擎呈现用户不可见的内容。

  如果你从一个网站得到链接,上面的任何一个问题,使用谷歌搜索控制台来拒绝那些入站链接

  最后,当然也不是最不重要的,社会参与被一些人认为在排名中扮演间接的角色。搜索引擎优化正变得越来越社会化的一天。每个平台都有自己的社会货币形式(喜欢、转发、股票等等)。当你在评估社会交往时,你会注意到你积累了这些形式的货币。记住,全世界有超过20亿个社交媒体用户。这种趋势在任何时候都不会发生。因此,建立一个社会存在不再是一个品牌的选择。

  总结:搜索引擎臭名昭著的改变和更新算法几乎没有警告。因此,你必须跟上潮流。就我个人而言,我养成了在早上30分钟左右赶上最新的SEO新闻的习惯。在这种不断变化的环境中保持领先是避免错误和获取有价值的建议的最好方法之一。


相关新闻
  • 超低建站费用

  • 具备营销能力

  • 强大SEO功能

  • 贴心售后技术支持

cache
Processed in 0.120723 Second.