技术SEO新手指南:避免这些(简单的)网站错误,这将扼杀你的排名(w/清单)

Share This
Mark Quadros
Share

搜索引擎优化是最好的-如果不是最好的-来源的有机流量你的业务可以得到.

In fact, around 84,898 Google searches are made every second, 为你这样的企业带来大量的机会,让他们的网站获得自然流量.

这就是为什么几乎所有企业都想解决SEO问题. 这就是为什么你会投入大量的时间 creating blog posts,做关键词研究,建立链接(或购买链接).

Unfortunately, 这为许多潜在的SEO错误打开了大门,非技术人员可能会在没有注意到的情况下掉进这些错误.

因为SEO毕竟需要一些技术知识.

但别担心,我不是来教你HTML的. Instead, we’re going to focus on 最常见的技术SEO错误的初学者和如何轻松修复他们.

所以,如果阅读这篇文章能缓解你的压力,那就继续滚动吧.

How to identify technical SEO issues

识别问题的最佳方法是进行搜索引擎优化审计. 搜索引擎优化审计允许你进入你的网站的最深处,并发现那些微小的错误,可能阻碍你的谷歌排名.

And in our new normal of remote virtual workers 花更多的时间上网,这是你不能再错过的事情.

To do this, 你可以简单地使用像Ubersuggest这样的搜索引擎优化工具, put your site URL, 并得到一个错误和警告的报告,损害您的搜索引擎优化潜力.

It should look similar to this:

screencapture-app-neilpatel-en-seo-analyzer-site-audit

SOURCE: OrbitMedia’s site audit on Ubersuggest

机会是,你有许多网站的问题,使你从排名较高, and thus, 您需要尽快解决这些问题.

自动搜索引擎优化审计是伟大的和所有. 但如果你想要更复杂的搜索引擎优化审计,仅仅使用软件是不够的. You’ll need to check things manually.

这就是为什么十三水游戏要通过最常见的SEO错误和最简单的方法来解决它们.

我希望你昨晚睡够了,你已经准备好了,因为这篇文章里有很多实用的信息,你可以马上开始使用.

现在您知道了如何识别技术SEO问题, 让十三水游戏来看看那些扼杀你排名的(简单的)SEO错误(以及如何避免它们).

Mistake #1: Your sitemap and robots.txt aren’t properly configured

Your sitemap.xml and robot.txt文件是必要的,所以谷歌可以抓取你的网站和索引你的页面.

这些文件负责告诉谷歌什么和如何抓取你的网站,并使它很容易爬行器理解其结构.

当这些文件被放错位置且没有得到良好配置时,您将遇到爬行问题. 记住,谷歌不能索引和排名您的页面,如果它不能抓取它.

为了确保你在这方面没有任何问题,首先:

1) Make sure that your robot.txt isn’t blocking your site.

The robots.TXT文件告诉爬行机器人他们可以去哪里,他们不应该去哪里.

Head over your robots.txt by going to “www.yoursite.com/robots.Txt”,并检查是否它并没有阻止爬虫看你的页面.

robots-txt-file-example

Source

如果它在" disallow: "后面显示一个" / ",就像上面的图像, 然后它会阻止你的网站被抓取,你需要删除斜杠.

如果你的网站比这稍微复杂一点, 您需要管理允许和不允许的文件夹. 确保您没有无意中阻止有价值的页面被抓取.

2) Manage your “crawl budget”

According to Google,爬行机器人对每个站点有一个“爬行速率限制”. 所以这是一个很好的实践来管理你的“爬行预算”基于“爬行速率限制”谷歌放在你的网站上.

如果你的网站有很多低质量的页面和文件夹,你不需要索引, 那么,阻止这些页面被抓取是值得的, 所以你可以优化你的网站的“爬行能力”,看到更多的排名更快.

3) Verify that your sitemap.xml is submitted

The XML sitemap 显示最有价值的页面,您的网站和帮助爬虫更好地理解其链接结构.

If your website is missing a sitemap, 这些谷歌的爬行机器人将有一个困难的时间检查你的网站, thus affecting your SEO performance.

为了确保一切都是正确的,使用谷歌搜索控制台和寻找网站地图:

sitemap-search-console

Check if:

  • 站点地图位于根目录中.
  • XML站点地图列在机器人中.txt file.
  • 最有价值的页面包含在站点地图中.
  • 站点地图结构为索引进行了优化.

As a final note. If you’re using WordPress your robots.TXT文件可能看起来像这样:

这只是意味着它阻止访问你的WordPress文件夹,并允许来自它的内容.

Mistake #2: Link structure issues

在你的网站上拥有一个健康的链接结构可以提高搜索能力和用户体验.

但是,更改页面的永久链接而忘记更新链接到该特定页面的其他页面是一个常见的错误.

这不仅会在用户的屏幕上显示一个404错误,还能防止爬行机器人发现页面.

为了防止这个问题的发生,您需要关注您的链接结构. Following these steps:

1)在你的网站中搜索内部和外部的坏链接

在你的网站中,断开链接会对你的SEO性能产生负面影响,这是肯定的.

这并不是你能100%控制的事情,因为你所链接的网站可能会在你不知情的情况下改变它的URL. Which… can give you this headache.

To avoid this, 进行审核,找出每一个断开的链接,用对用户更有价值的东西替换它们.

您可以使用谷歌搜索控制台、Yoast或类似的工具 Broken Link Check to find broken links.

broken-link-check-report

Source

从这里开始,您将能够相对快速和轻松地修复这个问题.

2)确保你的网站的抓取深度不超过三次点击

抓取深度是指从主页访问某一页面所需要的点击次数.

作为一个标准,很少页面应该超过3次点击的门槛.

这并不意味着你应该从主页链接所有内容, 因为这会损害用户体验, overall, your customer relationship.

So, 为了利用你的链接结构, take advantage of category sections, 并以一种便于用户浏览和访问大部分页面的方式组织内容.

只要确保你没有留下任何空白页.

3) Find orphan pages in your website

孤儿页面没有内部链接从任何地方.

谷歌将孤立页面视为不值得索引的内容. 所以如果你一直在发布内容而不考虑内部链接, 您可能有一些孤页需要处理.

You can use an SEO tool like Ryte to spot orphan pages. And from there, 开始添加链接来补充你的网站结构, 让它更光滑,对谷歌更有吸引力.

Mistake #3: Duplicate content

重复内容是你排名的一大风险来源.

而且理由很充分,因为谷歌需要 penalize duplicate content 以解决剽窃问题,并鼓励良好的用户体验.

它会导致你与自己竞争,并在这个过程中使谷歌感到困惑.

重复内容的常见来源包括可打印页面, Http versions of your site, author pages, 甚至两个页面共享相同的H1标签, title tags, and meta descriptions.

即使产品页面可以在不同的类别中找到, it may show two different URLs, 谷歌可以将其解释为重复的内容.

To address this issue, ask yourself:

  • url是否有参数或跟踪代码?
  • 完全不同的url是否具有相同的内容? 正如我上面说的,这经常发生在产品页面上.
  • 不同的页面是否有相同的元标签(元标题,元描述)? If so, learn to write SEO-friendly meta tags ,并使用它们来区分SERP中的内容.
  • 将内容的一部分复制到引号中,并将其输入到谷歌搜索中. 内容是否出现在您的域名(或子域名)的其他地方?
  • 你已经删除了任何重复的内容吗? 如果是这样,您可能需要向谷歌提交一个请求来删除内容.
  • 你有特定页面的可打印版本吗?

当您发现重复内容时,您可以使用这两种方法 delete old content, 将最重要的版本标记为canonical(用" rel=canonical "), or use 301 redirect to, for example, 将页面的Http版本重定向到其http版本.

Mistake #4: “Noindex” tag problem

Meta机器人标签像“Nofollow”负责告诉谷歌爬虫是否一个链接值得考虑或不.

当你不小心在你的网站上留下Nofollow标签时,它会伤害你的排名, 在这个过程中损害你网站的“可索引性”.

要解决这个问题,请使用“Noindex, Nofollow”标签识别每个页面.

然后,检查以确保你没有阻塞 any valuable content from being ranked.

If you are, remove them. 并替换默认的" all "或" index, follow ".

如果有一些页面需要Noindex命令,那么就让它们保持原样(就像类别页面一样), shopping carts, thank you pages, etc…).

However, 注意,过多地使用“无索引”会直接降低网站的整体爬网率.

错误#5:你的网站不够快

Site speed is one of the top Google’s ranking factors out there.

原因很明显. As the slower your site, 你的访问者越有可能回到SERP并点击一个更好的, 更快的页面-谷歌惩罚这一点.

所以拥有一个快速加载的网站现在是SEO的一个要求.

要保持这种状态,请遵循以下简单程序:

1) Run a page speed test

Google has its own tool to measure site speed,让您知道您的站点优化程度.

或者,您可以使用类似于 Pingdom or GTmetrix if you want extra input.

这些工具将告诉您页面最大的问题是什么, 并指导你在优化过程中抛出一个像这样的报告:

gtmetrix-reports-kevdaniel-com-CeglIh94

As illustrated in this screenshot, 它将显示你的网站的性能和因素,使它变得更快(像图像压缩和缩放在这个具体的例子).

2)分析报告并尽可能优化

接下来,你需要开始塑造你的网站,让它更快.

3秒或更少是标准加载时间. 所以检查报告,看看哪些主要因素影响你的网站加载速度和修复他们.

一些关键的实践,以保持您的负载速度优化包括:

  • Optimizing image size (among other image factors affecting SEO, especially for infographics)
  • Getting a fast WordPress theme
  • 更换加载时间过长的插件
  • 压缩JavaScript、HTML和CSS文件,以及Gzip
  • 利用缓存来提高站点的效率

A plugin like W3 Total Cache 如果您使用正确的缓存设置,可以帮助您完成至少一半的优化工作吗. 但是您应该保持跟踪站点性能的习惯,以避免混乱的情况.

错误#6:你的网站没有响应

Since 2017, 谷歌一直在考虑移动搜索, 将响应式设计作为排名因素.

这意味着你的网站需要针对手机平台进行优化. 否则,谷歌假定你的网站是低质量的.

For this, run a test 并检查你的主页是否适合移动设备. It should look like this:

search-google-test-mobile-friendly

谁能比谷歌更好地知道你的网站是否适合移动搜索引擎优化?

以下是一些你可以从报告中得到的错误:

  • 触摸元素太近,你需要重新定义布局.
  • 字体太小了,你需要回到你的CSS文件重新调整.
  • 在最坏的情况下,你没有meta viewport标签. If this is the case, 您需要在页面中包含这一行, 所以你的网站可以响应用户的设备:

你也可以用自己的手机浏览你的网站,检查是否有一些变形的元素和分辨率不佳的图片.

错误#7:太多301重定向链

301重定向链对SEO不好 每走一步,你就失去一环权益.

重定向对于消除重复内容问题和从索引中删除旧内容非常有用, 所以你会发现自己经常使用重定向.

但要注意不要产生任何链, 因为谷歌建议不要遵循多个步骤的重定向链, 他们很可能会因此降低你的目标页面的评级.

要解决这个问题,编辑你的重定向,而不是遵循这个模式:

URL 1 —-> URL 2 —> Target URL

It follows something like this:

URL 1 —-> Target URL

URL 2 —-> Target URL

You can use a software like Screaming Frog Spider SEO 找到你的重定向链,马上修复它们.

使用这个清单避免昂贵的错误

现在,让十三水游戏把所有东西都整理成一个清单.

使用这个清单,以确保你的一切都是正确的,优化你的网站:

✔️ Sitemap XML and Robots.txt properly configured. 检查这些文件,确保它们不会阻止你的网站被成功抓取.

✔️ Broken links fixed. 清理你的网站,替换掉每一个坏链接,以获得一个更好、更有价值的链接.

✔️ Optimized crawl depth. 组织你的内容类别,并尽量保持抓取深度低于3次点击

✔️ Reduced orphan pages. 找到每一个孤立的页面,如果它们是有价值的,将它们包含在你的链接结构中.

✔️ Duplicate content issues fixed. 寻找每一个有威胁的重复内容,并采取适当的措施.

✔️ No misplaced “Noindex” tags. 确保您没有不小心告诉谷歌不要索引您的一些有价值的页面.

✔️ Load speed optimized. 检查您的加载速度,并寻找进一步优化的方法.

✔️响应式、移动友好型网站. 测试和浏览你的网站,寻找改善手机用户体验的方法.

✔️ 301 redirect issues fixed. 打破尽可能多的不必要的重定向链.

技术搜索引擎优化不必是一个斗争

首先,技术搜索引擎优化可能是压倒性的.

But as you’ve seen, 如果你开始理解它怪癖背后的原因(你甚至可能开始喜欢它),它并不像看起来那么令人生畏。.

如果您在应用十三水游戏介绍的最佳实践时避免犯这些错误,您的网站将:

  • 变得容易找到和爬为谷歌
  • 获得大量谷歌将排名的可索引内容
  • 能够接触到移动用户,提高你的品牌知名度
  • 通过快速的加载速度和最佳的用户体验来降低它的反弹率
  • 随着时间的推移,提高它的有机流量(只要你保持高质量, SEO optimized content)

Truth is:

SEO is a marathon, not a sprint.

因为这只会带来长期的回报. 如果你致力于保持网站的健康, 你最终会看到所有这些忙乱背后的价值.

所以继续工作,你很快就会收获适当的SEO的积极好处.

Share This
Mark Quadros

Mark Quadros

Mark Quadros 是一个帮助SaaS品牌使用内容实施销售支持策略的数字顾问. On another note, 马克是一个优秀的网络工作者,并帮助他的客户达成了战略合作伙伴关系. 在个人方面,马克喜欢写作,并为几个权威博客撰稿 HubSpot Sales, CoSchedule, Foundr, etc. Connect with him via LinkedIn.

What are your thoughts?

By signing up you agree to our Privacy Policy.

No Comments
 
加入超过16,000人谁收到网络营销技巧每两周.

By signing up you agree to our Privacy Policy.

Share This