wap蓝天建站_自己设计建房子的软件_深圳公司注册在哪里办理_织梦模板网站 参考文献">

西安市建设工程交易信息网

小工程施工合同协议书、tv电视盒子企业网站模板、永久使用、不限域名、中国已封城市名单

小红书推广收费标准?

wap蓝天建站_自己设计建房子的软件_深圳公司注册在哪里办理_织梦模板网站

确定SEO目标,定义网站受众

设定SEO目标

简单来说就是营销网站,结果可能不会立即显现,但是SEO会在耐心和明智的投入后给企业带来不菲的回报。
1、能见度(品牌)
提高与网站相关的通用搜索词排名,消费者认为,搜索引擎中排名高的就是一个商业认证标签,并且是本领域最好的公司。
2、网站流量
需要确保网站获得高质量的目标流量,他的任务是把对企业不感兴趣的或者没听说过这个企业的人群带到网站,使其成为潜在的客户。
3、投资回报率
SEO最大的好处是可以极大提高网站投资回报率!

开发前定制SEO方案

影响SEO方案的商业因素
1、营收/商业模式
网站的目的是什么?卖产品卖广告还是引导?
2、目标消费者
3、竞争对手策略
4、品牌目标
5、内容开发预算
6、潜在消费者怎样搜索产品

理解受众,寻找利基

描绘产品和服务
SEO的一个重要过程是理解谁在搜索你所推广的东西,这要求你对自身产品或服务的方方面面有深入的理解。

内容为王
一个在内容开发方面么有预算的内容发布商,在定制SEO方案的时候就没有什么可以选择。因此,定制SEO方案重要步骤之一就是将网站的SEO和商业目标与增加新内容的可用预算联系起来,将各种机会按优先次序列表,估算潜在投资回报率。

细分网站受众
不同性别,年龄的用户搜索时使用的关键词有显著的差别。

高级计划评估方法

SWOT分析

SMART目标

SEO的准备阶段

方案主要元素

1、技术选择
SEO影响技术选择
2、市场细分
它会告诉你整体竞争环境如何,以此选择竞争度较低,又能带来很多高质量访问的词进行SEO
3、找到好的链接
搜索引擎算法高度依赖于链接权重计算,找到好的链接,鼓励其他高质量的网址链接过来。总比几千个来自随机博客帖子或论坛的有用的多。
4、内容资源
任何SEO活动的开始,都应该审查一下当前网站的内容以及创新内容所能运用的资源,然后再计划匹配目标关键词和链接建设。
5、品牌考虑
6、竞争
了解对手在做什么,根据优势劣势来设计SEO策略

确认网站开发过程和参与者

成功的SEO需要整个团队的努力,小公司里,这些角色可能都要你自己担当,持续的反馈非常重要。

定义网站信息框架

技术决策
1、动态URL
2、URL中的SessionID和用户ID
对搜索引擎不太友好
3、URL中多余的符号
4、基于JS,FLASH的链接或内容
搜索引擎表示看不到,最好是简单的html
5、登陆框后面的内容,下拉菜单
这是不让搜索引擎看见的好办法。除非你想隐藏内容。
6、302转向
要转,请用301

结构决策
确定内部链接和导航结构。对搜索引擎来说,导航结构帮助蜘蛛确定哪些页面是网站上最重要的,也帮助其确定网站上页面与特定主题的相关性。
1、目标关键词

类似京东导航,关键词结构
2、相关内容交叉连接
将内容相关的文章互相链接起来,帮助搜索引擎确认页面与特定主体有多相关。
3、使用锚文字
内部链接金矿!避免使用“查看更多”、“点击这里”。
4、使用地图导航链

6、减少链接深度
点的越多,约不重要。

审计已有网站,发现SEO问题

要审计的元素
1、易用性
2、可访问下/可爬行行
3、健康检查
看看搜索引擎有没有收录
4、关键词检查
5、复制内容检查
确保不带3W的域名301跳转到3W的域名,确保没有复制内容。
6、URL检查
确保使用清晰、简短、描述下的URL
7、标题标签检查
标题最前面放关键词对排名有好处,还要确保少于70个字母
8、内容检查
网站主要页面内容足够吗,确保网站上没有内容的页面占有比例不高。
9、meta标签检查
确保每个页面有独特的meta说明标签,如果不可能做到,那么久考虑删除说明标签。
10、sitemaps文件和roobots.txt确认
蜘蛛要访问的哦
11、转向检查
一定要301!!!
12、内部链接检查
确保网站充分利用内部锚文字,可以借此告诉用户和搜索引擎你的页面是关于说明内容的
13、避免不必要的子域名
子域名可能处于不同的人控制下,搜索引擎认为他们需要被分开评估。
14、地理定位
如果域名定位特定地理位置,那么最好所有页面都有你的地址。
15、外部链接
检查网站导入链接,用反向链接工具,收集链接数据。
16、代码质量
符合W3C规范当然最好,可以用SEO Browser,查看一下搜索引擎看到的页面是什么样的

服务器和主机问题
1、服务器超时
2、反应时间慢
3、共享IP地址
4、屏蔽IP地址
5、蜘蛛检测和处理
6、带宽和传输限制
7、服务器地理位置

确认目前服务器分析软件并获得权限

1、网站分析
例如百度统计
2、日志文件跟踪
3、百度站长平台

确认竞争对手

1、寻找最好的对手
2、发现他们的秘密
然后模仿他们,超越他们!

评估历史进展

1、维护网站改动时间表
强烈建议保存网站修改日志,否则容易盲目优化。
2、可能影响SEO的网站改动类型
比如,根据日志显示,上周改动了导航类型,这周流量增加了很多,这就可能是影响SEO的改动。
3、以前的SEO工作
自动以前干了什么,才好计划下一步的工作

当前索引状态基准、排名基准、流量基准

site:yourdomain.com
检查网站是否被充分索引,如果没有,这就是出问题的信号。
见百度站长平台

充分运用商业资产到SEO中

公司在网站之外还有很多有价值的资产,好好利用改善SEO
1、其他域名
能否做301,是否把他们链接起来?
2、线上线下合作
3、从未发布过的内容
对SEO很有价值,搜索引擎对新东西很感兴趣
4、正面的用户体验
让用户推广!
5、粉丝

关键词研究

关键词研究是搜索引擎营销领域最重要、最有价值、最高回报的活动之一
1、理解搜索需求曲线
他强调了长尾搜索内容的重要性,对于捕获用户在搜索引擎上输入的更广泛类型查询的信息页面很重要

传统方法:行业专长,网站内容分析

头脑风暴,找出重要关键词
看看对手怎么做的,将点子拿来用

研究工具

各大搜索引擎
数据来自哪里,用途,费用等等都可以分析到。

确定关键词价值/潜在ROI

1、估算价值、相关性、转化率
2、AB测试登录优化

充分利用关键词需求长尾

1、可以从相关页面提取
找到那些搜索量很低,但是有一定关联程度的词
2、挖掘关键词研究工具

总之就是研究怎么让长词与网站相关联

开发一个SEO友好的网站

1、确保网站要可以被搜索引擎访问
2、可爬行的链接结构
页面A可以到达BC,但是到不了DE也是不好的。
3、不要有前文说的各种非html内容。
4、XML网站地图

创建最佳信息架构

符合逻辑,以分类为基础的信息流动
类比:
文件柜—》域名
抽屉——》网站主分类
文件夹—》次级分类
卷宗——》三级分类
文件——》页面
要求:
1、到达任意页面的点击次数越少越好
2、每个页面有100个以内的链接
3、从首页到细节页面有逻辑的,语意意义的链接流动。

优化域名和URL

域名
1、头脑风暴5个最重要关键词,找到一个号的匹配
2、用独特域名,永远不要选择已有域名的变化形式
3、只选择.COM
4、容易输入、容易记忆
5、名字尽量短
6、容易联想
当其他人听到域名的时候,应该立即准确猜到网站上的内容
7、避免侵权
8、突出品牌
9、拒绝连接符和数字
10、不要乱跟随潮流
URL
1、描述内容
2、保持简短
3、静态化
4、描述优先于数字
5、关键词包含
6、减少目录层次
7、多个词组的URL以链接字符分隔
8、遵循常规,不要某个链接搞特殊
9、不要区分大小写
10、不要添加不相关的数据

优化关键词

关键词堆积太多会被惩罚哟!
标题标签

1、把关键词放在标题标签最前面
2、最长65个字符
根据搜索引擎不同,也不同
3、包含关键词组
4、瞄准相关的长词组
在保持准确和描述性的同时,使用尽量多的与页面相关的词
5、使用分隔符
例如|、>、-、:等,随意哪个都行
6、针对用户意图
如果你非常确定意图是购买,那么可以明确这个功能可以在你网站上完成

7、保持一致

描述标签


准确简介描述页面内容,搜索结果页面上用户可以点击的小广告,显示目标关键词。
1、说实话
2、保持简洁
3、写出广告水平的文案
4、测试、完善、过滤、重复
5、分析心里
6、包含相关关键词
7、不一定全部使用说明

H标签
实际上H标签并不是SEO权重的因素,但是,H标签包含搜索结果关键词,有助于表面用户来到了包含他想找的内容的正确页面。

页面文字
文件中关键词的使用对主流搜索引擎是很小的因素,但是还是有必要突出以下关键词密度和饱和度。

**图片文件名和ALT属性

在图片搜索中获得排名尤为重要,不要刻意强调与图片无关的关键词。

避免关键字内部竞争
A,B两个页面,使用同样的关键字,到底你想优化谁?

SEO文案写作
1、内容质量和用户体验是首要
2、确保正确关键词在整篇内容恰当使用

长尾关键词优化

优化内容

主要是优化表现形式和结构。正确的内容不会直接提升排名,但是会带来更多链接和点击,最终使搜索排名获益。
1、内容结构,包括长度字数,视觉布局
2、内容独特性和深度
搜索引擎无可争议的赋予坚实、独特、有附加值的内容高权重。如果页面有高质量大量外部链接,或者极大权威网站,那么可以无视。
3、不要随意复制转发别人的内容

复制内容问题

复制内容后果
1、被收录页面减少
2、浪费链接权重
3、指不定显示的是哪个版本
4、被起诉侵权

如何避免复制内容
1、使用cononical标签
2、使用robots.txt阻止爬行
3、使用robots noindex标签告诉蜘蛛不要索引
4、所有指向复制页面的链接使用NoFollow,防止任何链接权重流向这些页面

  1. 1、将"nofollow"写在网页上的meta标签上,用来告诉搜索引擎不要抓取网页上的所有外部和包括内部链接。
  2. <meta name="robots” content="nofollow/>
  3. 2、将"nofollow"放在超链接中,告诉搜索引擎不要抓取特定的链接。
  4. <a rel="external nofollow" href="url"><span>内容</span></a>
  5. content部分有四个命令:indexnoindexfollownofollow,命令间以英文的“,”分隔。
  6. INDEX命令:告诉搜索引擎抓取这个页面
  7. FOLLOW命令:告诉搜索引擎可以从这个页面上找到链接,然后继续访问抓取下去。
  8. NOINDEX命令:告诉搜索引擎不允许抓取这个页面
  9. NOFOLLOW命令:告诉搜索引擎不允许从此页找到链接、拒绝其继续访问。
  10. 根据以上的命令,我们就有了一下的四种组合
  11. <META NAME="ROBOTS" CONTENT="INDEX,FOLLOW">:可以抓取本页,而且可以顺着本页继续索引别的链接
  12. <META NAME="ROBOTS" CONTENT="NOINDEX,FOLLOW">:不许抓取本页,但是可以顺着本页抓取索引别的链接
  13. <META NAME="ROBOTS" CONTENT="INDEX,NOFOLLOW">:可以抓取本页,但是不许顺着本页抓取索引别的链接
  14. <META NAME="ROBOTS" CONTENT="NOINDEX,NOFOLLOW">:不许抓取本页,也不许顺着本页抓取索引别的链接。

控制内容

Robots.txt

什么是robots文件
robots是站点与spider沟通的重要渠道,站点通过robots文件声明该网站中不想被搜索引擎收录的部分或者指定搜索引擎只收录特定的部分。请注意,仅当您的网站包含不希望被搜索引擎收录的内容时,才需要使用robots.txt文件。如果您希望搜索引擎收录网站上所有内容,请勿建立robots.txt文件。为了避免站长在设置robots文件时出现,百度站长平台特别推出了robots工具,帮助站长正确设置robots。

robots.txt文件的格式
robots文件往往放置于根目录下,包含一条或更多的记录,这些记录通过空行分开(以CR,CR/NL, or NL作为结束符),每一条记录的格式如下所示:
“:”

在该文件中可以使用#进行注解,具体使用方法和UNIX中的惯例一样。该文件中的记录通常以一行或多行User-agent开始,后面加上若干Disallow和Allow行,详细情况如下:
User-agent:该项的值用于描述搜索引擎robot的名字。在”robots.txt”文件中,如果有多条User-agent记录说明有多个robot会受到”robots.txt”的限制,对该文件来说,至少要有一条User-agent记录。如果该项的值设为,则对任何robot均有效,在”robots.txt”文件中,”User-agent:“这样的记录只能有一条。如果在”robots.txt”文件中,加入”User-agent:SomeBot”和若干Disallow、Allow行,那么名为”SomeBot”只受到”User-agent:SomeBot”后面的 Disallow和Allow行的限制。

    **Disallow:**该项的值用于描述不希望被访问的一组URL,这个值可以是一条完整的路径,也可以是路径的非空前缀,以Disallow项的值开头的URL不会被 robot访问。例如"Disallow:/help"禁止robot访问/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"则允许robot访问/help.html、/helpabc.html,不能访问/help/index.html。"Disallow:"说明允许robot访问该网站的所有url,在"/robots.txt"文件中,至少要有一条Disallow记录。如果"/robots.txt"不存在或者为空文件,则对于所有的搜索引擎robot,该网站都是开放的。**Allow:**该项的值用于描述希望被访问的一组URL,与Disallow项相似,这个值可以是一条完整的路径,也可以是路径的前缀,以Allow项的值开头的URL 是允许robot访问的。例如"Allow:/hibaidu"允许robot访问/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一个网站的所有URL默认是Allow的,所以Allow通常与Disallow搭配使用,实现允许访问一部分网页同时禁止访问其它所有URL的功能。使用"*"and"$":Baiduspider支持使用通配符"*"和"$"来模糊匹配url。"*" 匹配0或多个任意字符"$" 匹配行结束符。
				   百度sem代运营室内设计学院营销型网站设计模板黑龙江今天的新消息adobe illustrator多少钱要交个人所得税最有创意的广告语30条游戏ui界面设计如何网上找加工订单西安中风险地区制作网页链接的软件国际新闻热点事件北滘建网站商务信息网如何对一个网站进行seo互联网装修公司加盟高端品牌包包排行榜前十名做网站 合肥中国电子工程师网海外服务器官网怎么开一家客服外包公司在线页面设计工具肇庆自助网站建设系统外贸平台运营网络系统架构图搜索关键词网站app开发公司官网安装师傅最好的接单平台平面ui设计是什么小程序开发模板源码个人作品网页设计
                
                

猜你喜欢

  • 友情链接:
  • 海南新闻网 国家企业信息公示网官网(中国) 千家美家装体验馆 html响应式网页设计代码范文 良品铺子网络营销策划书 html教程菜鸟教程语法