了解CMS(内容管理系统)

相关主题
  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

CMS:Content Management System:内容管理系统
基于模板 加快网站开发的速度 减少开发的成本
不只限于文本处理
可以处理图片、Flash动画、声像流、图像甚至电子邮件档案
博客程序,新闻发布程序,综合性的网站管理程序...从商业门户网站的新闻系统到个人的Weblog都可以称作发布系统
着重于分离开发中的关注点,为整个系统各功能单元解耦合

○ 重视 后台管理 的CMS
○ 重视 风格设计 的CMS
○ 重视 前台发布 的CMS

对于各种网络编程语言并不是很熟悉的用户用一种比较简单的方式来管理自己的网站,构建出一个风格统一功能强大的专业网站。

基本思想:分离内容的管理和设计
页面设计存储在模板里,内容存储在数据库或独立的文件中
当一个用户请求页面时,各部分联合生成一个标准的 HTML 页面。
文档模板 脚本语言或标记语言 与数据库集成
内容的包含物由内嵌入页面的特殊标记控制

对站点管理和创造编辑都有好处:
能够使用模板和通用的设计元素以确保整个网站的协调
管理员只需修改模板

允许对网站的不同层面人员赋予不同等级的访问权限
用户不必研究操作系统级的权限设置

搜索引擎、日历、Web 邮件等也会内置或允许以第三方插件的形式集成进来
=================================================
搜索机器人
===========================================

十二个月内 仅仅依靠Google打造成功网站

相信不少站长都听说过站长世界(也有的是翻为网管世界)这个论坛。这是世界上最着名的站长们聚集的地方,谈论各种与网站有关的话题,包括搜索引擎优化,网络营销,网站建设的技术问题,电子商务等等。

站长世界的创始人Brett Tabke,是搜索引擎优化领域里教皇级的人物。据说他以前是经常使用和实验各种作弊手段的人物,当然他现在已经改邪归正了,至少表面上看起来如此。

近些年,他在站长世界里的帖子并不是很多,而且都非常简短。但无论他帖什么,往往都被追捧。因为他所管理的网站涉及面之宽,他本人所亲身认识的各个搜索引擎和各大电子商务公司的高层人物之多,以及他在网络世界里的权威地位之高,使他的话不得不被重视。

他有一篇非常着名的关于Google排名优化的文章,标题是”十二个月内,仅仅依靠Google打造成功网站“。

这篇文章写于2002年2月3号,到目前为止,这篇文章还是被奉为Google排名优化的圣经。所有资深的搜索引擎专家无不对这篇文章推崇倍至,而且 Brett Tabke也多次骄傲的声明,就算过了四年时间,历尽了多次Google更新和Google算法的改变,他的这篇Google排名优化文章还是没什么好改

动的。

我简单的搜索了一下有没有中文译本,竟然没有找到。当然也可能有人翻译了,而我没有找到。不过,这篇文章太重要了,所有对搜索引擎排名感兴趣的人不得不读。所以我在这里把要点翻译出来供大家参考。

以下是文章翻译:

让我们跳过理论来看看实际对Google有效的方法。我知道下面的这个系统对Google来说,每一次都有效,而且对所有的关键词都有效。这个系统是我给客户做网站时所应用的,而且百试不爽。成功的程度当然也取决于网站所在的行业,潜在市场和竞争水平。下面的要点可以让你仅仅依靠Google,在一年的时间里,打造一个成功的网站。

a)准备工作和建立内容。

在你注册域名之前,你就应该记录下你的想法,应该准备足够100个网页的内容。请注意是至少。这100个网页应该是真正的内容,而不是链接页,关于我们页,联系我们或者版权声明等等杂七杂八的网页。

b)域名。

你应该选择一个很容易建立品牌的域名,你要的是,而不是关键词.com。充斥关键词的域名应该被丢弃,易于建立品牌的和容易辩识的域名才是最好的。

域名当中所包含的关键词作用现在非常之小。为什么改名为,那次改名是我所见过的,最大胆的策略之一。这个改名的策略摧毁了几年时间所建立的品牌。

c)网站设计越简单越好。

一个指标是文字内容的比重应该大于HTML格式的比重。整个网页应该规范化,应该在所有的浏览器上显示正常。比如使它符合HTML3.2标准。搜索引擎蜘蛛还并不太喜欢HTML4.0标准。

应该远离那些太重的因素:flash, dom, java script等。如果你必须要使用这些脚本的话,把他们作为外部文件来使用。在我看来,根本没有必要使用这些东西。这些东西几乎不能给一个网站增色,却会极大的从各个方面伤害网站的表现(搜索引擎友好问题只是其中之一)。

用逻辑的方式安排你的网站,可以在目录名当中使用关键词。你也可以采用另外一种方法,也就是把所有的网页都放在根目录当中(这种方法很少见,但是事实证明是非常好的有效的方法)。

不要让你的网站堆砌一大堆没用的东西,比如说建议使用什么什么浏览器,或者计数器等等,使它保持最简单化,看起来专业化。向Google自己学习,看看他的主页,简单的没法再简单了。这也正是人们所需要的。

速度不是最重要的因素之一,而是唯一的重要因素。你的网页应该非常快速,如果你的网页会延时3,4秒钟,你就完蛋了。当然如果你的主机和访客在不同的国家, 3,4秒钟还有情可原,对当地的访客来说,3到4秒钟的下载时间已

经是极限了。超过这个时间,每多一秒钟,你就会丧失10%的流量。而这10%的流量可能正是成功与失败的分野。

d)网页大小

越小越好,最好保持在15K以下。越小越好,最好保持在12K以下。越小越好,你最好保持在10K以下。你明白了我的意思了吧。比5K大,小于10K,这是最好的。很难做到,但是却是最有效的。对搜索引擎也有效,对访客也有效。

e)内容

每天建一页两百到五百字的网页。如果你不知道该写些什么的话,做点关键词调查,然后根据你所得到的热门关键词写文章。

f)密度,位置等等

简单老式的SEO,在这些地方用一次你的关键词:网页标题,说明标签,正文标题,网址URL,黑体,斜体,网页的最开始。关键词密度介于5%到 20%之间(也别太在意)。写出好的文章,并且检查错字。拼写检查(对中文来说,检查错字)正在变得越来越重要。因为搜索引擎已经开始运用自动纠错功能,所以已经没有可以写错别字的借口了。

g)导出链接

在每一个网页连向一到两个排名高的网站,在链接文字当中加上关键词(这一点对未来来说很重要)。

h)网站内的交叉链接

指的是同一个网站内的链接。在你的网站之内,高质量的内容之间互相链接起来。如果一个网页是关于食物的,那么你应该确保这页连向关于苹果的和蔬菜的那些页。尤其对Google来说,基于共同内容的相互链接对在你的网站之内分享PR是非常重要的。

你要的不是使其他网页黯然失色的一个全明星网页,你需要的是50个每天吸引一个访客的网页,而不是一个每天吸引50个访客的网页。如果你发现你的网站里面有一页,确实是吸引大部分流量的页,那么你就应该把这一页的PR值通过交叉链接,分散到其他网页上。这有一点像老话说的分享财富。

i)开通网站

最好不要使用虚拟主机。最好使用你自己的单独的IP地址。确保你的网站可以被搜索引擎蜘蛛所索引。所有的网页都应该连向你网站里其他的网页。所有的网页距离主页都不应该超过两次点击。所有内容页也都应该链接回主页。一个在所有页上都存在的菜单系统,应该链接到你的网站上的主要部分。

在你完成一个高质量的网站之前,不要把它开通。开通一个不好的网站,比不开通网站更糟糕,你要的是从一开始就是一个优秀的网站。

申请登录开放目录,如果你有预算的话,也申请提交到雅虎和其他付费目录。如果没有预算的话,可以试试雅虎的免费提交,但是不要抱太大希望。

j)网站提交

把主页提交到Google等搜索引擎,然后接下来六个月就忘了这件事。没错,提交,然后忘了它。

k)记

录和跟踪

使用一个高质量的能够记录访客来源的日志分析软件。如果你的主机提供商不提供访客来源,你就应该使用另外一家主机提供商。

l)观察蜘蛛

观察来自搜索引擎的蜘蛛们,确保蜘蛛在爬行你的整个网站。如果不是的话,你应该检查你的所有链接系统,确保蜘蛛能发现你整个的网站。如果搜索引擎需要两次才能检索完你的网站,你也不要害怕。对很多搜索引擎来说,可能需要六个月才能发现和爬行你的网站。

m)主题性的分类目录

几乎每一个行业都它自己的权威分类目录,去提交到这些分类目录当中。

n)链接

到 Google版本的开放目录查看一下你的网站所在的行业,找到那些可以免费交换链接的网站,要求和这些网站交换链接。在主题性的网页上选择一段内容做为链出的文字。如果那些网站的站长不愿意和你交换链接,也没什么,继续下一个。每一天与一个新的网站交换链接,一个很简短的个人化的邮件就足够了。如果某个网站不愿意链接向你,别把它当回事-实际上早晚有一天他们会的。

o)内容

每天一页高质量的有内容的网页。有实效性的有主题的文章永远是最好的。避免太多博客型的个人化的东西,应该写更多文章类型的普通观众愿意看的内容。

提高你的写作技巧,学习适合网上人群的写作方式,多分段,短句子,读起来快的内容。大部分的网站访客不是读,而是浏览。这也就是为什么短的文章很重要。如果你看到一大篇不分段的文章,很多人马上就会按返回按纽了。

人们不会浪费15秒的时间,来了解你的花里唬哨的菜单系统是怎么工作的。某一个大公司的网站放上一个flash菜单系统,并不意味着你也必须这么做。

使用标题,使用黑体来强调重点,并且也是逻辑分割。

p)秘密武器

离所谓的秘密武器,或者今天有用明天就没用的东西远一点。不要用任何看起来像垃圾的东西,任何不道德的,或任何接近于作弊手段的东西。

q)导出链接

当你收到交换链接请求的时候,要仔细查看对方的网站,不要轻易就链接回去。通过Google查看他们的网站,并看他们的PR值。不要链接到有问题的网站和质量不高的网站。确保对方网站和你的类似,是同一个行业的。

r)丰富你的网站

可以用一些内容丰富你的网站。比如说推荐网页给你的朋友,论坛,邮件列表,电子杂志等等。去看一下你本行业的论坛,读的越多越好,直到你读不下去了。

s)注意小册子类型的网站

如果你运行的是电子商务网站,或者你有一个真正的店面,想把生意扩充到英特网上,要注意不要把你的网站做成一个宣传手册

。想想人们需要什么,访客不是来你的网站看你的内容,他们是来你的网站寻找他们自己所需要的内容。在你的文章当中,尽量少谈你自己和你的产品(我知道你在怀疑,你自己好好想想)。

t)每天增加一个网页

回到关键词研究,找出好的点子,写新的网页。

u)研究日志文件

过了30到60天之后,你应该开始从已经被登录的地方得到一些访客。仔细看一下,人们是用什么关键词搜索找到你的网站的?是不是有一些很莫名奇妙的关键词组合?为什么人们会用这些关键词找到你的网站呢?有没有什么东西是你所忽视了的呢?很有可能你应该以这些为主题,创建更多的网页。

仔细研究你的网站和日志,给搜索引擎需要的网页。搜索引擎会准确的告诉你,他们想要什么。你要仔细的看,在你的网站日志当中有一座有待开发的金矿。

v)实效性的话题

在你的行业当中,永远走在别人前面。比如说如果一个大公司Z,在年底要推出产品A,那你可以在十月份之前就做好一个网页,是关于产品A的。那么在十二月份之前,搜索引擎就已经收录了这个网页。

w)朋友和家人

社交联系网络对一个网站的成功也非常关键,这也是你看那些论坛的时间要得到回报的时候了。仅仅是看永远是没什么用的,论坛的价值就在于和其他的同事及网友交流。通过交流,你可以得到长远的利益,而不是仅仅读论坛。这种交际网络也会通过其他方面得到回馈。比如说导入链接小窍门,电子邮件交换意见,成为这个行业的专家的可能性等等。

x)记录

如果你每天增加一个网页的话,你会发现有的时候,一个好主意突然就出现了,没准你正在洗澡(先擦干了),正在驾车(先把车靠在路边)或者也许就在桌子上趴着。当一个好的点子出现的时候,把它记下来。不然十分钟以后,你就会忘了你刚想起来的主意。

要把它先记下来,然后再把细节写出来。当你没什么好点子的时候,把这些记录拿出来。这听起来很简单,但是却是一个屡试不爽的好主意。

y)六个月的时候,检查提交的网站

看一下你所提交过网站的地方,是不是收录了你的网站。如果还没有的话,就再提交一次,然后再一次忘记。试一下那些免费的分类目录。

z)每天建增加一页高质量的网页

这一点已经重复好几次了,Google喜欢内容,大量的高质量的内容。以一系列关键词为基础的广泛的内容。在经过一年以后,你应该已经有了400页左右高质量的内容。这些内容应该使你的网站在很广泛的关键词里面得到好的排名。

做这26件事,我担保你一年以后,你会有一个成功的网站。它将能

从搜索引擎中得到每天五百到两千个访客。
====================================
搜索引擎蜘蛛爬行统计分析程序开发总结


一、搜索引擎蜘蛛爬行统计分析的必要性:

蜘蛛顺利爬行网页是网页被搜索引擎收录的前提条件,搜索引擎是否已爬行了网站,爬行了哪些页面以及返回哪些信息给蜘蛛,掌握了这些情况我们才能对网站进行有针对性的优化改良,因此查看蜘蛛爬行日志是一件非常重要但却非常痛苦的工作,尤其是SEOER及新站站长来说。比如从网上看到蜘蛛爬行某个页面后如果返回200 0 64 ,则表示此网页极有可能要被搜索引擎删除,HEAD 请求返回404也表示要删除网页,如果我们能根据日志及时发现此现象就能根据实际情况及时做出调整。又如,蜘蛛爬行返回的301,302重定向及404错误等信息,也是网站管理员需要关心的问题。因此可以看出分析蜘蛛爬行日志的必要性。

二、蜘蛛爬行统计的方法:

由于蜘蛛机器人在网站爬行时是不会爬行JS(多次爬行只执行0次或者一次),flash,img等标签的,因此,目前第三方统计软件 (如阿江、中国站长站、雅虎、google等统计系统)还无法统计到蜘蛛爬行记录。因此目前分析蜘蛛爬行主要通过以下方法: 1、利用PHP,ASP根据浏览器返回的USER_AGENT来动态进行跟踪记录,这样的确可以实现目的,但其缺点很明显:

a)加重服务器负担,对于内容多及权重高的网站,蜘蛛抓取是非常频繁的。在网页中插入的代码会额外加重服务器的负担。

b)由于搜索引擎相对来说比较喜欢静态页面,很多网站都利用CMS把内容生成静态文件,这样就无法统计了。湖南某seo公司介绍使用img标签或者script方式,即在静态文件中将统计脚本利用img或者script标签调用的方式,此方法经过我一个月的试验,无法实现,蜘蛛不抓取页面。

2、利用第三方日志分析工具:如linux下awstats及windows下的Webalizer,其缺点也很明显。比如如果您是虚拟主机用户的话,由于每天产生的日志非常多,每次分析时下载日志文件是一件非常痛苦的事。同时这些软件太专业了,不适合一般站长使用。

3、如果您有更好的蜘蛛爬行分析方法请您和广大站长一起分享。

三、专门针对搜索引擎蜘蛛爬行统计的日志分析工具开发总结:

1、 我们分析日志中需要关心蜘蛛爬行相关资料:

a)蜘蛛爬行日期:根据此来查找蜘蛛爬行的规律。

b)蜘蛛IP地址:不同来源的IP地址的蜘蛛的作用是不同,可以结合爬行日期及下面要讲到的请求方式HEAD,GET来进行更详细的规律总结。

c)请求方式:主要有HEAD和GE

T方式,其作用是不同的。HEAD方式一般是上次蜘蛛来访问时发生一次或多次404错误,因此蜘蛛发送HEAD请求确认此网页是否存在,一旦发送此请求如果返回依然是404的话,那么您的网页就要被搜索引擎从数据库中删除了。GET方式大家都很明白就不说明了。

d)爬行页面:蜘蛛爬行了哪些页面。

e)状态码:服务器给蜘蛛返回的状态码,我们一般关心的是200,301,304,302,404,尤其是404及301,302。404表示死链,极大影响网站优化,301,302目前还是不能被搜索引擎友好识别,有作弊的嫌疑。

f)流量:在落伍上看到很多个人站长反应自己的服务器被蜘蛛拖跨,虽然这种说法有点夸张,但对服务器产生的压力绝对不容忽视,尤其是某些太疯狂的蜘蛛,每天产生很大的流量,因此我们需要统计出这些蜘蛛的相关信息,对我们不关系的搜索引擎蜘蛛可以在robots.txt中进行限制,以节约我们宝贵的服务器资源。

综合以上考虑,使用WEB语言开发一套一个使用简单,但功能专业的蜘蛛爬行统计程序放在自己的WEB空间上。这样可以随时随地检查蜘蛛爬行日志是非常必须的,并且可以避免下载日志的痛苦(当然,如果您使用的是独立服务器的话且你能熟练使用那些专业的日志分析工具就不提了),如果能实现以上功能的同时我们在结合一些第三方的统计工具,那么我们小站长就完全可以撇开那些专业的日志分析软件。

2、开发语言的选择:由于这套分析程序是放在WEB服务器上的,因此考虑移植性是非常重要的,在WEB语言中,主要有JSP,php,asp,语言,JSP一般服务器是不支持的,ASP及.net在LINUX平台下不支持,唯一可以选择的是PHP语言。一般的windows及linux主机都会支持。其可移植性比较好。

3、程序扩展性:毕竟一个人的能力无法满足大家不同的需求,因此程序在设计时将数据分析和表现进行隔离,我们将蜘蛛数据分析模块独立出一个只有7行代码的文件,可以方便的根据服务器日志的格式重写,因此您如果更换空间或者日志格式发生变化,您只需要根据我们提供的接口标准对分析模块重写即可,这并不需要多么高的程序开发水平。而不需要动其他任何文件,或者您将您的日志样本提供给我们,我们为您重写.程序还可以自定义统计蜘蛛类型,这样可以提高分析速度,远程分析日志等。

4、难点及局限性:在开发过程中遇到一个非常重要的问题,就是分析速度,WEB日志动辙几十上百兆甚至G级,因此对于使用PHP语言来分析,既要考虑服务器承受能力,又要考虑分析速度,否则很容易导致超时现象,因此一套高效的算法是非常重要的,同

时由于一般的日志记录条数都很多,我们放弃使用数据库,因为几十万条数据的插入及百万级的数据查询是相当痛苦的事情,对服务器的压力太大,会把你的服务器瞬时CPU达到峰值,而且这些数据并不需要长期保存,毕竟要考虑大多数的虚拟主机站长.同时为了满足部分站长的需求,程序将分析出来的蜘蛛日志按一定的格式写入文本文件,您可以自己用任何一种语言编写一段简单的读文件,插入数据库的代码将日志长期保存。通过不同的算法比较,目前找到的最好的算法分析速度如下:

本地分析: P4 1.7G+512M内存+WinXp环境(笔记本):

日志:100万行,完全分析时间:10-15秒

VPS:384M内存+ Linux:

日志:100万行,完全分析时间:22-28秒

远程分析:即日志和分析系统不在同一台机器上,远程分析的速度主要取决于两个网络之间的速度。

远程环境(日志存放位置):VPS:384M内存+ Linux,10M带宽共享

本地环境(分析系统位置):P4 1.7G+512M内存+WinXp环境(笔记本),2M ADSL拨号网络

日志:15万行,完全分析时间:20-25秒

由此可见,远程分析速度只有本地分析的1/10,因此还是建议将系统上传到WEB服务器上,也可以节约您空间宝贵的流量。

以上是我在开发这套程序的总结,程序目前已完成核心的分析功能及显示功能.

相关文档
最新文档