淘宝技术架构发展总结
淘宝技术架构分享
![淘宝技术架构分享](https://img.taocdn.com/s3/m/025babc308a1284ac8504395.png)
,HSF 使用的时候需要单独的下载一个hsf.sar 文件放置到jboss 的
;弊端也很明显:增加了环境的复杂度,需要往jboss 下扔sar
设计的主要原因。HSF 工作原理如下图:
HSF SAR 文件到Jboss 的Deploy 目录。
大型分布式的基础支撑。使开发人员无需过多的关注应用是集中式的,还是分布式的,可以更加专注于应用的业务需求的实现,这些纯技术
的需求都由HSF 来解决。
(2)HSF 的系统架构
I. HSF 交互场景图
客户端(消费端)从配置中心获取服务端地址列表—>和服务端建立连接开始远程调用—>服务端更新通过notify(类似B2B 的naplio)
系统通知客户端。服务端和客户端都有对应的监控中心,实时监控服务状态。客户端,配置中心,服务端,notify,之间的通信都是通过TB Remotion
API 去搞定的。
II. TB Remoting 架构图
底层基于分布式框架Mina,主要的代码都是通过
B2B 的Dubbo 也是基于这个NIO 框架的。Mina
商品,付款,确认,退款,评价,社区互动等。
产品:淘宝对产品定义和B2B 有差别,淘宝的业务拆分较细,服务化做的较成熟,所以前台应用对应的业务非常纯粹,如Detail 系统可
能就一个detail 页面,无数据库连接,所有数据来自底层的各种服务化中心,功能专一逻辑清晰纯粹,不过也正因为这样,淘宝的一个产品
淘宝前端应用
HSF接口
UIC IC SC TC
PC
Forest 推送给“淘宝前端应用”
淘宝共享服务
淘宝技术架构
![淘宝技术架构](https://img.taocdn.com/s3/m/68ff3e1b0740be1e640e9a12.png)
• 类⺫目目属性体系 • 分布式存储 TFS • 分布式缓存 Tair • 分布式搜索引擎
-a-1e
Fun-t2on 3 Fun-t2on 2 JBoss Fun-t2on JBoss JBoss B宝MVC JBoss B宝MVC B宝MVC Spr2ng B宝MVC Spr2ng Spr2ng Ibat2s Spr2ng Ibat2s Ibat2s OR-Mapp2ng
V3.0 核心心技术组件
业务 码 Webx 容器 HSF Notify 业务 码 容器 TDDL TDDL DB DB TDDL ConfigServer Diamond
V3.0 核心心技术组件 - HSF
HSF - 分布式服务调用用框架,软负载、容灾、协议统一一
V3.0 核心心技术组件 - NOTIFY
•
V3.0 2007.12 - 2012.1
•
应用用透明伸缩
• • • •
Session 框架 高高性能服务框架 HSF 消息系统 Notify 业务中心心和业务服务化
服 /消息
• • • •
数据透明伸缩: TDDL 稳定性:容灾 成本优化:自自动化、数据迁移到 Mysql 技术创造时期,大大批框架和底层系统
Sear-1 分布式存储
Ora-3e Ora-3e Ora-3e
Node
Node
Node 2
Node n
Ora-3e
Node 2 Read/Write …… Node Node 2
Node n Node n
V2.X 时代
CDN节点
①
主站
DNS Server(GSLB)
页面片段缓存集群 业务 逻辑 集群 易 评价 用户
淘宝网的架构演进
![淘宝网的架构演进](https://img.taocdn.com/s3/m/09d51044caaedd3383c4d37f.png)
DB DB
Messaging
JBoss MVC Spring iBatis Remoting JBoss MVC Spring iBatis
DAL
运 行 状 况 监 测 和 报 警 系 统
Node1
Node2
Noden
Read/Write …… Node1 Node2 Noden
Tolerance of network Partition
Basically Availble
Soft-state Eventual Consistency
数据库减负
数据库能做的事
–存数据 –单条查询 –多表关联查询 –大量数据实时在线分析 –通过存储过程,函数来处理业务
简化方案
WebX介绍
Apache Turbine
–Servlet-based –MVC Pattern –Velocity/JSP –Turbine Services(Upload/Security) –Pipeline/Valve WebWork Spring
页面驱动开发
约定优于配置
发展阶段
备份 隔离 集群 分割 异步 去小型机去Oracle
拆分阶段
理论依据
–虚拟化 –CAP/BASE 基础设施 –去Oracle –Notify –HSF
CAP/BASE
ACID(atomicity/consistency/isolation/durability) Consistency Availability
Notify介绍
淘宝技术发展(Java时代:创造技术-TFS)-已发布
![淘宝技术发展(Java时代:创造技术-TFS)-已发布](https://img.taocdn.com/s3/m/3d8a0df9910ef12d2af9e715.png)
淘宝技术发展(Java时代:创造技术-TFS)在讲淘宝文件系统TFS之前,先回顾一下上面几个版本。
1.0版的PHP系统运行了将近一年的时间(2003.05-2004.01);后来数据库变成Oracle之后(2004.01-2004.05,叫1.1版本吧),不到半年就把开发语言转换为Java系统了(2004.02-2005.03,叫2.0版本);进行分库、加入缓存、CDN之后我们叫它2.1版本(2004.10-2007.01)。
这中间有些时间的重合,因为很多架构的演化并没有明显的时间点,它是逐步进化而来的。
在描述2.1版本的时候我写的副标题是“坚若磐石”,这个“坚若磐石”是因为这个版本终于稳定下来了,在这个版本的系统上,淘宝网运行了两年多的时间。
这期间有很多优秀的人才加入,也开发了很多优秀的产品,例如支付宝认证系统、招财进宝项目、淘宝旅行、淘宝彩票、淘宝论坛等等。
甚至在团购网站风起云涌之前,淘宝网在2006年就推出了团购的功能,只是淘宝网最初的团购功能是买家发起的,达到卖家指定的数量之后,享受比一口价更低的价格,这个功能看起来是结合了淘宝一口价和荷兰拍的另一种交易模式,但不幸没有支撑下去。
在这些产品和功能的最底层,其实还是商品的管理和交易的管理这两大功能。
这两大功能在2.1版本里面都有很大的变化。
商品的管理起初是要求卖家选择7天到期还是14天到期,到期之后就要下架,必须重新发布才能上架,上架之后就变成了新的商品信息(ID变过了)。
另外如果这个期间内成交了,之后再有新货,必须发布一个新的商品信息。
这么做有几个原因,一是参照拍卖商品的时间设置,要在某日期前结束挂牌;二是搜索引擎不知道同样的商品哪个排前面,那就把挂牌时间长的排前面,这样就必须在某个时间把老的商品下架掉,不然它老排在前面;第三是成交信息和商品ID关联,这个商品如果多次编辑还是同一个ID的话,成交记录里面的商品信息会变来变去;还有一个不为人知的原因,我们的存储有限,不能让所有的商品老存放在主库里面。
淘宝技术框架分析报告精编版
![淘宝技术框架分析报告精编版](https://img.taocdn.com/s3/m/10fc0086c77da26925c5b070.png)
淘宝技术框架分析报告淘宝作为国内首屈一指的大型电子商务网站,每天承载近30亿PV的点击量,拥有近50PB的海量数据,那么淘宝是如何确保其网站的高可用的呢?本文将对淘宝在构建大型网站过程中所使用到的技术框架做一个总结,并结合吉林银行现有技术框架进行对比分析。
另外,本文还会针对金融互联网以及公司未来技术发展方向给出个人看法。
淘宝技术分析CDN技术及多数据中心策略国内的网络由于运营商不同(分为电信、联通、移动),造成不同运营商网络之间的互访存在性能问题。
为了解决这个问题,淘宝在全国各地建立了上百个CDN节点,当用户访问淘宝网站时,浏览器首先会访问DNS服务器,通过DNS解析域名,根据用户的IP将访问分配到不同的入口。
如果客户的IP属于电信运营商,那么就会被分配到同样是电信的CDN节点,并且保证访问的(这里主要指JS、CSS、图片等静态资源)CDN节点是离用户最近的。
这样就将巨大的访问量分散到全国各地。
另外,面对如此巨大的业务请求,任何一个单独的数据中心都是无法承受的,所以淘宝在全国各主要城市都建立了数据中心,这些数据中心不但保证了容灾,而且各个数据中心都在提供服务。
不管是CDN技术还是多个数据中心,都涉及到复杂的数据同步,淘宝很好的解决了这个问题。
吉林银行现在正在筹建两地三中心,但主要目的是为了容灾,数据中心的利用率差,而淘宝的多个数据中心利用率为100%。
LVS技术淘宝的负载均衡系统采用了LVS技术,该技术目前由淘宝的章文嵩博士负责。
该技术可以提供良好的可伸缩性、可靠性以及可管理型。
只是这种负载均衡系统的构建是在Linux操作系统上,其他操作系统不行,并且需要重新编译Linux操作系统内核,对系统内核的了解要求很高,是一种软负载均衡技术。
而吉林银行则通过F5来实现负载均衡,这是一种硬负载均衡技术。
Session框架Session对于Web应用是至关重要的,主要是用来保存用户的状态信息。
但是在集群环境下需要解决Session共享的问题。
淘宝网技术架构
![淘宝网技术架构](https://img.taocdn.com/s3/m/30cce7ceda38376baf1faeab.png)
淘宝网的开源架构淘宝网,是一个在线商品数量突破一亿,日均成交额超过两亿元人民币,注册用户接近八千万的大型电子商务网站,是亚洲最大的购物网站。
那么对于淘宝网这样大规模的一个网站,我猜想大家一定会非常关心整个网站都采用了什么样的技术、产品和架构,也会很想了解在淘宝网中是否采用了开源的软件或者是完全采用的商业软件。
那么下面我就简单的介绍一下淘宝网中应用的开源软件。
对于规模稍大的网站来说,其IT必然是一个服务器集群来提供网站服务,数据库也必然要和应用服务分开,有单独的数据库服务器。
对于像淘宝网这样规模的网站而言,就是应用也分成很多组。
那么下面,我就从应用服务器操作系统、应用服务器软件、Web Server、数据库、开发框架等几个方面来介绍一下淘宝网中开源软件的应用。
操作系统我们首先就从应用服务器的操作系统说起。
一个应用服务器,从软件的角度来说他的最底层首先是操作系统。
要先选择操作系统,然后才是操作系统基础上的应用软件。
在淘宝网,我们的应用服务器上采用的是Linux操作系统。
Linux 操作系统从1991年第一次正式被公布到现在已经走过了十七个年头,在PC Server上有广泛的应用。
硬件上我们选择PC Server而不是小型机,那么Server 的操作系统供我们选择的一般也就是Linux,FreeBSD, windows 2000 Server或者Windows Server 2003。
如果不准备采用微软的一系列产品构建应用,并且有能力维护Linux或者FreeBSD,再加上成本的考虑,那么还是应该在Linux和FreeBSD之间进行选择。
可以说,现在Linux和FreeBSD这两个系统难分伯仲,很难说哪个一定比另外一个要优秀很多、能够全面的超越对手,应该是各有所长。
那么在选择的时候有一个因素就是企业的技术人员对于哪种系统更加的熟悉,这个熟悉一方面是系统管理方面,另外一方面是对于内核的熟悉,对内核的熟悉对于性能调优和对操作系统进行定制剪裁会有很大的帮助。
淘宝技术架构介绍, 了解淘宝,了解淘宝的架构需求
![淘宝技术架构介绍, 了解淘宝,了解淘宝的架构需求](https://img.taocdn.com/s3/m/35136ce84afe04a1b071de61.png)
pipeline 页面布局
Screen Layout Control
多模板引擎
Jsp Velocity FreeMarker
V2.0 淘宝项目管理工具 AntX
类似maven 脚本编程语言 AutoConfig 依赖管理,冲突检测
V2.1 的需求
提高性能 增加开发效率 降低成本
V2.1 2004.10 – 2007.01
TBStore
Read/Write
Oracle Oracle Oracle Oracle
dump
Search
Read/Write
Node Node
1
2 ……
Node n
V2.1逻辑结构
表示层
Service
业务请求转发
Framework
S
UC
UC 业务流程处理 UC
UC
P
R
AO
AO
AO
AO
I
业务逻辑层
Node 1
Node 2
Node n
V2.1 TaobaoCDN
squid apache+php lighttpd 静态页面(包括php页面)、图片、描述 最初只有杭州和上海两个站点 现在发展到北京、广州、西安、天津、武
汉、济南等近10个站点 现在每天高峰期30G流量/秒
V2.1 session框架
Put/Get Data
Node 1
Node 2
Node n
V2.2 搜索引擎
垂直/水平 分割
AAPPPP
AAPPPP
Merge
Node1
Node2 ……
Node n
Col1
Node 1
淘宝技术架构发展总结
![淘宝技术架构发展总结](https://img.taocdn.com/s3/m/ad6bde225a8102d276a22f1b.png)
从个人网站到淘宝网仰观Java时代淘宝的技术发展(1)引言光棍节的狂欢“时间到,开抢!”坐在电脑前早已等待多时的小美一看时间已到2011年11月11日零时,便迫不及待地投身于淘宝商城一年一度的大型网购促销活动——“淘宝双11购物狂欢节”。
小美打开早已收藏好的宝贝——某品牌的雪地靴,飞快的点击购买,付款,一回头发现3000双靴子已被抢购一空。
小美跳起来,大叫一声“欧耶!”小美不知道,就在11日零点过后的这一分钟内,全国有342万人和她一起涌入淘宝商城。
当然,她更不知道,此时此刻,在淘宝杭州的一间办公室里,灯火通明,这里是“战时指挥部”,淘宝技术部的一群工程师,正在紧盯着网站的流量和交易数据。
白板上是他们刚刚下的注,赌谁能最准确地猜中流量峰值和全天的交易总额。
他们的手边放着充足的食物和各类提神的饮料。
一阵急促的电话声响起来,是前线部门询问数据的,工程师大声报着:“第1分钟,进入淘宝商城的会员有342万”。
过一会工程师主动拿起电话:“交易额超过1亿了,现在是第8分钟。
”接下来,“第21分钟,刚突破2亿”。
“第32分钟,3亿了”。
“第1个小时,4.39亿”。
这些数据随后出现在微博上,引起一片惊呼。
“完蛋了!”突然有人大喝一声,所有的眼睛都紧张的盯着他,只见他挠挠头,嘿嘿的笑道“我赌的少了,20亿轻松就能过了,我再加5亿”,他跑去白板边上把自己的赌注擦去,写上25,接下来有人写上28,有人写上30,有人跑到微博上开下盘口,同事们纷纷转载下注。
接下来的这24个小时,战时指挥部的工程师们都不能休息,他们盯着网站的各种监控指标,适时的调整机器和增减功能。
顶住第一波高峰之后,这些人开始忙里偷闲的给自己买东西,大家互相交流着哪家买的移动硬盘靠谱,哪家衣服适合自己的女朋友,不时的有人哀嚎宝贝被人抢了、信用卡额度不够了。
同时,旁边白板上的赌注越下越大。
11月11日,这个棍子最多的日子被网民自我调侃的变成了一个节日——“光棍节”。
淘宝技术框架分析报告文案
![淘宝技术框架分析报告文案](https://img.taocdn.com/s3/m/75b4d9bca26925c52cc5bfc9.png)
淘宝技术框架分析报告淘宝作为国内首屈一指的大型电子商务网站,每天承载近30 亿PV 的点击量,拥有近50PB 的海量数据,那么淘宝是如何确保其网站的高可用的呢?本文将对淘宝在构建大型网站过程中所使用到的技术框架做一个总结,并结合吉林银行现有技术框架进行对比分析另外,本文还会针对金融互联网以及公司未来技术发展方向给出个人看法。
淘宝技术分析CDN 技术及多数据中心策略国内的网络由于运营商不同(分为电信、联通、移动),造成不同运营商网络之间的互访存在性能问题。
为了解决这个问题,淘宝在全国各地建立了上百个CDN 节点,当用户访问淘宝网站时,浏览器首先会访问DNS 服务器,通过DNS 解析域名,根据用户的IP 将访问分配到不同的入口。
如果客户的IP 属于电信运营商,那么就会被分配到同样是电信的CDN 节点,并且保证访问的(这里主要指JS CSS、图片等静态资源)CDN节点是离用户最近的。
这样就将巨大的访问量分散到全国各地。
另外,面对如此巨大的业务请求,任何一个单独的数据中心都是无法承受的,所以淘宝在全国各主要城市都建立了数据中心,这些数据中心不但保证了容灾,而且各个数据中心都在提供服务。
不管是CDN 技术还是多个数据中心,都涉及到复杂的数据同步,淘宝很好的解决了这个问题。
吉林银行现在正在筹建两地三中心,但主要目的是为了容灾,数据中心的利用率差,而淘宝的多个数据中心利用率为100% 。
LVS 技术淘宝的负载均衡系统采用了LVS 技术,该技术目前由淘宝的章文嵩博士负责。
该技术可以提供良好的可伸缩性、可靠性以及可管理型。
只是这种负载均衡系统的构建是在Linux操作系统上,其他操作系统不行,并且需要重新编译Linux 操作系统内核,对系统内核的了解要求很高,是一种软负载均衡技术。
而吉林银行则通过F5 来实现负载均衡,这是一种硬负载均衡技术。
Session 框架Session 对于Web 应用是至关重要的,主要是用来保存用户的状态信息。
淘宝技术框架分析报告文案
![淘宝技术框架分析报告文案](https://img.taocdn.com/s3/m/d2ee9b82ba0d4a7302763a73.png)
淘宝技术框架分析报告淘宝作为国内首屈一指的大型电子商务网站,每天承载近30亿PV的点击量,拥有近50PB的海量数据,那么淘宝是如何确保其网站的高可用的呢?本文将对淘宝在构建大型网站过程中所使用到的技术框架做一个总结,并结合吉林银行现有技术框架进行对比分析。
另外,本文还会针对金融互联网以及公司未来技术发展方向给出个人看法。
淘宝技术分析CDN技术及多数据中心策略国内的网络由于运营商不同(分为电信、联通、移动),造成不同运营商网络之间的互访存在性能问题。
为了解决这个问题,淘宝在全国各地建立了上百个CDN节点,当用户访问淘宝网站时,浏览器首先会访问DNS服务器,通过DNS解析域名,根据用户的IP 将访问分配到不同的入口。
如果客户的IP属于电信运营商,那么就会被分配到同样是电信的CDN节点,并且保证访问的(这里主要指JS、CSS、图片等静态资源)CDN节点是离用户最近的。
这样就将巨大的访问量分散到全国各地。
另外,面对如此巨大的业务请求,任何一个单独的数据中心都是无法承受的,所以淘宝在全国各主要城市都建立了数据中心,这些数据中心不但保证了容灾,而且各个数据中心都在提供服务。
不管是CDN技术还是多个数据中心,都涉及到复杂的数据同步,淘宝很好的解决了这个问题。
吉林银行现在正在筹建两地三中心,但主要目的是为了容灾,数据中心的利用率差,而淘宝的多个数据中心利用率为100%。
LVS技术淘宝的负载均衡系统采用了LVS技术,该技术目前由淘宝的章文嵩博士负责。
该技术可以提供良好的可伸缩性、可靠性以及可管理型。
只是这种负载均衡系统的构建是在Linux操作系统上,其他操作系统不行,并且需要重新编译Linux操作系统内核,对系统内核的了解要求很高,是一种软负载均衡技术。
而吉林银行则通过F5来实现负载均衡,这是一种硬负载均衡技术。
Session框架Session对于Web应用是至关重要的,主要是用来保存用户的状态信息。
但是在集群环境下需要解决Session共享的问题。
淘宝服务端技术架构详解
![淘宝服务端技术架构详解](https://img.taocdn.com/s3/m/65ac2863f111f18583d05a6c.png)
淘宝服务端技术架构详解目录一、前言 (3)二、单机架构 (4)三、多机部署 (4)四、分布式缓存 (5)五、Session 共享解决方案 (7)六、数据库读写分离 (9)七、CDN 加速与反向代理 (10)八、分布式文件服务器 (11)九、数据库分库分表 (11)十、搜索引擎与NoSQL (13)十一、后序 (13)一、前言以淘宝网为例,简单了解一下大型电商的服务端架构是怎样的。
如图所示最上面的就是安全体系系统,中间的就是业务运营系统,包含各个不同的业务服务,下面是一些共享服务,然后还有一些中间件,其中ECS 就是云服务器,MQS 是队列服务,OCS 是缓存等等,右侧是一些支撑体系服务。
除图中所示之外还包含一些我们看不到的,比如高可用的体现。
淘宝目前已经实现多机房容灾和异地机房单元化部署,为淘宝的业务也提供了稳定、高效和易于维护的基础架构支撑。
这是一个含金量非常高的架构,也是一个非常复杂而庞大的架构,当然这个架构不是一天两天演进成这样的,也不是一开始就设计并开发成这样的,对于初创公司而言,很难在初期就预估到未来流量千倍、万倍的网站架构会是怎样的状况,同时如果初期就设计成千万级并发的流量架构,也很难去支撑这个成本。
因此一个大型服务系统,都是从小一步一步走过来的,在每个阶段找到对应该阶段网站架构所面临的问题,然后不断解决这些问题,在这个过程中,整个架构会一直演进,同时内含的代码也就会演进,大到架构、小到代码都是在不断演进和优化的。
所以说高大上的项目技术架构和开发设计实现不是一蹴而就的,这是所谓的万丈高楼平地起。
二、单机架构从一个小网站说起,一般来说初始一台服务器就够了,文件服务器、数据库以及应用都部署在一台机器上。
也就是俗称的 allinone 架构。
这篇推荐看下:厉害了,淘宝千万并发,14 次架构演进…三、多机部署随着网站用户逐渐增多,访问量越来越大,硬盘、cpu、内存等开始吃紧,一台服务器难以支撑。
淘宝的核心技术及演变
![淘宝的核心技术及演变](https://img.taocdn.com/s3/m/ce1c4184960590c69ec3766e.png)
淘宝的核心技术(国内乃至国际的Top,这还是2011年的数据):拥有全国最大的分布式Hadoop 集群(云梯,2000左右节点,24000核CPU,48000GB 内存,40PB 存储容量)全国分布80+CDN 节点,能够自动找寻最近的节点提供服务,支持流量超过800Gbps 不逊于百度的搜索引擎,对数十亿商品进行搜索,全球最大的电商平台顶尖的负载均衡系统,顶尖的分布式系统,顶尖的互联网思想,功能多样运行极其稳定丰富的生态产业以及先进的数据挖掘技术……很多很多下面来看看淘宝技术演变过程。
马总在2003年4月7日秘密叫来阿里巴巴的十位员工,来到杭州一个隐秘的毛坯房,要求他们在一个月左右的时间内做出一个C2C 网站。
结果当然还是直接买的快,一个基于LAMP 架构的网站,原名是PHPAuction,老美开发的一个拍卖网站。
当然必须要做修改才能用。
2003年底,淘宝注册用户23万,PV 31万/day,半年成交额3371万。
很显然MySQL 无法撑得起如此大的访问量,数据库瓶颈出现了。
幸好阿里的DBA 队伍足够强大,他们使用Oracle 替代了MySQL。
Oracle 那时就已经有了强大的并发性访问设计——连接池,从连接池取连接的耗费比单独建立连接少很多。
但是PHP 当时并没有官方提供支持语言连接池特性,于是多隆前辈用Google(不会是Baidu)搜到了一个开源的SQL Relay,于是数据库软件方面的瓶颈暂时解决了。
随之而来的是面临硬件性能瓶颈,阿里买了EMC 的SAN 存储设备,加上Oracle 高性能RAC,硬件容量也暂时没问题了。
因为SQL Relay 的问题实在过于严重,2004年于是淘宝终于做出了跨时代的决策——使用Java重写网站。
淘宝请了Sun 的高级工程师来帮忙做Java 架构。
那么他们是如何做到修改编程语言而不改变网站使用呢——模块化替换,今天写好了A 模块,另开一个新域名,将连接指向该模块,同时别的模块不变,等到全部模块完成的时候,原域名放弃。
淘宝总结报告
![淘宝总结报告](https://img.taocdn.com/s3/m/e523ddbab8d528ea81c758f5f61fb7360b4c2bf7.png)
淘宝总结报告随着物联网的快速发展,电子商务行业也正以惊人的速度蓬勃发展。
作为中国最大的综合性电子商务平台,淘宝以其丰富的商品种类、便利的购物体验以及强大的客户群体而闻名于世。
本文将对淘宝进行总结分析,并探讨其未来发展的前景。
一、平台优势淘宝以其强大的平台优势在电子商务领域占据主导地位。
首先,淘宝在商品种类方面几乎涵盖了所有商品品类,无论是日用品、服装鞋帽还是家居用品、食品饮料,用户几乎能找到任何想要的商品。
其次,淘宝具有极为出色的购物体验,用户可以通过淘宝App或者网页进行购物,随时随地都能享受到便捷的服务。
此外,淘宝还积极开展各种促销活动,如双11、618购物节等,吸引了大量用户参与。
这些优势帮助淘宝在电商战场上脱颖而出。
二、用户参与淘宝之所以能快速发展壮大,得益于其用户参与度的高度。
淘宝拥有庞大的用户基数,用户数量已经超过了数亿。
淘宝通过个性化推荐、精准广告等手段,为用户提供了个性化的购物体验。
用户可以根据自己的喜好、购买力和需求选择适合自己的商品和服务,从而提升购物满意度。
此外,用户还可以在淘宝平台上发布自己的购物心得、商品评价,与其他用户进行交流,形成一个强大的购物社区。
用户参与的增加为淘宝提供了更多的商机,也为其他卖家提供了广阔的市场。
三、供应链管理作为一个综合性电商平台,淘宝面对的供应链管理问题较为复杂。
首先,淘宝需要与各个供应商合作,确保商品的质量和供应的稳定性。
其次,淘宝需要建立完善的仓储物流体系,确保商品能够及时送达消费者。
同时,淘宝还需要处理退换货、售后服务等问题,保障用户的权益。
供应链管理的好坏直接影响到用户的购物体验和对淘宝的认可度。
因此,淘宝必须不断完善和优化供应链管理,提升整体效能和用户满意度。
四、数据分析淘宝拥有庞大的用户数据,这些数据包含了用户的购物行为、消费偏好、地理位置等信息。
通过对这些数据的分析和挖掘,淘宝可以更好地了解用户的需求和行为习惯,为用户提供个性化的服务。
淘宝技术架构演进之路
![淘宝技术架构演进之路](https://img.taocdn.com/s3/m/380da46e9a6648d7c1c708a1284ac850ad0204b9.png)
淘宝技术架构演进之路1.概述 本⽂以淘宝为例,介绍从⼀百到千万级并发情况下服务端架构的演进过程,同时列举出每个演进阶段遇到的相关技术,让⼤家对架构的演进有⼀个整体的认知,最后汇总⼀些架构的设计原则。
2.基本概念 在介绍架构之前,为了避免读者对架构设计中的⼀些概念不了解,下⾯对接个最基础的概念进⾏介绍:分布式系统中的对个模块在不同服务器上部署,即可成为分布式系统,如Tomcat和数据库分别部署在不同的服务器上,或者两个相同的Tomcat分别部署在不同的服务器上。
⾼可⽤系统中部分节点失效时,其他节点可以接替他继续提供服务,则可认为系统具有⾼可⽤性。
集群:⼀个特定领域的软件部署在多台服务器上并作为⼀个整体提供⼀类服务,这个整体成为集群;如Zookeeper中的Master和Slave分别部署在多台服务器上,共同组成⼀个整体提供⼏种配置服务。
在常见的集群中,客户端往往能链接任意⼀个节点获得服务,并且当集群中⼀个节点掉线时,其他节点往往能够接替他继续提供服务,这时候说明集群具有⾼可⽤性。
负载均衡:请求发送到系统时通过某些⽅式吧请求均匀的分发到多个节点上,使系统中每个节点能够均匀的出来请求负载,则认为系统是负载均衡的。
正向代理和反向代理:系统内部要访问外部⽹络时,统⼀通话⼀个代理服务器吧请求转发出去,在外部⽹络来看就是代理服务器发起的访问,此时代理服务器实现的是正向代理;当外部请求进⼊系统时,代理服务器吧该请求转发到系统中某台服务器上,对外部请求来说,与之交互的只有代理服务器,此时代理服务器实现的是反向代理。
简单来说,正向代理就是代理服务器代替系统内部来访问外部⽹络的过程,反向代理就是外部系统请求访问系统时通过代理服务器转发到内部服务器的过程。
3.架构演进3.1.单机架构 以淘宝为例,在⽹站最初期,应⽤数量与⽤户数量都较少,可以吧Tomcat和数据库部署在同⼀台服务器上。
浏览器往 发起请求时,⾸先经过DNS服务器(域名系统)吧域名解析转换为实际IP地址10.102.1.4,浏览器转⽽访问该IP对应的Tomcat。
淘宝网技术
![淘宝网技术](https://img.taocdn.com/s3/m/7b2ca5dd49649b6648d747b3.png)
高性能电子商务网站-淘宝网技术架构研究2008年淘宝的交易额是1000亿规模,2009年的时候是2000亿规模,2010年淘宝网的交易额4000亿规模,如何构建一个支撑这么大交易规模的高性能、并发的电子商务平台网站呢?以下结合网络资料,研究一下淘宝网的技术架构变迁。
淘宝网从2003年开始建立的,从1.0到1.5的版本.2005年开始2.0的版本,2012年4.0的版本上线。
马云的创业团队共10个人,马云以及他的秘书,8个里面有3个开发人员,三丰、多龙(音)、虚竹,还有UED的二当家,三位运营人员,小宝、阿柯和破天,总经理是财神。
团队开始研发是2003年4月7日,一个月后的5月10日淘宝第一个版本上线。
这段时间,创业团队关在小区里面写代码,每天早上9点到晚上1、2点。
淘宝网第一个版本MALT架构,采用PHP+MySQL首先花2000美金买了一个MALT架构网站,很精典的LAMP技术架构,刚开始的编程语言和数据库是PHP+MySQL,然后配套开发后台管理系统。
一开始部署在一台单机服务器上,流量增长后,把发邮件功能部署在一台机器上,后来再增加机器出来。
2004年MySQL撑不住了,数据存储的引擎很大缺点会锁表,一读的话把表锁住了,读的量一上来经常会锁掉,然后重启。
MySQL撑不住了,开始考虑换Oracle,除了Oracle强大之外还有一个原因是阿里巴巴那些年03、04年Oracle 人才积累达到非常强大的水平。
那时Oracle给全球的研发人员发一个称号“ACE”,那时全球三百多位,那时中国十来位,而阿里巴巴有三位。
阿里巴巴在Oracle方面能力非常强大。
换了Oracle有一个问题,PHP跟Oracle很不搭的东西,PHP一个用户访问过来建立一个连接切掉一个连接,而Oracle提供的连接数量非常有限的,因为有连接池的功能。
怎么用PHP来连接Oracle?我们就抄袭别人看,eBay用的太贵,没有用。
找了一个日本的,但是上了一个当,总重启。
淘宝网架构变迁和挑战
![淘宝网架构变迁和挑战](https://img.taocdn.com/s3/m/21de0a5c0b4c2e3f56276329.png)
通用的基础产品
计算机组成
输入
设备 数据、程序
外存
数据、程序 输出
数据、程序 设备
内存
冯.诺依 曼型计 算机
运算 器
控制 器
CPU 计算机硬件结构图
主机
计算机系统的本质
数据处理 数据存储 数据访问
网站结构示意图
CDN
搜索 Cache 分布式存储 幵行计算平台 监控 运维平台
--- from
Application A
Application B
Application Programming Interface
• MOM的优点 – 松耦合 – 异步处理
Message Oriented Middleware
消息中间件
传统方式
do action Call A Call B
淘宝网架构变迁和挑战
About me
姓名:曾宪杰 花名:华黎 淘宝-产品技术-Java中间件团队 团队博客 /team/jm/ Sina微博 @曾宪杰_华黎 Twitter @vanadies10
内容提要
淘宝网架构的变迁 通用的基础产品 我们面临的挑战
太多的应用机器
需要数据库连接
有限的链接池
Oracle数据库
V3.0:产品化思维及服务导向框架 2007.10-2009.11
需求
支撑大型团队,丰富业务的幵行开发 软件模组化,中心化(用户,交易,商品,店铺,评价等),走向鬆耦 合 基础软件产品化 独立团队开发,做深,做大 从盖独立别墅到建造高楼大厦!
支撑高速的业务增长 快速扩容 (几十亿PV,几千亿GMV,几万台机器)
淘宝数据库架构演进历程及OceanBase架构
![淘宝数据库架构演进历程及OceanBase架构](https://img.taocdn.com/s3/m/ed1675d1c1c708a1284a4473.png)
异地多数据中心的数据同步
杭州
other
青岛
异地多数据中心的数据同步
除了oracle dataguard,master-slave replication数据复制,我们 还有其它哪些可选方案?
淘宝自主数据库Oceanbase 淘宝自主数据库
动态数据与静态数据进行分离,动态数据采用集中式,静态数据 存放与服务采用分布式 设计了一个宽表,冗余数据,将离散型IO合并成连续型IO 每晚动态数据,与静态数据合并一次 将首先在收藏夹应用上试点
HSF的诞生 的诞生
中心化后面临另一个问题,服务调用者,与服务者之间如何进 行远程通信,淘宝HSF诞生,数据库一些OLTP join问题解决。
HSF A 服 务 B 服 务
数据垂直化
应用中心化之后,底层数据库系统按照不同的业务数据进行了 一系列的垂直拆分.此类拆分方式具有如下的特点: a. 拆分方式简单,只需要把不同的业务数据进行分离 b. 避免了不同的业务数据读写操作时的相互影响 c. 该业务内部及其所导致的问题依旧
C client端特性: a. 支持mysql master,slave主备切换,获取binlog不受影响 b. 自动重连主机 c. 支持checkpoint, 支持断点续传binlog Java端复制代码特性: a. 支持statement, row两种复制模式 b. 支持按规则复制 c. 支持一定条件下的并行复制 c. 支持checkpoint
水库模型
你的系统可以撑 多少?系统余量 还有多少?
数据库系统余量
两轮测试过程,确保上线稳定: 底层数据库环境性能,稳定性的基础测试,常用的工具可以采 用sysbench, orion, supersmack 选择不同的硬件,软件组合,模拟应用的压力测试,要超越当 前业务压力的几倍进行,这个压力的幅度可以根据自己的业务 增长设计一个合理的值。 我们如何做到用数据来说话?靠测试拿数据,不靠经验
《淘宝业务发展及技术架构》分享
![《淘宝业务发展及技术架构》分享](https://img.taocdn.com/s3/m/d510cb24a5e9856a56126036.png)
主持人:今天我们特别请来淘宝资深技术专家范禹给我们分享《淘宝业务发展及技术架构》,接下来时间交给范禹,大家欢迎!范禹:大家下午好,首先感谢刘警给我这个机会跟大家做技术交流,接下来我开始讲一下,花名叫范禹,现在在淘宝技术研发部产品技术业务平台团队,今天的主要内容分为下面几块,因为主题叫淘宝业务与技术发展,前面业务会简单提一下,然后介绍一下淘宝前期技术发展过程,然后是最近几次比较大的技术结构上的变化,还有当前面临的挑战和问题,最后是讨论时间。
淘宝业务很多,我们有主站交易,有搜索,有广告,数据平台等很多相关业务,我是做主站交易平台,主要是JAVA系统,我更多是讲这块,其他像开放平台、搜索、广告不大会涉及到,我看问题中有位同学问我P4P广告如何定位到目标用户的,这个我不太知道,如果有兴趣可以邀请相关同学给大家做一个交流。
淘宝是03年成立的,这是淘宝03年的页面,UED的同学发给我淘宝历年的首页,这个页面我第一次看到觉得还不错,很有欧美网站的风格,这就是03年淘宝刚创立时候的样子,里面像买家通道、卖家通道、淘宝者联盟,淘宝者联盟可能并不是现在的淘客,应该是那时候的一个社区,03年5月份的时候淘宝推出,那时候的页面是这样子,当时是比较简单的购物网站。
(Taobao@2004)接下来就到了04年,从右上角导航上看,其实主体框架已经定下来,我要买、我要卖、我的淘宝,这几块功能这么多年来都没有大的变化,可能是交互或者说用户体验上的改变,但是它的功能可能并没有特别大的变化。
04年在业务上我认为有两块比较重要的东西,一个是旺旺从贸易通改造成淘宝IM工具,成为方便买卖购物交流的IM工具,这是我认为业务上比较大变化的东西。
另外支付宝从淘宝慢慢发展,成为独立的一家公司。
我印象中04年业务上关注的PV跟UV比,就是每个用户在淘宝上停留的时间,因为以前淘宝刚成立的时候,很多门户网站跟Ebay签了排他协议,淘宝不能在大的网站上投广告,可能找一些网站联盟,他们是弹窗式的广告,平均每个用户在淘宝待几个页面,当时目标就是让用户多看几个页面。
手机淘宝App技术架构
![手机淘宝App技术架构](https://img.taocdn.com/s3/m/5bfbbbc8c1c708a1284a44b8.png)
真机实验室
发布之前,通过线下自动化驱动测试保障基本稳定性和性能。 SDK在运行阶段自动收集性能、稳定性问题
1
• • •
核心SDK 能力
检测组件 Galileo
• • • •
•
移动日志 tLog
安全模式 SafeMode 安全气垫 热修复 Hotfix 开关服务 Orange
测试完毕后,进行灰度发布。通过SDK和大数 据体系评估APP的质量,性能和用户的体验, 以及在多种机型,环境上问题的暴露。
超级App“淘宝”诞生之路
手机淘宝App技术架构
淘宝的移动互联网演进史
企业级移动开发平台EMAS
阿里巴巴移动场景最佳实践
手机淘宝演进历史(2008 - )
手淘早期的技术架构
技术限制业务发展
手机淘宝泛质量管理体系
线下 自动化保障
•
自动化驱动 性能度量: OnlineMonotor 稳定性度量: CrashReport 自定义事件度量: AppMonitor
37.5
Weex开发框架
手淘Android发布频次
客户端团队
>30天 7天
2013 2014
30
22.5
15
3-4天
2015
7.5
1.7次/天
2016
0
谢谢!
4
手机淘宝整体高可用保障机制
• •
• •
• •
淘宝的移动互联网演进史
企业级移动开发平台EMAS
阿里巴巴移动场景最佳实践
淘宝的移动互联网演进史
企业级移动开发平台EMAS
阿里巴巴移动场景最佳实践
超级App的架构设计
千人千面的技术支撑
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
从个人网站到淘宝网仰观Java时代淘宝的技术发展(1)引言光棍节的狂欢“时间到,开抢!”坐在电脑前早已等待多时的小美一看时间已到2011年11月11日零时,便迫不及待地投身于淘宝商城一年一度的大型网购促销活动——“淘宝双11购物狂欢节”。
小美打开早已收藏好的宝贝——某品牌的雪地靴,飞快的点击购买,付款,一回头发现3000双靴子已被抢购一空。
小美跳起来,大叫一声“欧耶!”小美不知道,就在11日零点过后的这一分钟内,全国有342万人和她一起涌入淘宝商城。
当然,她更不知道,此时此刻,在淘宝杭州的一间办公室里,灯火通明,这里是“战时指挥部”,淘宝技术部的一群工程师,正在紧盯着网站的流量和交易数据。
白板上是他们刚刚下的注,赌谁能最准确地猜中流量峰值和全天的交易总额。
他们的手边放着充足的食物和各类提神的饮料。
一阵急促的电话声响起来,是前线部门询问数据的,工程师大声报着:“第1分钟,进入淘宝商城的会员有342万”。
过一会工程师主动拿起电话:“交易额超过1亿了,现在是第8分钟。
”接下来,“第21分钟,刚突破2亿”。
“第32分钟,3亿了”。
“第1个小时,亿”。
这些数据随后出现在微博上,引起一片惊呼。
“完蛋了!”突然有人大喝一声,所有的眼睛都紧张的盯着他,只见他挠挠头,嘿嘿的笑道“我赌的少了,20亿轻松就能过了,我再加5亿”,他跑去白板边上把自己的赌注擦去,写上25,接下来有人写上28,有人写上30,有人跑到微博上开下盘口,同事们纷纷转载下注。
接下来的这24个小时,战时指挥部的工程师们都不能休息,他们盯着网站的各种监控指标,适时的调整机器和增减功能。
顶住第一波高峰之后,这些人开始忙里偷闲的给自己买东西,大家互相交流着哪家买的移动硬盘靠谱,哪家衣服适合自己的女朋友,不时的有人哀嚎宝贝被人抢了、信用卡额度不够了。
同时,旁边白板上的赌注越下越大。
11月11日,这个棍子最多的日子被网民自我调侃的变成了一个节日——“光棍节”。
而淘宝网又用疯狂的折扣促销给它赋予了另外一个意义——“购物狂欢节”。
2011年11月11日这一天,淘宝商城与淘宝网交易额之和突破52亿,这个数字是“购物天堂”香港一天零售总额亿的6倍。
网民感受到的是疯抢的喜悦,而网站的技术人员感受到的却是“压力山大”。
就如同你家办酒席,宴请左邻右舍,这个办起来容易。
倘若宴请十里八乡所有的人,吃饭的人自然开心,但却不是一般人家能够办得起来的。
能办得起来如此盛宴者,需要强大的财力物力、组织能力、技术实力(例如做这么多菜,你的炒锅一定要是“分布式的”、“可复制的”、“可扩展的”,洗菜切菜要有“工作流引擎”,上菜的路径要用图论来计算出来,甚至连厨房的下水道都要重新设计)。
淘宝能够举办如此盛宴,网站的技术实力可见一斑。
淘宝网拥有全国最大的hadoop分布式计算集群之一,日新增数据50TB,有40PB海量数据存储。
分布在全国各地80多个节点的CDN网络,支持的流量超过800Gbps。
淘宝的搜索引擎能够对数十亿的商品数据进行实时搜索,另外还拥有自主研发的文件存储系统和缓存系统,以及java中间件和消息中间件系统,这一切组成了一个庞大的电子商务操作系统。
另外从商业数据上来看,AMAZON的财报显示2011年完成了大约 480亿美金的交易额,EBAY2011年财报全年完成了大约600亿美金的交易额(不包括其独立的汽车交易平台)。
不管从交易额、商品数量、同比增速等指标上看,淘宝网均远超于此,是目前全球最大的电子商务平台。
(由于淘宝非上市公司,未公布2011年业绩,以上内容来自淘宝网技术副总裁@_行癫的微博)以上这些技术数据可能已经让一些同学产生不适的感觉,为了让更多的人读懂这本书,我们从技术的角度来看,小美访问淘宝网的时候,网站上发生了什么事情。
下参考资料:《你刚才在淘宝上买了一件东西【技术普及帖】》,来自南京邮电大学孙放同学为了有个更直观的对比,我们说一个同行,他在2011年光棍节之前做促销,流量上去之后,达到12Gbps (他们有这么大的流量,老板很高兴,在微博上面说了这个数据),这时候流量达到了极限,网站几乎挂掉,用户无法下订单。
而淘宝网光棍节当天网络的流量最高达到800多Gbps,带给各家银行和快递公司的流量也让他们压力山大,如临大敌(后来,他们以能够撑住淘宝带来的流量为荣而到处宣传)。
另外如果你在网上购买过火车票的话,更能体会到网站能支持多大的流量有多重要。
但这不是一朝一夕做出来的,也不是有钱就能办到的。
以上对比的这些网站,也许读者很容易就猜到是哪一家,这里拿出来作对比,绝对没有嘲笑人家的意思,采用通常的网站技术方案,能做到这种程度已经不错了。
任何网站的发展都不是一蹴而就的,在什么样的阶段采用什么样的技术。
在发展的过程中网站会遇到各种各样的问题和业务带来的压力,正是这些原因才推动着技术的进步和发展,而技术的发展又会反过来促进业务的更大提升。
二者互为因果,相互促进。
如今淘宝网的流量已经是全球排名第12、国内排名第3(美国的ebay全球排名23,国内前两名是百度和腾讯)。
淘宝网的系统也从使用一台服务器,到采用万台以上的服务器。
本书就为大家描述淘宝网在整个发展过程中,所有的主动和被动的技术变革的前因后果,这由很多有趣的故事组成。
正如同很多人或组织成功了以后,就会为自己的出身编造一个美丽的传说。
淘宝网的出身,网上也有非常多的传说,下面我们就从它的出生开始讲起。
个人网站2003年4月7日,马云,在杭州,成立了一个神秘的组织。
他叫来十位员工,要他们签了一份协议,这份协议要求他们立刻离开阿里巴巴,去做一个神秘的项目。
这个项目要求绝对保密,老马戏称“连说梦话被老婆听到都不行,谁要是透漏出去,我将追杀到天涯海角”。
这份协议是英文版的,匆忙之间,大多数人根本来不及看懂,但出于对老马的信任,都卷起铺盖离开了阿里巴巴。
他们去了一个神秘的据点——湖畔花园小区的一套未装修的房子里,房子的主人是马云。
这伙人刚进去的时候,马云给他们布置了一个任务,就是在最短的时间内做出一个个人对个人(C2C)的商品交易的网站。
现在出一个问题考考读者,看你适不适合做淘宝的创业团队。
亲,要是让你来做,你怎么做在说出这个答案之前,容我先卖个关子,介绍一下这个创业团队的成员:三个开发工程师(虚竹、三丰、多隆)、一个UED(二当家)、三个运营(小宝、阿珂、破天)、一个经理(财神)、还有就是马云和他的秘书。
当时对整个项目组来说压力最大的就是时间,怎么在最短的时间内把一个从来就没有的网站从零开始建立起来了解淘宝历史的人知道淘宝是在2003年5月10日上线的,这之间只有一个月。
要是你在这个团队里,你怎么做我们的答案就是:买一个来。
买一个网站显然比做一个网站要省事一些,但是他们的梦想可不是做一个小网站而已,要做大,就不是随便买个就行的,要有比较低的维护成本,要能够方便的扩展和二次开发。
那接下来就是第二个问题:买一个什么样的网站答案是:轻量一点的,简单一点的,于是买了这样一个架构的网站:LAMP(linux+apache+mySQL+PHP)。
这个直到现在还是一个很常用的网站架构模型。
这种架构的优点是:无需编译,发布快速,PHP功能强大,能做从页面渲染到数据访问所有的事情,而且用到的技术都是开源的,免费。
当时我们是从一个美国人那里买来的一个网站系统,这个系统的名字叫做PHPAuction(他们的官方网站这个名字很直白,一眼就看出来这个系统是用什么语言做的、是干什么用的),PHPAuction有好几个版本,我们买的是最高版的,功能比较多,而且最重要的是对方提供了源代码。
最高版比较贵,花了我们2000美金(貌似现在降价了,只要946美元)。
买来之后不是直接就能用的,需要很多本地化的修改,例如页面模板改的漂亮一点,页头页脚加上自己的站点简介等,其中最有技术含量的是对数据库进行了一个修改。
原来是从一个数据库进行所有的读写操作,拿过来之后多隆把它给拆分成一个主库、两个从库,读写分离。
这么做的好处有几点:存储容量增加了,有了备份,使得安全性增加了,读写分离使得读写效率提升了。
这样整个系统的架构就如下图所示:其中pear DB是一个PHP模块,负责数据访问层。
另外也用开源的论坛系统PHPBB()搭建了一个小的论坛社区,虚竹负责机器采购、配置、架设等,三丰和多隆负责编码,他们把交易系统和论坛系统的用户信息打通,给运营人员开发出后台管理(admin系统)的功能,把交易类型从只有拍卖这一种增加为拍卖、一口价、求购商品、海报商品(意思是还没推出的商品,先挂个海报出来)这四种。
(PHPAuction只有拍卖的交易,Auction即拍卖的意思。
@_行癫在微博中提到:今天eBay所有交易中拍卖交易仍然占了40%,而在中国,此种模式在淘宝几乎从一开始就未能占据优势,如今在主流的交易中几乎可以忽略不计。
背后的原因一直令人费解。
我大致可以给出其中一种解释,eBay基本在发达国家展开业务,制造业外包后,电子商务的基本群体大多只能表现为零散的个体间交易。
)在经历了另外一些有趣的事情之后(这些有趣的事情包括“淘宝”这个名字的由来,员工花名的由来等等,由于本书主要描述技术方面的故事,对这些有兴趣的可以去网上找),网站开始上线运行了。
在接下来的大半年时间里,这个网站迅速显示出了它的生机。
这里有必要提一下当时的市场环境,非典(SARS)的肆虐使得大家都不敢出门,尤其是去商场之类人多的地方。
另外在神州大地上最早出现的C2C 网站易趣也正忙的不亦乐乎,2002年3月,eBay以3000万美元收购了易趣公司33%的股份,2003年6月以亿美元收购了易趣公司剩余67%的股份。
当时淘宝网允许买卖双方留下联系方式,允许同城交易,整个操作过程简单轻松。
而eBay为了收取交易佣金,是禁止这么做的,这必然增加了交易过程的难度。
而且eBay为了全球统一,把易趣原来的系统替换成了美国eBay的系统,用户体验一下子全变了,操作起来非常麻烦,这等于是把积累的用户拱手送给了淘宝。
为了不引起eBay的注意,淘宝网在2003年里一直声称自己是一个“个人网站”。
由于这个创业团队强大的市场开拓和运营能力,淘宝网发展的非常迅猛,2003年底就吸引了注册用户XXX,最高每日31万PV,从5月到年底成交额4000万。
这没有引起eBay的注意,却引起了阿里巴巴内部很多员工的注意,他们觉得这个网站以后会成为阿里巴巴强劲的对手。
甚至有人在内网发帖,忠告管理层要警惕这个刚刚起步的网站,但管理层似乎无动于衷。
(这个团队的保密工作做的真好)在市场和运营的后方,淘宝网的技术团队也在快速的做着系统的改进和创新。
这里还有个有趣的故事,eBay 和易趣早期都有员工在论坛上响应用户的需求,eBay的论坛用粉红色背景来区分员工的发言,易趣的员工在论坛上昵称都选各种豆豆,例如黄豆豆、蚕豆豆等。