CEPH分布式存储部署要点
Kubernetes中分布式存储Rook-Ceph部署快速演练
Kubernetes中分布式存储Rook-Ceph部署快速演练最近在项⽬中有涉及到Kubernetes的分布式存储部分的内容,也抽空多了解了⼀些。
项⽬主要基于Rook-Ceph运⾏,考虑到Rook-Ceph部署也不那么简单,的步骤起点也不算低,因此,在整合官⽅⽂档的某些步骤的基础上,写篇⽂章简单总结⼀下。
Rook-Ceph是Kubernetes中分布式存储的⼀种解决⽅案,Rook作为⼀种开源的、云原⽣的存储编排器,为各种存储服务在云原⽣的环境中实现⽆缝整合,提供了所必须的平台、框架和服务;⽽Ceph则是Rook所⽀持的众多存储⽅案的⼀种,在Kubernetes环境⾥,Ceph基于Rook能够为应⽤程序提供块存储(Block Storage),对象存储(Object Storage)以及共享⽂件系统(SFS)服务。
此处就不对Rook Ceph进⾏太多的介绍,直接步⼊正题,⼀步⼀步地演练Rook-Ceph从安装部署到使⽤的整个过程。
注意:本⽂所有的yaml⽂件都是为了配合整个演练过程⽽设计的,理论上不能直接⽤在⽣产环境。
如有需要,在⽤在⽣产环境之前,请确保所需的参数都已正确配置。
安装Kubernetes安装Kubernetes。
安装⽅法有很多,不怕⿇烦可以徒⼿安装,也可以直接使⽤云供应商的托管服务,⽐如Azure AKS,也可以使⽤Rancher RKE,在此就不赘述了。
安装Rook Ceph Operator这⾥我们基于Ceph来讨论。
事实上Rook⽀持Ceph、Cassandra、CockroachDB、EdgeFS、NFS以及YugabyteDB等多种存储供应商(Storage Provider),针对不同的存储供应商,Rook提供不同的Operator来进⾏资源的部署和管理。
使⽤下⾯的命令来安装Rook Ceph Operator:helm repo add rook-release https://charts.rook.io/releasekubectl create namespace rook-cephhelm install --namespace rook-ceph rook-ceph rook-release/rook-ceph安装Ceph集群(Ceph Cluster)可以使⽤下⾯的yaml⽂件:# ceph-cluster-deploy.yamlapiVersion: ceph.rook.io/v1kind: CephClustermetadata:name: rook-cephnamespace: rook-cephspec:cephVersion:image: ceph/ceph:v15.2.7allowUnsupported: falsedataDirHostPath: /var/lib/rookskipUpgradeChecks: falsecontinueUpgradeAfterChecksEvenIfNotHealthy: falsemon:count: 3allowMultiplePerNode: falsemgr:modules:- name: pg_autoscalerenabled: truedashboard:enabled: truessl: truemonitoring:enabled: falserulesNamespace: rook-cephnetwork:crashCollector:disable: falsecleanupPolicy:confirmation: ""sanitizeDisks:method: quickdataSource: zeroiteration: 1allowUninstallWithVolumes: falseannotations:labels:resources:removeOSDsIfOutAndSafeToRemove: falseuseAllNodes: trueuseAllDevices: falsedeviceFilter: nvme1n1config:osdsPerDevice: "1"disruptionManagement:managePodBudgets: falseosdMaintenanceTimeout: 30pgHealthCheckTimeout: 0manageMachineDisruptionBudgets: falsemachineDisruptionBudgetNamespace: openshift-machine-apihealthCheck:daemonHealth:mon:disabled: falseinterval: 45sosd:disabled: falseinterval: 60sstatus:disabled: falseinterval: 60slivenessProbe:mon:disabled: falsemgr:disabled: falseosd:disabled: false然后使⽤以下命令创建Ceph集群:kubectl create -f ceph-cluster-deploy.yaml命令执⾏成功之后,需要等待⼏分钟,以便OSD能够成功启动。
ceph 运维手册
ceph 运维手册一、引言1.Ceph 简介Ceph 是一款开源的分布式存储系统,它具有高度可扩展性、性能优异、易于管理等特点。
Ceph 能够为云计算、虚拟化和企业级存储场景提供稳定、可靠的存储服务。
2.Ceph 运维手册目的本手册旨在为运维人员提供一份详细的Ceph 运维指南,帮助读者更好地理解和掌握Ceph 存储系统的部署、管理、优化和维护。
二、Ceph 架构1.组件介绍(1)Ceph Monitor(MON)Ceph Monitor 负责维护整个集群的元数据信息,包括监控OSD 节点的状态、存储池配置等。
(2)Ceph OSD 节点Ceph OSD 节点是Ceph 集群中的存储节点,负责存储数据和处理数据复制、恢复等操作。
(3)Ceph 客户端Ceph 客户端用于访问Ceph 存储系统,为应用提供存储服务。
2.架构原理Ceph 采用去中心化的设计,将数据分散存储在多个OSD 节点上,并通过Ceph Monitor 进行统一管理。
数据在OSD 节点之间自动进行复制和分布,以保证数据的可靠性和性能。
三、Ceph 运维流程1.部署Ceph 集群(1)准备环境确保服务器硬件、网络和操作系统满足Ceph 部署要求。
(2)安装和配置Ceph 组件根据Ceph 版本和集群规模,安装MON、OSD 和客户端等相关组件。
(3)配置集群参数设置集群名称、存储池、副本数等参数,以满足业务需求。
2.Ceph 集群日常运维(1)监控集群状态使用Ceph 提供的命令行工具或监控工具,定期检查集群健康状况。
(2)扩容和缩容集群根据业务需求,动态调整集群规模和存储容量。
(3)处理故障遇到故障时,及时排查并采取相应措施解决问题。
3.Ceph 存储管理(1)创建和删除存储池根据业务需求,创建和管理存储池。
(2)配置和调整存储策略根据数据特点,设置合适的存储策略,以提高存储利用率。
(3)监控存储性能定期检查存储性能,优化存储配置。
Ceph分布式存储中遇到的问题和解决办法
Ceph分布式存储中遇到的问题和解决办法最近有很多朋友拿着一篇关于“ceph运维那些坑”的文章来找我,起初我并没有在意,毕竟对于一个“新物种”来说,存在质疑是再正常不过的。
不过,陆续有更多的合作伙伴甚至圈内同行来问我如何看待这篇文章时,我觉得做为一名Ceph开发和运维的技术者,理应站出来为Ceph说点什么。
首先,原作者分析Ceph运维中遇到的问题是真实存在的,甚至在实际的运维过程中还出现过其他更复杂的问题。
因为最初的Ceph只是社区提供的一套开源版,因而想要实现产品化需要趟过很多次“坑”,就像最早的安卓系统一样。
我想任何产品在一开始都难以做到十全十美,因为技术本身就是在发现问题与解决问题的道路上不断前进发展的。
不过,在这里我想澄清的事实是:连初涉Ceph的运维人员都能发现的问题,研究Ceph多年的资深技术人员们肯定也早已发现。
接下来我就根据那篇文章中提到的坑,来说一说在实际产品化过程中我们是如何解决它们的。
一、扩容问题Ceph本身基于Crush算法,具备了多种数据复制策略,可以选择在磁盘、主机、机柜等等位置附着。
例如:如果采取3副本的数据保护策略,就可以通过复制策略来决定这3个副本是否同时分布在不同的磁盘、不同的主机、不同的隔离域、不同的机柜等位置来保证部分硬件故障后数据安全性和服务运行不中断。
Ceph底层是用资源池(POOL)来实现数据逻辑隔离,往往我们会出现因容量或性能不足需要对资源池进行扩容的问题,但是在容量扩容过程中,势必会带来进行数据重新平衡的要求。
Ceph中数据以PG为单位进行组织,因此当数据池中加入新的存储单元(OSD)时,通过调整OSDMAP会带来数据重平衡。
正如文章所提到的,如果涉及到多个OSD的扩容是可能导致可用PG中OSD小于min_size,从而发生PG不可用、IO阻塞的情况。
为了尽量避免这种情况的出现,只能将扩容粒度变小,比如每次只扩容一个OSD或者一个机器、一个机柜(主要取决于存储隔离策略),但是这样注定会带来极大的运维工作量,甚至连扩容速度可能都赶不上数据增长速度。
分布式文件存储CephFS详尽介绍及使用经验
分布式文件存储 CephFS详尽介绍及使用经验1. Ceph架构介绍Ceph是一种为优秀的性能、可靠性和可扩展性而设计的统一的、分布式文件系统。
特点如下:- 高性能a. 摒弃了传统的集中式存储元数据寻址的方案,采用CRUSH算法,数据分布均衡,并行度高。
b.考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房、机架感知等。
c. 能够支持上千个存储节点的规模,支持TB到PB级的数据。
- 高可用性a. 副本数可以灵活控制。
b. 支持故障域分隔,数据强一致性。
c. 多种故障场景自动进行修复自愈。
d. 没有单点故障,自动管理。
- 高可扩展性a. 去中心化。
b. 扩展灵活。
c. 随着节点增加而线性增长。
- 特性丰富a. 支持三种存储接口:块存储、文件存储、对象存储。
b. 支持自定义接口,支持多种语言驱动。
使用场景:•块存储 (适合单客户端使用)o典型设备:磁盘阵列,硬盘。
o使用场景:a. docker容器、虚拟机远程挂载磁盘存储分配。
b. 日志存储。
...•文件存储 (适合多客户端有目录结构)o典型设备:FTP、NFS服务器。
o使用场景:a. 日志存储。
b. 多个用户有目录结构的文件存储共享。
...•对象存储 (适合更新变动较少的数据,没有目录结构,不能直接打开/修改文件) o典型设备:s3, swift。
o使用场景:a. 图片存储。
b. 视频存储。
c. 文件。
d. 软件安装包。
e. 归档数据。
...系统架构:Ceph 生态系统架构可以划分为四部分:1.Clients:客户端(数据用户)2.mds:Metadata server cluster,元数据服务器(缓存和同步分布式元数据)3.osd:Object storage cluster,对象存储集群(将数据和元数据作为对象存储,执行其他关键职能)4.mon:Cluster monitors,集群监视器(执行监视功能)2. NFS介绍1. NAS(Network Attached Storage)- 网络存储基于标准网络协议NFSv3/NFSv4实现数据传输。
ceph运维手册
ceph运维手册一、介绍Ceph是一个分布式存储系统,具有高性能、高可靠性和高可扩展性的特点。
在大规模数据存储领域,Ceph已经成为一种非常流行的解决方案。
本文将深入探讨Ceph的运维手册,包括必要的配置、监控、故障处理等方面。
二、环境准备在进行Ceph的运维工作之前,需要准备以下环境:1.硬件设备:Ceph要求至少3台服务器,并且每台服务器要有足够的计算和存储资源。
2.操作系统:推荐使用Linux操作系统,例如CentOS、Ubuntu等。
3.网络配置:确保服务器之间能够正常通信,并且网络带宽要足够支持存储系统的数据传输。
三、Ceph集群部署3.1 安装Ceph软件包在每台服务器上执行以下命令,安装Ceph软件包:$ sudo apt-get install ceph -y3.2 配置Ceph集群1.创建一个用于存储Ceph配置文件的目录:$ sudo mkdir /etc/ceph2.在主节点上执行以下命令,生成配置文件:$ sudo ceph-deploy new <主节点>3.编辑生成的Ceph配置文件,添加以下内容:osd pool default size = 2osd crush chooseleaf type = 14.在主节点上执行以下命令,部署配置文件到所有节点:$ sudo ceph-deploy --overwrite-conf config push <所有节点>3.3 启动Ceph集群在主节点上执行以下命令,启动Ceph集群:$ sudo ceph-deploy mon create-initial四、Ceph监控Ceph提供了一套监控工具,可以用于实时监控集群的状态和性能。
4.1 安装和配置监控工具在主节点上执行以下命令,安装和配置监控工具:$ sudo apt-get install ceph-mgr ceph-mgr-dashboard -y4.2 访问监控面板通过浏览器访问主节点的IP地址和监控面板端口,例如:主节点IP地址>:7000。
平安王刚 - 使用Ceph构建高效的分布式存储平台
应用结构或 非架构花共 享需求
Poxis
Http
对象存储服务
块存储服务
文件系统服务
Ceph技术解决
(超融合架构)
为什么是Ceph
X86硬件 软件定义存储 可伸缩性
统一存储
易于维护
块存储领域-OpenStack2016技术白皮书
对象存储领域-应用情况
文件系统领域-技术分析
Client
Client
分享-控制故障隔离域
合理的规划CrushMap,控制一个故障域中OSD的数目。
Root
故障隔离域A
故障隔离域B
故障隔离域C
……
Placement Rule:
[ruleA] ruleSet 2 take from 故障隔离域 take chooseleaf 0 type host take emit
RacksDB
BlockDevice
(XATTR Index )
Onode
Object Extend Object Extend
WAL
Object Extend Object Extend
…
Other
存储海量小文件的难题-小结
文件没有进行合并处理
受限文件系统
BlueStore解决
写放大过于严重
BlueStore解决
如何让Ceph跑的更快
硬件调优(1)
X86 PC
磁盘密度高
热插拔
低耗电
硬件调优(2)
CPU
内存
硬盘
2 HDD = 1 CORE
1 TB HDD = 1 GB Mem
1 SSD = 5 HDD
趟坑经验分享
分享-Cannot Create Thread
云平台企业级部署方案-案例2-最佳实践-超融合
云平台企业级部署方案-最佳实践(案例二:20台服务器+ceph超融合)StarVCenter Team2021年4月目录1概述................................................................................................................................1-3 1.1目标..............................................................................................................................1-3 1.2方案优缺点..................................................................................................................1-3 1.3名词解释......................................................................................................................1-3 2硬件设备清单................................................................................................................2-4 3部署结构规划................................................................................................................3-5 3.1标配方案......................................................................................................................3-5 3.2减配方案......................................................................................................................3-6 4IP及主机名规划............................................................................................................4-7 5安装部署........................................................................................................................5-7 5.1上架与布线..................................................................................................................5-7 5.2安装StarVE操作系统 .................................................................................................5-75.2.1Bios设置........................................................................................................5-75.2.2选择安装类型................................................................................................5-85.2.3选择磁盘........................................................................................................5-85.2.4配置主机名、IP.............................................................................................5-9 5.3部署StarVCenter集群 ............................................................................................. 5-105.3.1指定网卡用途............................................................................................. 5-115.3.2配置辅存..................................................................................................... 5-125.3.3配置数据库集群......................................................................................... 5-135.3.4配置管控集群............................................................................................. 5-145.3.5一键部署..................................................................................................... 5-155.3.6验证安装..................................................................................................... 5-16 5.4部署ceph集群......................................................................................................... 5-165.4.1配置存储网................................................................................................. 5-165.4.2配置/etc/hosts ............................................................................................ 5-175.4.3配置ssh免密访问...................................................................................... 5-185.4.4采用辅助软件部署..................................................................................... 5-195.4.5创建pool .................................................................................................... 5-21 6资源池初始化............................................................................................................. 6-226.1加入计算集群........................................................................................................... 6-22 6.2添加存储................................................................................................................... 6-22 6.3添加网络资源........................................................................................................... 6-236.3.1添加VLAN................................................................................................... 6-236.3.2添加端口组(子网)................................................................................. 6-246.3.3添加IP地址池............................................................................................ 6-24 6.4创建虚拟机............................................................................................................... 6-251概述1.1目标很多想要自建云平台的小企业,没有云平台的建设经验,不知道搭建云平台需要哪些软硬件资源,怎么规划,具体怎么落地。
docker部署Ceph分布式存储集群
hostnameip 部署localhost192.168.56.101mon 、osd host1192.168.56.102mon 、osd 、mgr host2192.168.56.103mon 、osd manager192.168.56.110ceph 、rbd 客户端docker 部署Ceph 分布式存储集群1、环境准备3台virtualbox 虚拟机,⽤来安装ceph 集群,已⽤docker-machine 安装上了docker ,每台虚拟机虚拟创建⼀个5G 的硬盘,⽤于存储osd 数据,例如:/dev/sdb 1台客户端manager ,客户端可以扩展⾄多台形成swarm集群2、在101、102、103上分别创建Monitor2.1、 在3台服务器上分别创建Monitor配置⽂件路径2.2、在101上创建Monitor 说明:MON_IP 是Monitor 的ipMON_NAME 是Monitor 名称,默认是主机名CEPH_PUBLIC_NETWORK 是是Monitor 所在⽹络的CIDRCEPH_CLUSTER_NETWORK 是osd 之间复制数据⽤到的⽹络,默认和CEPH_PUBLIC_NETWORK 相同2.3、复制101上/etc/ceph/*和/var/lib/ceph/bootstrap-*下的⽂件分别到102和103上的/etc/ceph/和/var/lib/ceph/⽬录下2.4、在102和103上分别创建Monitor3、在101、102、103上创建osd3.1、在3台服务器上分别挂载准备好的虚拟硬盘/dev/sdb1 mkdir -p /ceph-rbd2 mkfs.xfs /dev/sdb -f3 mount /dev/sdb /ceph-rbd3.2、在3台服务器上分别创建osd4、在102上创建mgrmgr是辅助monitor管理集群的服务。
现在来看看ceph集群状态,任⼀台服务器输⼊:1 docker exec mon ceph -s输出:OK,状态健康,如果状态不是HEALTH_OK,可以⽤命令docker exec mon ceph health detail简单排查。
ceph运维手册
ceph运维手册Ceph是一个开源的分布式存储系统,可提供高可用性、高性能和可扩展性。
为了能够有效地管理和维护Ceph集群,需要掌握一些运维技巧和最佳实践。
以下是关于Ceph运维的一些指南和手册。
1. 部署和安装Ceph集群:- 选择合适的硬件配置:了解Ceph的硬件要求,并根据需要选择适当的硬件,如存储设备、网络等。
- 安装Ceph软件包:根据操作系统版本和类型,选择合适的Ceph 软件包,并按照官方文档进行安装。
- 配置Ceph集群:了解Ceph的配置文件和参数,按照需求进行相应的配置,如存储池、存储节点等。
2. 监控和调优Ceph集群:- 使用Ceph管理工具:了解Ceph提供的管理工具,如cephadm、ceph-deploy等,可以方便地监控和管理Ceph集群。
- 监控集群状态:配置和使用监控工具,如Ceph Dashboard、Prometheus等,定期监控集群的状态和性能指标,及时发现和解决问题。
- 调优集群性能:根据实际需求和负载特点,调整Ceph集群的参数和配置,例如调整副本数、调整缓存策略等,以提高性能和可靠性。
3. 故障排除和故障恢复:- 日志分析和排查:仔细分析Ceph集群的日志,找出可能的问题根源,并采取相应的解决措施。
- 数据恢复和修复:当发生数据丢失或损坏时,根据Ceph提供的工具和方法,进行数据恢复和修复操作,确保数据的完整性和可用性。
- 灾难恢复:制定和实施灾难恢复计划,确保在灾难事件发生时,能够快速恢复Ceph集群的运行。
4. 安全和权限管理:- 访问控制和身份认证:了解Ceph的访问控制机制,配置和管理用户、角色和权限,确保集群的安全性。
- 数据加密和传输安全:配置和使用Ceph的加密功能,保护数据的隐私和机密性,确保数据在传输过程中的安全性。
5. 升级和扩展Ceph集群:- 升级Ceph软件:根据官方文档,了解和执行Ceph软件的升级过程,确保平滑升级,并避免数据丢失或故障。
ceph企业级分布式存储:原理与工程实践
在企业级应用中,数据存储的可靠性和性能至关重要。
随着数据规模的不断扩大,传统的存储方式已经无法满足需求。
分布式存储技术成为了企业数据管理的关键。
在众多分布式存储系统中,Ceph以其高可扩展性、高性能和高可靠性成为了备受关注的企业级分布式存储解决方案。
Ceph是一个开源的分布式存储系统,它通过将数据分布到多个节点上,实现了存储资源的共享和高可靠性。
Ceph的核心原理是将数据分块存储在各个节点上,并通过数据复制和数据恢复机制实现高可靠性和数据冗余。
Ceph还通过数据分布和负载均衡机制实现了高性能的数据访问,可以满足企业对大规模数据存储和高并发访问的需求。
在工程实践中,Ceph的部署和管理相对复杂,但是通过合理的架构设计和优化配置,可以充分发挥Ceph的优势。
企业需要根据自身业务需求和数据规模来设计Ceph的存储架构,包括确定不同类型数据的存储方式和容量规划。
需要合理的部署Ceph的各个组件,包括Ceph Monitor、Ceph OSD和Ceph Metadata Server等。
通过监控和调优,可以进一步提高Ceph的性能和稳定性。
总结来说,Ceph作为一种企业级分布式存储解决方案,通过其独特的原理和工程实践,为企业用户提供了高可靠性和高性能的数据存储解决方案。
在大规模数据管理和高并发访问的场景下,Ceph表现出了强大的优势,为企业数据管理带来了全新的可能性。
个人观点和理解:作为我的文章写手,我个人对Ceph的认识和理解是:Ceph作为一种开源的分布式存储系统,在企业级应用中有着广泛的应用前景。
通过对Ceph的深入研究和工程实践,可以充分发挥其优势,为企业数据管理带来了全新的可能性。
我相信,随着Ceph技术的不断发展和完善,它将成为企业级数据存储的首选解决方案,为企业用户带来更好的数据管理体验。
知识文章格式:1. 引言2. Ceph的原理和核心技术3. Ceph的优势和应用场景4. Ceph的工程实践和部署架构设计5. Ceph的性能监控和调优6. 总结与展望在文章中,我会多次提及“Ceph企业级分布式存储”的关键词,并以全面、深刻和灵活的方式探讨这一主题。
ceph必会知识点
ceph必会知识点Ceph必会知识点一、Ceph简介Ceph是一个开源的分布式存储系统,它提供了高性能、高可靠性、高可扩展性和高可用性的存储解决方案。
Ceph以对象存储、块存储和文件系统的形式提供存储服务,并且具备自动数据复制和恢复的功能。
二、Ceph架构1. Ceph集群由多个节点组成,包括监视器节点、对象存储节点和元数据服务器节点。
2. 监视器节点负责存储集群的状态信息,维护监视器映射和存储集群的监视器列表。
3. 对象存储节点用于存储和管理数据,每个对象存储节点都包含OSD(对象存储守护进程)。
4. 元数据服务器节点负责管理文件系统的元数据,提供文件系统服务。
三、Ceph存储模型1. 对象存储:Ceph以对象的形式存储数据,每个对象包含一个唯一的标识符和数据内容。
2. 块存储:Ceph可以将存储空间划分为大小相等的块,并以块的形式提供存储服务。
3. 文件系统:Ceph提供了一个分布式文件系统,可以像使用本地文件系统一样使用Ceph文件系统。
四、Ceph数据复制与恢复1. Ceph使用CRUSH算法确定数据在集群中的位置,保证数据的可靠性和可用性。
2. 数据自动复制:Ceph将数据自动复制到多个节点上,提供数据冗余和容错能力。
3. 数据恢复:当某个节点发生故障时,Ceph会自动将复制的数据恢复到其他节点上。
五、Ceph的优点1. 高性能:Ceph采用了分布式架构和并行计算技术,提供了出色的存储性能。
2. 高可靠性:Ceph通过数据复制和恢复机制,保证数据的可靠性和可用性。
3. 高扩展性:Ceph可以根据需求进行灵活的扩展,满足不同规模的存储需求。
4. 高可用性:Ceph提供了多副本数据备份和自动故障恢复的功能,保证存储系统的持续可用性。
六、Ceph的应用场景1. 云存储:Ceph可以作为云平台的存储后端,提供高性能、可靠性和可扩展性的存储服务。
2. 大数据分析:Ceph可以作为大数据分析平台的存储基础设施,提供快速和可靠的数据存储服务。
CEPH分布式存储部署
[root@node1 ~]# ceph -s
cluster a500528d-fc02-464e-b944-bddacbb5c3d1
health HEALTH_ERR 192 pgs stuck inactive; 192 pgs stuck unclean; no osds
initrd /initramfs-3.10.29.img
#ceph osd crush add osd.0 0.2 root=default host=node2
2.3.5启动osd进程
#ceph-osd -i 0
2.3.6查看进程
#ps -ef|grep ceph-osd
以下提示启动成功
[root@node2 ~]# ps -ef|grep ceph-osd
public network= 192.168.100.0/24
cluster network =172.16.100.0/24
osd pool default size =2
osd pool default min size = 1
max open files= 65535
mon osd full ratio = .95
检查mds状态,成功启动如下
[root@node1 ~]# ceph mds stat
e19: 1/1/1 up {0=node1=up:active}
3.1确定操作系统内核
3.1.1查看内核版本
#uname -r
若内核版本低于2.6.32时,建议升级到2.6.34或以上
3.1.2更新内核,编译ceph模块
[root@node1 linux-3.10.29]# ll /boot/|grep 3.10
cephadm对象存储使用方式
cephadm对象存储使用方式Ceph是一个开源的分布式存储系统,它提供了对象存储的功能,可以用于存储和管理大规模的数据。
Ceph的对象存储使用方式可以通过cephadm来实现,本文将介绍cephadm对象存储的使用方式。
1. 安装Ceph集群:首先需要安装Ceph集群,可以使用cephadm工具进行安装。
cephadm是一个用于管理Ceph集群的工具,它可以简化Ceph集群的部署和管理过程。
通过cephadm 工具,我们可以方便地安装和配置Ceph集群。
2. 创建存储池:在使用Ceph对象存储之前,需要先创建一个存储池。
存储池是Ceph中用于存储对象的逻辑容器,可以将不同类型的对象存储到不同的存储池中。
可以使用cephadm工具来创建存储池,通过指定存储池的名称、副本数、存储池的类型等参数来创建存储池。
3. 上传对象:在创建好存储池之后,就可以开始上传对象到Ceph 集群中了。
可以使用cephadm工具提供的命令来上传对象,通过指定对象的名称、对象的路径等参数来上传对象。
4. 下载对象:在上传对象之后,可以使用cephadm工具提供的命令来下载对象。
通过指定对象的名称、下载对象的路径等参数来下载对象。
5. 删除对象:如果不再需要某个对象,可以使用cephadm工具提供的命令来删除对象。
通过指定对象的名称来删除对象。
6. 添加用户:为了实现对象存储的权限控制,可以使用cephadm 工具提供的命令来添加用户。
通过指定用户名和密码等参数来添加用户。
7. 授权用户:在添加用户之后,需要为用户授权,以实现权限控制。
可以使用cephadm工具提供的命令来为用户授权,通过指定用户的名称和权限等参数来授权用户。
8. 查看存储池信息:可以使用cephadm工具提供的命令来查看存储池的信息。
通过指定存储池的名称来查看存储池的信息,如存储池中对象的数量、存储池的大小等。
9. 查看对象信息:可以使用cephadm工具提供的命令来查看对象的信息。
ceph的最佳osd管理个数
ceph的最佳osd管理个数
Ceph是一个PB、EB级别的分布式存储系统,可以提供文件存储、对象存储和块存储,可靠性高且易于扩展。
在使用Ceph时,每个NVMe闪存驱动器上部署多少个OSD比较合适,这个问题比较复杂,因为随着Ceph的发展,这个问题的答案也在不停地变化。
在Ceph Nautilus时代,通常建议每个闪存设备部署2个甚至4个OSD。
当时,在每个闪存设备上部署多个OSD时,特别是在使用NVMe驱动器时,会具有很明显的性能优势。
但在Octopus和Pacific的发布周期中,这一问题的答案发生了变化。
社区在OSD和BlueStore 代码中引入了多项性能改进,极大地提高了每个OSD的性能。
随着Pacific版本的发布,进行了各种测试,以确定建议是否应该改变。
Ceph的OSD管理个数取决于多种因素,包括集群规模、存储需求、硬件配置等。
如果你需要更详细的信息,可以提供更多的背景信息,再次向我提问。
ceph命令总结
ceph命令总结Ceph命令总结Ceph是一个开源的分布式存储系统,它能够提供高性能、高可靠性的存储服务。
为了更好地理解和使用Ceph,掌握一些常用的Ceph命令是非常必要的。
本文将对一些常用的Ceph命令进行总结和介绍,帮助读者更好地使用和管理Ceph。
一、集群管理命令1. ceph-deploy:用于部署和管理Ceph集群的工具。
通过该命令可以快速部署和配置Ceph集群的各个组件。
2. ceph:Ceph的主要命令行工具,用于管理和监控Ceph集群。
通过该命令可以执行一系列的操作,如创建、删除和管理存储池,查看集群状态等。
3. ceph osd pool create:用于创建一个新的存储池。
可以指定存储池的名称、副本数、PG数等参数。
4. ceph osd pool delete:用于删除一个存储池。
在删除存储池之前,需要确保该存储池中没有任何数据。
5. ceph osd pool set:用于修改存储池的属性。
可以修改存储池的副本数、PG数、权重等属性。
6. ceph osd pool get:用于查看存储池的属性。
可以查看存储池的副本数、PG数、权重等属性。
二、数据管理命令1. rados:用于与RADOS对象存储进行交互的命令行工具。
可以执行一些高级的数据管理操作,如上传、下载、删除对象等。
2. radosgw-admin:用于管理RADOS网关的命令行工具。
可以创建、删除和管理RADOS网关的用户、存储桶等。
3. rbd:用于管理Ceph块设备的命令行工具。
可以创建、删除和管理Ceph块设备,以及对块设备进行快照和克隆操作。
4. ceph fs:用于管理Ceph文件系统的命令行工具。
可以创建、删除和管理Ceph文件系统,以及对文件系统进行快照和恢复操作。
三、监控和调试命令1. ceph health:用于查看Ceph集群的健康状态。
可以检查集群的各项指标,如OSD状态、PG状态、监控器状态等。
分布式存储对象存储概述--ppt课件
优点
S如:AN , 提供高性 能的随机I/O和数据 吞吐率
缺点
可扩展性和可管理性较 差、价格较高、不能满 足成千上万CPU 规模的 系统
文
块存储设备 如:NAS, 扩展性好、 开销高、带宽低、延迟
件
文件
+文件系统 易于管理、价格便宜 大,不利于高性能集群中
储
应用
存
对
块存储设备 支持高并行性、可伸 处于发展阶段,相应的硬
ppt课件
11
2.2 对象存储解释优势
对象存储就是分布式系统,也可理解为依托于分布式存储架 构的一个特性,高级功能
1)传统的块存储读写快而不利于共享, 2 )文件存储读写慢但利于共享 对象存储则集成二者优点,是一个利于共享、读写快的“云 存储”技术。作为一种分布式存储,最重要的一点是能解决 对非结构化数据快速增长带来的问题。
sec Cur ops started finished avg MB/s cur MB/s last lat(s) avg lat(s)
8 16 247 231 115.464 108 0.357958 0.53742
9 16 274 258 114.633 108 0.449163 0.539057
括处理器、RAM 内存、网络接口、存储介质等以及运行在其中的控制软件 • MDS 元数据服务器(Metadata Server)
系统提供元数据、Cache一致性等服务
ppt课件
15
2.5:传统存储数据存储过程
传统文件储存过程。
ppt课件
16
2.6:对象存储数据储存过程
对象文件储存过程。
ppt课件
Stddev Bandwidth: 41.2795
基于开源Ceph的自研分布式存储架构及关键技术分析
I nternet Technology互联网+技术一、业务需求对存储技术的新要求(一)非结构化数据高速增长及对象存储的兴起随着大数据、云计算和物联网技术的迅速发展,手机短视频、基于摄像头的视频监控业务也随之迅猛发展,带来流量爆炸式增长,企业也面临着加密越来越多的大规模、非结构化的数据存储、敏感信息和隐私数据以及AI识别等处理需求。
由于传统的集中式存储系统存在数据规模有限、存储和处理能力瓶颈、单点故障等问题,已经难以满足现阶段的业务需求。
为了更好地满足大规模数据存储和处理的需求,从成本考虑,分布式存储系统的软硬件投资成本相比公有云具有明显优势;从国产化考虑,分布式存储系统自主可控,适配龙芯CPU、麒麟V10和统信UOS操作系统,能够根据业务的个性化需求定制需求支撑。
分布式存储系统将数据分散存储在多个节点上,通过网络进行通信和协作,实现高可用性、高扩展性和高性能的存储和处理。
目前,对自研分布式存储系统的要求进一步提高,应当具备数据迅速增长、多样化存储类型支持、自主可控及成本效益考量等方面的能力,并能够根据具体需求进行设计和优化,以满足企业或组织特定的数据存储和处理需求。
(二)存储虚拟化和容器化的发展存储虚拟化技术和容器化技术的发展使得分布式存储系统能够更高效地在虚拟化环境或容器化环境中部署和管理。
容器化有两个重点,一是控制平面,能够调度服务器资源来运行企业不同类型的应用;二是数据平台,无状态应用的数据要想落到统一存储上,开源Ceph提供的块存储是很好的解决方案,为企业提供了低成本、高可用性和可扩展性,并已经在业界取得了广泛应用。
(三)异地多活灾备和数据复制新要求随着企业全球化业务的增长,异地多活灾备和数据复制成为迫切需求。
分布式存储系统能够跨多个地理位置复制数据,以增加数据的可用性和容灾能力。
对于异地多活,集群在不同的地理位置部署多个存储集群,通过复制数据和具有自动故障转移功能的Monitor来实现数据的跨地理位置访问与同步,即使一个地点的存储集群发生故障,其他地点的集群仍然可以提供服务。
ceph操作手册
ceph操作手册Ceph是一种分布式存储系统,提供了高性能、高可用性和可扩展性的存储服务。
以下是Ceph操作手册,以帮助您快速上手使用Ceph。
一、概述Ceph是一个开源的分布式存储系统,具有高性能、高可用性和可扩展性,广泛应用于存储大规模数据。
Ceph提供了块存储、文件存储和对象存储三种服务,可以根据实际需求选择合适的存储类型。
二、安装与部署1.安装前准备:确保服务器硬件满足Ceph的要求,包括CPU、内存、磁盘和网络等。
同时,需要准备Ceph软件包和安装工具。
2.安装Ceph:根据您的操作系统和需求,选择合适的Ceph版本,并按照官方文档的指引进行安装。
3.配置Ceph:编辑Ceph的配置文件,设置集群名称、监控组件、存储组件等参数。
4.启动Ceph:启动Ceph的各个组件,包括监视器、存储节点等。
5.测试Ceph:通过创建对象、文件或块设备,测试Ceph 是否正常工作。
三、管理维护1.监控Ceph:使用Ceph命令行工具或图形化界面,监控集群状态、性能指标和故障排除等。
2.维护Ceph:定期进行Ceph的维护操作,如更新配置、修复故障和升级版本等。
3.数据备份与恢复:定期备份Ceph中的数据,以防止数据丢失。
同时,需要制定数据恢复计划,以便在数据损坏或丢失时快速恢复。
4.安全防护:确保Ceph集群的安全性,采取措施防止未经授权的访问和数据泄露。
四、性能优化1.调整配置:根据实际需求和硬件性能,调整Ceph的配置参数,提高存储性能。
2使用SSD:使用SSD可以提高I/O性能和数据可靠性。
3.多路径I/O:配置多路径I/O可以增加数据传输带宽和可靠性。
4.压缩与去重:启用数据压缩和去重功能可以减少存储空间占用和网络带宽消耗。
五、常见问题与解决方案1.Ceph集群无法启动:检查硬件和网络连接是否正常,查看日志文件查找故障原因。
2.数据损坏或丢失:检查数据备份和恢复计划是否完善,及时采取恢复措施。
Ceph集群概念以及部署
Ceph集群概念以及部署⼀、Ceph基础: 1、基础概念: ceph 是⼀个开源的分布式存储,同时⽀持对象存储、块设备、⽂件系统 ceph是⼀个对象(object)式存储系统,它把每⼀个待管理的数据流(⽂件等数据)切分伟⼀到多个固定⼤⼩(默认4M)的对象数据,并以其为原⼦单元(原⼦是构成元素的最⼩单元)完成数据的读写 对象数据的底层存储服务是由多个存储主机(host)组成的存储集群,该集群也被称之为RADOS(reliable automatic distributed object store)存储集群,即可靠的、⾃动化的、分布式的对象存储系统 librados是RADOS存储集群的API,⽀持C/C++/JAVA/Python/ruby/go/php等多种编程语⾔客户端 2、ceph的设计思想: ceph的设计宗旨在实现以下⽬标: 每⼀组件皆可扩展 ⽆单点故障 基于软件(⽽⾮专业设备)并且开源(⽆供应商) 在现有的廉价硬件上运⾏ 尽可能⾃动管理,减少⽤户⼲预 3、ceph版本: x.0.z - 开发版 x.1.z - 候选版 x.2.z - 稳定、修正版 4、ceph集群⾓⾊定义: 5、ceph集群的组成部分: 若⼲的Ceph OSD(对象存储守护进程) ⾄少需要⼀个Ceph Monitor 监视器(数量最好为奇数1,3,5,7........) 两个或以上的Ceph管理器 managers,运⾏Ceph⽂件系统客户端时还需要⾼可⽤的Ceph Metadata Server(⽂件系统元数据服务器) RADOS Cluster:由多台host存储服务器组成的ceph集群 OSD(Object Storage Daemon):每台存储服务器的磁盘组成的存储空间 Mon(Monitor):Ceph的监视器,维护OSD和PG的集群状态,⼀个Ceph集群⾄少有⼀个Mon节点,可以是⼀三五七等这样的奇数个 Mgr(Manager):负责跟踪运⾏时指标和Ceph集群的当前状态,包括存储利⽤率,当前性能指标和系统负载等 6、Ceph集群术语详细介绍: 6.1 Monitor(ceph-mon)ceph监视器: 软件包名&进程名:ceph-mon 在⼀个主机上运⾏的⼀个守护进程,⽤于维护集群状态映射(maintains maps of the cluster state),⽐如ceph 集群中有多少存储池、每个存储池有多少PG 以及存储池和PG的映射关系等, monitor map, manager map, the OSD map, the MDS map, and the CRUSH map,这些映射是Ceph 守护程序相互协调所需的关键群集状态,此外监视器还负责管理守护程序和客户端之间的⾝份验证(认证使⽤cephX 协议)。
Ceph安装部署与测试调优
Ceph安装部署及测试调优目录1.熟悉Ceph存储的基本原理与架构2.掌握Ceph集群的安装部署方法3.掌握Ceph常见的性能测试调优方法目录1.基本概念及架构2.安装部署3.测试调优Ceph是一个统一的分布式存储系统,具有高扩展性、高可靠性、高性能,基于RADOS(reliable, autonomous, distributed object store ),可提供对象存储、块设备存储、文件系统存储三种接口RADOS:是Ceph集群的精华,为用户实现数据分配、Failover等集群操作。
LIBRADOS:Librados是RADOS的提供库,上层的RBD、RGW和CephFS都是通过LIBRADOS访问的,目前提供PHP、Ruby、Java、Python、C和C++支持。
RBD:RBD全称RADOS block device,是Ceph对外提供的块设备服务。
RGW:RGW全称RADOS gateway,是Ceph对外提供的对象存储服务,接口与S3和Swift兼容。
CephFS:CephFS全称Ceph File System,是Ceph对外提供的文件系统服务OSD :Ceph OSD 进程,功能是负责读写数据,处理数据的复制、恢复、回填、再均衡,并通过检查其他OSD 守护进程的心跳来向Ceph Monitors 提供一些监控信息。
Monitor :集群的管理进程,维护着展示集群状态的各种图表,包括监视器图、OSD 图、归置组(PG )图、和CRUSH 图。
MDS :Ceph 元数据服务器,为Ceph 文件系统存储元数据(也就是说,Ceph 块存储和Ceph 对象存储不使用MDS )。
Ceph存储集群Object :Ceph 最底层的存储单元是Object 对象,每个Object 包含元数据和原始数据。
PG :PG 全称Placement Groups ,即归置组,是存放objects 的逻辑概念,一个PG 可映射到多个OSD 。
- 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
- 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
- 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。
CEPH分布式存储部署PS:本文的所有操作均在mon节点的主机进行,如有变动另有注释作者:网络技术部徐志权日期:2014年2月10日VERSION 1.0 更新历史:2014.2.10:首次完成ceph部署文档,块设备及对象存储的配置随后添加。
一、部署前网络规划1.1 环境部署主机名公网IP(eth0)私网IP(eth1)操作系统运行服务node1 192.168.100.101 172.16.100.101 CentOS6.5 mon、mds node2 192.168.100.102 172.16.100.102 CentOS6.5 osdnode3 192.168.100.103 172.16.100.103 CentOS6.5 osd◆操作系统使用CentOS6.5,因为系统已经包含xfs的支持可以直接使用不需要再次编译。
◆由于CentOS6.5系统的内核为2.6.32,因此要关闭硬盘的写入缓存,若高于此版本不需要关闭。
#hdparm -W 0 /dev/sdb 0◆本次部署一共有一个监控节点、一个元数据节点、两个数据节点,每个数据节点拥有两个硬盘作为数据盘。
1.2 网络拓扑1.3 配置服务器、安装ceph●添加ceph的rpm库key#rpm --import'https:///git/?p=ceph.git;a=blob_plain;f=keys/release.asc'#rpm --import'https:///git/?p=ceph.git;a=blob_plain;f=keys/autobuild.asc'●添加ceph-extras库#vi /etc/yum.repos.d/ceph-extras[ceph-extras]name=Ceph Extras Packagesbaseurl=/packages/ceph-extras/rpm/centos6/$basearchenabled=1priority=2gpgcheck=1type=rpm-mdgpgkey=https:///git/?p=ceph.git;a=blob_plain;f=keys/release.asc[ceph-extras-noarch]name=Ceph Extras noarchbaseurl=/packages/ceph-extras/rpm/centos6/noarchenabled=1priority=2gpgcheck=1type=rpm-mdgpgkey=https:///git/?p=ceph.git;a=blob_plain;f=keys/release.asc[ceph-extras-source]name=Ceph Extras Sourcesbaseurl=/packages/ceph-extras/rpm/centos6/SRPMSenabled=1priority=2gpgcheck=1type=rpm-mdgpgkey=https:///git/?p=ceph.git;a=blob_plain;f=keys/release.asc●添加ceph库#rpm -Uvh /rpms/el6/noarch/ceph-release-1-0.el6.noarch.rpm●添加epel库#rpm -Uvh/pub/epel/6/x86_64/epel-release-6-8.noarch.rpm●安装ceph#yum update -y && yum install ceph -y二、部署ceph2.1创建一个集群创建一个集群,集群名为ceph,在mon节点,这里是主机node1,执行以下操作2.1.1获取一个uuid#uuidgen2.1.2编辑配置文件#vi /etc/ceph/ceph.conf[global]auth_service_required = cephx#filestore_xattr_use_omap = true #该选项只针对ext4文件系统格式auth_client_required = cephxauth_cluster_required = cephxauth supported = nonefsid = a500528d-fc02-464e-b944-bddacbb5c3d1 #填入刚才获取到的uuid public network = 192.168.100.0/24cluster network = 172.16.100.0/24osd pool default size = 2osd pool default min size = 1max open files = 65535mon osd full ratio = .95mon osd nearfull ratio = .85[mon]mon data = /data/$cluster-$id[osd]osd journal size = 1024osd journal = /data/$name/journalosd data = /data/$name2.2创建一个mon2.2.1编辑配置文件,添加mon参数#vi /etc/ceph/ceph.conf[mon.node1]host = node1mon addr = 192.168.100.101:67892.2.2创建一个mon keyring#ceph-authtool /etc/ceph/ceph.mon.keyring --create-keyring --gen-key -n mon.2.2.3创建mon数据目录#mkdir -p /data/ceph-node1#ceph-mon -i node1 --mkfs --keyring /etc/ceph/ceph.mon.keyring2.2.4启动并查看集群状态#/etc/init.d/ceph start mon.node1#ceph –s出现以下提示,启动成功:[root@node1 ~]# ceph -scluster a500528d-fc02-464e-b944-bddacbb5c3d1health HEALTH_ERR 192 pgs stuck inactive; 192 pgs stuck unclean; no osds monmap e1: 1 mons at {node1=192.168.100.101:6789/0}, election epoch 2, quorum 0 node1osdmap e1: 0 osds: 0 up, 0 inpgmap v2: 192 pgs, 3 pools, 0 bytes data, 0 objects0 kB used, 0 kB / 0 kB avail192 creating2.3创建一个osd首先为节点添加一块硬盘(这里是主机node2)PS:硬件支持热插拔的情况下可以使用以下命令,在线检测新增硬盘# echo "- - -" > /sys/class/scsi_host/host2/scan2.3.1获取osd的ID##ceph osd create //记录得到的编号,该编号是下面创建的osd的ID 2.3.2编辑配置文件#vi /etc/ceph/ceph.conf添加[osd.0]public addr = 192.168.100.102cluster addr = 172.16.100.1022.3.3同步配置文档到节点node2#scp -r root@192.168.100.101:/etc/ceph/ root@192.168.100.102:/etc/2.3.4部署osd节点#ssh root@192.168.100.102#parted /dev/sdb mktable gpt#parted /dev/sdb mkpart osd.0 1 20g //新加的硬盘为20g,并将所有空间划分为一个分区#mkfs -t xfs /dev/sdb1#mkdir /data/osd.0#mount /dev/sdb1 /data/osd.0#ceph-osd -i 0 --mkfs --mkkey#ceph auth add osd.0 osd 'allow *' mon 'allow rwx' -i /data/osd.0/keyring#ceph osd crush add osd.0 0.2 root=default host=node22.3.5启动osd进程#ceph-osd -i 02.3.6查看进程#ps -ef|grep ceph-osd以下提示启动成功[root@node2 ~]# ps -ef|grep ceph-osdroot 1364 1 0 08:42 ? 00:00:07 ceph-osd -i 02.3.7查看osd状态#exit#ceph osd statosd添加成功[root@node1 ~]# ceph osd statosdmap e41: 1 osds: 1 up, 1 in2.3.8开机自动启动#vi /etc/fstab添加/dev/sdb1 /data/osd.0 xfs defaults 0 0# echo "ceph-osd -i 0" >> /etc/rc.local2.4创建一个mds创建mds# ceph-mds -i node1 -n mds.node1 -c /etc/ceph/ceph.conf -m 192.168.100.101:6789检查mds状态,成功启动如下[root@node1 ~]# ceph mds state19: 1/1/1 up {0=node1=up:active}三、配置ceph客户端3.1确定操作系统内核3.1.1查看内核版本#uname -r若内核版本低于2.6.32时,建议升级到2.6.34或以上3.1.2更新内核,编译ceph模块这里以升级到3.10.29为例#wget https:///pub/linux/kernel/v3.x/linux-3.10.29.tar.xz#tar -Jxvf linux-3.10.29.tar.xz#cd linux-3.10.29#cp /boot/config-2.6.32-431.3.1.el6.x86_64 ./.config //将当前系统内核的配置文件复制到kernel源文件的目录内#make menuconfig依次选择下面选项,ceph必须编译为模块MFile systems-->Network File Systems--> Ceph distributed file system保存并退出#make#make modules_install#make install确定boot木有下存在以下文件[root@node1 linux-3.10.29]# ll /boot/|grep 3.10initramfs-3.10.29.imgSystem.map -> /boot/System.map-3.10.29System.map-3.10.29vmlinuz -> /boot/vmlinuz-3.10.29vmlinuz-3.10.29更改grub.conf#vi /etc/grub.conf添加title CentOS (3.10.29)root (hd0,0)kernel /vmlinuz-3.10.29 ro root=/dev/mapper/V olGroup-lv_root rd_NO_LUKS LANG=en_US.UTF-8 rd_NO_MD rd_LVM_LV=V olGroup/lv_swapSYSFONT=latarcyrheb-sun16 crashkernel=auto rd_LVM_LV=VolGroup/lv_root KEYBOARDTYPE=pc KEYTABLE=us rd_NO_DM rhgb quietinitrd /initramfs-3.10.29.img3.1配置文件目录共享客户端PS:确定已经运行一个ceph集群,并且集群包含至少一个或以上mds节点挂载ceph分布式存储文件目录共享以下在客户端上操作#yum install ceph-fuse -y#ceph-fuse -m 192.168.100.101:6789 /mnt测试写入1G文件#dd if=/dev/zero of=/mnt/test.1g bs=8192 count=125000四、ceph扩容4.1增加osd节点(以下操作在node1执行,即mon节点)根据第一章在新的节点node3服务器安装ceph,并配置好环境4.1.1获取osd的ID##ceph osd create //记录得到的编号,该编号是下面创建的osd的ID4.1.2编辑配置文件#vi /etc/ceph/ceph.conf添加[osd.1]public addr = 192.168.100.103cluster addr = 172.16.100.1034.1.3同步配置文档到节点node3#scp -r root@192.168.100.101:/etc/ceph/ root@192.168.100.103:/etc/4.1.4部署osd节点#ssh root@192.168.100.103#parted /dev/sdb mktable gpt#parted /dev/sdb mkpart osd.1 1 20g //新加的硬盘为20g,并将所有空间划分为一个分区#mkfs -t xfs /dev/sdb1#mkdir -p /data/osd.1#mount /dev/sdb1 /data/osd.1#ceph-osd -i 1 --mkfs --mkkey#ceph auth add osd.1 osd 'allow *' mon 'allow rwx' -i /data/osd.1/keyring#ceph osd crush add osd.1 0.2 root=default host=node24.1.5启动osd进程#ceph-osd -i 14.1.6查看进程#ps -ef|grep ceph-osd以下提示启动成功[root@node3 ~]# ps -ef|grep ceph-osdroot 1364 1 0 08:42 ? 00:00:07 ceph-osd -i 04.1.7查看osd状态#exit#ceph osd statosd添加成功[root@node1 ~]# ceph osd statosdmap e41: 2 osds: 2 up, 2 in4.2增加mon(以下操作在主机node2执行)PS:每台主机只能为ceph集群启动一个mon进程PS2:集群中只有两个mon节点时,其中一个断开会导致集群不能访问,建议mon总数3个或以上。