Ceph分布式存储平台部署手册

合集下载

Kubernetes中分布式存储Rook-Ceph部署快速演练

Kubernetes中分布式存储Rook-Ceph部署快速演练

Kubernetes中分布式存储Rook-Ceph部署快速演练最近在项⽬中有涉及到Kubernetes的分布式存储部分的内容,也抽空多了解了⼀些。

项⽬主要基于Rook-Ceph运⾏,考虑到Rook-Ceph部署也不那么简单,的步骤起点也不算低,因此,在整合官⽅⽂档的某些步骤的基础上,写篇⽂章简单总结⼀下。

Rook-Ceph是Kubernetes中分布式存储的⼀种解决⽅案,Rook作为⼀种开源的、云原⽣的存储编排器,为各种存储服务在云原⽣的环境中实现⽆缝整合,提供了所必须的平台、框架和服务;⽽Ceph则是Rook所⽀持的众多存储⽅案的⼀种,在Kubernetes环境⾥,Ceph基于Rook能够为应⽤程序提供块存储(Block Storage),对象存储(Object Storage)以及共享⽂件系统(SFS)服务。

此处就不对Rook Ceph进⾏太多的介绍,直接步⼊正题,⼀步⼀步地演练Rook-Ceph从安装部署到使⽤的整个过程。

注意:本⽂所有的yaml⽂件都是为了配合整个演练过程⽽设计的,理论上不能直接⽤在⽣产环境。

如有需要,在⽤在⽣产环境之前,请确保所需的参数都已正确配置。

安装Kubernetes安装Kubernetes。

安装⽅法有很多,不怕⿇烦可以徒⼿安装,也可以直接使⽤云供应商的托管服务,⽐如Azure AKS,也可以使⽤Rancher RKE,在此就不赘述了。

安装Rook Ceph Operator这⾥我们基于Ceph来讨论。

事实上Rook⽀持Ceph、Cassandra、CockroachDB、EdgeFS、NFS以及YugabyteDB等多种存储供应商(Storage Provider),针对不同的存储供应商,Rook提供不同的Operator来进⾏资源的部署和管理。

使⽤下⾯的命令来安装Rook Ceph Operator:helm repo add rook-release https://charts.rook.io/releasekubectl create namespace rook-cephhelm install --namespace rook-ceph rook-ceph rook-release/rook-ceph安装Ceph集群(Ceph Cluster)可以使⽤下⾯的yaml⽂件:# ceph-cluster-deploy.yamlapiVersion: ceph.rook.io/v1kind: CephClustermetadata:name: rook-cephnamespace: rook-cephspec:cephVersion:image: ceph/ceph:v15.2.7allowUnsupported: falsedataDirHostPath: /var/lib/rookskipUpgradeChecks: falsecontinueUpgradeAfterChecksEvenIfNotHealthy: falsemon:count: 3allowMultiplePerNode: falsemgr:modules:- name: pg_autoscalerenabled: truedashboard:enabled: truessl: truemonitoring:enabled: falserulesNamespace: rook-cephnetwork:crashCollector:disable: falsecleanupPolicy:confirmation: ""sanitizeDisks:method: quickdataSource: zeroiteration: 1allowUninstallWithVolumes: falseannotations:labels:resources:removeOSDsIfOutAndSafeToRemove: falseuseAllNodes: trueuseAllDevices: falsedeviceFilter: nvme1n1config:osdsPerDevice: "1"disruptionManagement:managePodBudgets: falseosdMaintenanceTimeout: 30pgHealthCheckTimeout: 0manageMachineDisruptionBudgets: falsemachineDisruptionBudgetNamespace: openshift-machine-apihealthCheck:daemonHealth:mon:disabled: falseinterval: 45sosd:disabled: falseinterval: 60sstatus:disabled: falseinterval: 60slivenessProbe:mon:disabled: falsemgr:disabled: falseosd:disabled: false然后使⽤以下命令创建Ceph集群:kubectl create -f ceph-cluster-deploy.yaml命令执⾏成功之后,需要等待⼏分钟,以便OSD能够成功启动。

Ceph安装部署文档

Ceph安装部署文档

Ceph安装部署文档目录一:简介 (1)二:部署环境介绍 (1)三:集群配置准备工作 (2)3.1 : 生成SSH证书,节点建立连接 (2)3.2 : 建立ip地址list, 修改host文件 (3)3.3 : 网络端口设置 (3)3.4 : 安装centos的yum源软件包=>全部节点安装 (4)3.5 : 添加时间同步定时任务 (4)3.6 : 安装yum-plugin-priorities. (8)四:安装ceph软件包 (8)4.1、安装ceph部署机,使用ceph-deploy方式安装部署 (8)4.2、安装ceph存储集群(包括ceph对象网关) (8)五:搭建ceph集群 (8)5.1 : 新建ceph集群 (9)5.2 : 添加mon节点 (9)5.3 : 添加osd节点 (9)六:安装过程出现的部分错误及解决方法 (11)七:常用命令 (11)一:简介Ceph 生态系统架构可以划分为四部分:1. Clients:客户端:数据用户2. mds:Metadata server cluster,元数据服务器:缓存和同步分布式元数据(此文档没有安装mds)3. osd:Object storage cluster,对象存储集群:将数据和元数据作为对象存储,执行其它关键职能4. mon:Cluster monitors,集群监视器:执行监视功能二:部署环境介绍三:集群配置准备工作3.1 : 生成SSH证书,节点建立连接1)所有节点修改hostnamevim /etc/sysconfig/network2)安装SSH (主节点)sudo apt-get install openssh-server3)ssh登陆证书(主节点)ssh-keygen将配置完成的证书传输到其它服务器:ssh-copy-id {其他节点用户名}@{其他节点IP} Example:ssh-copy-id root@anode24)创建并编辑~/.ssh/config 文件,添加其他Host Host {Hostname}Hostname {}User {Username}Example:Host anode1Hostname 172.16.100.35User rootHost anode2Hostname 172.16.100.36User rootHost anode3Hostname 172.16.100.37User root3.2 : 建立ip地址list, 修改host文件1)创建工作文件夹,建立ip地址list,为文件传输做准备主节点执行mkdir /workspace/cd /workspace/vim cephlist.txt 主机列表写入:anode1anode2anode32)修改host文件vim /etc/hosts追加内容如下:172.16.100.35 anode1172.16.100.36 anode2172.16.100.37 anode3将host文件传输到其它主机for ip in $(cat /workspace/cephlist.txt);do echo -----$ip-----;rsync -avp /etc/hosts $ip:/etc/;done3.3 : 网络端口设置检查网络设置,确定这些设置是永久生效的,重启之后不会改变。

ceph 运维手册

ceph 运维手册

ceph 运维手册一、引言1.Ceph 简介Ceph 是一款开源的分布式存储系统,它具有高度可扩展性、性能优异、易于管理等特点。

Ceph 能够为云计算、虚拟化和企业级存储场景提供稳定、可靠的存储服务。

2.Ceph 运维手册目的本手册旨在为运维人员提供一份详细的Ceph 运维指南,帮助读者更好地理解和掌握Ceph 存储系统的部署、管理、优化和维护。

二、Ceph 架构1.组件介绍(1)Ceph Monitor(MON)Ceph Monitor 负责维护整个集群的元数据信息,包括监控OSD 节点的状态、存储池配置等。

(2)Ceph OSD 节点Ceph OSD 节点是Ceph 集群中的存储节点,负责存储数据和处理数据复制、恢复等操作。

(3)Ceph 客户端Ceph 客户端用于访问Ceph 存储系统,为应用提供存储服务。

2.架构原理Ceph 采用去中心化的设计,将数据分散存储在多个OSD 节点上,并通过Ceph Monitor 进行统一管理。

数据在OSD 节点之间自动进行复制和分布,以保证数据的可靠性和性能。

三、Ceph 运维流程1.部署Ceph 集群(1)准备环境确保服务器硬件、网络和操作系统满足Ceph 部署要求。

(2)安装和配置Ceph 组件根据Ceph 版本和集群规模,安装MON、OSD 和客户端等相关组件。

(3)配置集群参数设置集群名称、存储池、副本数等参数,以满足业务需求。

2.Ceph 集群日常运维(1)监控集群状态使用Ceph 提供的命令行工具或监控工具,定期检查集群健康状况。

(2)扩容和缩容集群根据业务需求,动态调整集群规模和存储容量。

(3)处理故障遇到故障时,及时排查并采取相应措施解决问题。

3.Ceph 存储管理(1)创建和删除存储池根据业务需求,创建和管理存储池。

(2)配置和调整存储策略根据数据特点,设置合适的存储策略,以提高存储利用率。

(3)监控存储性能定期检查存储性能,优化存储配置。

ceph使用方法

ceph使用方法

ceph使用方法摘要:1.Ceph简介2.Ceph组件及其作用3.安装Ceph4.Ceph使用方法5.Ceph的日常维护与管理6.Ceph性能优化7.常见问题与解决方案正文:Ceph是一款开源的分布式存储系统,具有高性能、可靠性高、可扩展性强等特点。

它主要由以下几个组件构成:1.Ceph Monitor(CMS):负责维护整个Ceph集群的元数据信息,包括监控各个节点的状态、集群映射关系等。

2.Ceph OSD:负责存储数据,包括数据存储和数据恢复。

OSD节点之间通过CRUSH算法实现数据分布和平衡。

3.Ceph Metadata Server:为Ceph客户端提供元数据服务,包括存储卷配置、快照、克隆等。

接下来,我们来了解一下如何安装和配置Ceph。

1.安装Ceph:首先,确保操作系统为CentOS 7及以上版本。

然后,按照官方文档的指引,依次安装Ceph Monitor、OSD和Metadata Server组件。

2.配置Ceph:安装完成后,需要对Ceph进行配置。

编辑Ceph配置文件(/etc/ceph/ceph.conf),设置相关参数,如:osd pool默认配置、monitor 选举算法等。

3.初始化Ceph:使用ceph-init命令初始化Ceph,之后启动Ceph相关服务。

4.创建存储池:使用ceph-volume命令创建存储池,为存储池分配OSD 节点。

5.创建卷:使用ceph-volume命令创建卷,并将卷挂载到客户端节点。

6.扩容存储池:当存储池空间不足时,可以通过添加OSD节点或调整pool参数进行扩容。

7.维护与管理:定期检查Ceph集群状态,使用ceph命令监控性能指标,如:osd tree、health monitor等。

8.性能优化:根据实际需求,调整Ceph配置文件中的相关参数,如:调整osd的osd_cache_size、osd_timeout等。

9.常见问题与解决方案:遇到问题时,可通过查询官方文档、社区论坛等途径寻求解决方案。

分布式文件存储CephFS详尽介绍及使用经验

分布式文件存储CephFS详尽介绍及使用经验

分布式文件存储 CephFS详尽介绍及使用经验1. Ceph架构介绍Ceph是一种为优秀的性能、可靠性和可扩展性而设计的统一的、分布式文件系统。

特点如下:- 高性能a. 摒弃了传统的集中式存储元数据寻址的方案,采用CRUSH算法,数据分布均衡,并行度高。

b.考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房、机架感知等。

c. 能够支持上千个存储节点的规模,支持TB到PB级的数据。

- 高可用性a. 副本数可以灵活控制。

b. 支持故障域分隔,数据强一致性。

c. 多种故障场景自动进行修复自愈。

d. 没有单点故障,自动管理。

- 高可扩展性a. 去中心化。

b. 扩展灵活。

c. 随着节点增加而线性增长。

- 特性丰富a. 支持三种存储接口:块存储、文件存储、对象存储。

b. 支持自定义接口,支持多种语言驱动。

使用场景:•块存储 (适合单客户端使用)o典型设备:磁盘阵列,硬盘。

o使用场景:a. docker容器、虚拟机远程挂载磁盘存储分配。

b. 日志存储。

...•文件存储 (适合多客户端有目录结构)o典型设备:FTP、NFS服务器。

o使用场景:a. 日志存储。

b. 多个用户有目录结构的文件存储共享。

...•对象存储 (适合更新变动较少的数据,没有目录结构,不能直接打开/修改文件) o典型设备:s3, swift。

o使用场景:a. 图片存储。

b. 视频存储。

c. 文件。

d. 软件安装包。

e. 归档数据。

...系统架构:Ceph 生态系统架构可以划分为四部分:1.Clients:客户端(数据用户)2.mds:Metadata server cluster,元数据服务器(缓存和同步分布式元数据)3.osd:Object storage cluster,对象存储集群(将数据和元数据作为对象存储,执行其他关键职能)4.mon:Cluster monitors,集群监视器(执行监视功能)2. NFS介绍1. NAS(Network Attached Storage)- 网络存储基于标准网络协议NFSv3/NFSv4实现数据传输。

ceph运维手册

ceph运维手册

ceph运维手册一、介绍Ceph是一个分布式存储系统,具有高性能、高可靠性和高可扩展性的特点。

在大规模数据存储领域,Ceph已经成为一种非常流行的解决方案。

本文将深入探讨Ceph的运维手册,包括必要的配置、监控、故障处理等方面。

二、环境准备在进行Ceph的运维工作之前,需要准备以下环境:1.硬件设备:Ceph要求至少3台服务器,并且每台服务器要有足够的计算和存储资源。

2.操作系统:推荐使用Linux操作系统,例如CentOS、Ubuntu等。

3.网络配置:确保服务器之间能够正常通信,并且网络带宽要足够支持存储系统的数据传输。

三、Ceph集群部署3.1 安装Ceph软件包在每台服务器上执行以下命令,安装Ceph软件包:$ sudo apt-get install ceph -y3.2 配置Ceph集群1.创建一个用于存储Ceph配置文件的目录:$ sudo mkdir /etc/ceph2.在主节点上执行以下命令,生成配置文件:$ sudo ceph-deploy new <主节点>3.编辑生成的Ceph配置文件,添加以下内容:osd pool default size = 2osd crush chooseleaf type = 14.在主节点上执行以下命令,部署配置文件到所有节点:$ sudo ceph-deploy --overwrite-conf config push <所有节点>3.3 启动Ceph集群在主节点上执行以下命令,启动Ceph集群:$ sudo ceph-deploy mon create-initial四、Ceph监控Ceph提供了一套监控工具,可以用于实时监控集群的状态和性能。

4.1 安装和配置监控工具在主节点上执行以下命令,安装和配置监控工具:$ sudo apt-get install ceph-mgr ceph-mgr-dashboard -y4.2 访问监控面板通过浏览器访问主节点的IP地址和监控面板端口,例如:主节点IP地址>:7000。

ceph接口使用方法

ceph接口使用方法

ceph接口使用方法Ceph接口使用方法Ceph是一个开源的分布式存储系统,拥有强大的可扩展性和高可靠性。

它通过将数据分布在多个节点上,实现了数据冗余和负载均衡的功能。

Ceph提供了一系列的接口,让开发者可以轻松地使用其功能。

本文将介绍Ceph接口的使用方法,包括安装和配置Ceph、使用Ceph 接口进行数据操作等。

通过本文的指导,读者可以快速上手并深入了解Ceph接口的使用。

第一步:安装Ceph在开始使用Ceph接口之前,首先需要在集群中安装和配置Ceph。

Ceph 可以在Linux系统上运行,支持多种发行版。

以下是在Ubuntu上安装Ceph的步骤:1. 更新系统软件包:使用以下命令更新系统软件包以获取最新的软件包列表和安全修复程序。

sudo apt-get updatesudo apt-get upgrade2. 安装Ceph软件包:使用以下命令安装Ceph软件包。

sudo apt-get install ceph ceph-deploy3. 配置Ceph集群:使用Ceph提供的命令行工具ceph-deploy来配置Ceph集群。

首先需要创建一个新的目录作为Ceph集群的工作目录。

mkdir my-clustercd my-cluster然后,在此目录下,运行以下命令来初始化Ceph集群。

ceph-deploy new <MON节点>这将在当前目录下创建一个名为ceph.conf的配置文件,其中包含了集群的基本配置信息。

接下来,使用以下命令将Ceph软件包安装到集群的所有节点。

ceph-deploy install <所有节点>最后,使用以下命令来为集群添加MON节点。

ceph-deploy mon create-initial第二步:配置Ceph存储池一旦Ceph集群安装和配置完成,下一步是创建一个或多个存储池,以供存储数据。

存储池是Ceph中最基本的单元,用于管理数据的存储和分发。

云平台企业级部署方案-案例2-最佳实践-超融合

云平台企业级部署方案-案例2-最佳实践-超融合

云平台企业级部署方案-最佳实践(案例二:20台服务器+ceph超融合)StarVCenter Team2021年4月目录1概述................................................................................................................................1-3 1.1目标..............................................................................................................................1-3 1.2方案优缺点..................................................................................................................1-3 1.3名词解释......................................................................................................................1-3 2硬件设备清单................................................................................................................2-4 3部署结构规划................................................................................................................3-5 3.1标配方案......................................................................................................................3-5 3.2减配方案......................................................................................................................3-6 4IP及主机名规划............................................................................................................4-7 5安装部署........................................................................................................................5-7 5.1上架与布线..................................................................................................................5-7 5.2安装StarVE操作系统 .................................................................................................5-75.2.1Bios设置........................................................................................................5-75.2.2选择安装类型................................................................................................5-85.2.3选择磁盘........................................................................................................5-85.2.4配置主机名、IP.............................................................................................5-9 5.3部署StarVCenter集群 ............................................................................................. 5-105.3.1指定网卡用途............................................................................................. 5-115.3.2配置辅存..................................................................................................... 5-125.3.3配置数据库集群......................................................................................... 5-135.3.4配置管控集群............................................................................................. 5-145.3.5一键部署..................................................................................................... 5-155.3.6验证安装..................................................................................................... 5-16 5.4部署ceph集群......................................................................................................... 5-165.4.1配置存储网................................................................................................. 5-165.4.2配置/etc/hosts ............................................................................................ 5-175.4.3配置ssh免密访问...................................................................................... 5-185.4.4采用辅助软件部署..................................................................................... 5-195.4.5创建pool .................................................................................................... 5-21 6资源池初始化............................................................................................................. 6-226.1加入计算集群........................................................................................................... 6-22 6.2添加存储................................................................................................................... 6-22 6.3添加网络资源........................................................................................................... 6-236.3.1添加VLAN................................................................................................... 6-236.3.2添加端口组(子网)................................................................................. 6-246.3.3添加IP地址池............................................................................................ 6-24 6.4创建虚拟机............................................................................................................... 6-251概述1.1目标很多想要自建云平台的小企业,没有云平台的建设经验,不知道搭建云平台需要哪些软硬件资源,怎么规划,具体怎么落地。

ceph 集群配置iscsi的操作步骤 -回复

ceph 集群配置iscsi的操作步骤 -回复

ceph 集群配置iscsi的操作步骤-回复Ceph是一种开源的分布式对象存储系统,它提供了高可靠性、高可扩展性以及高性能的存储解决方案。

在Ceph集群中,我们可以配置iSCSI (Internet Small Computer System Interface)来提供块级存储服务。

本文将提供一步一步的操作步骤,以帮助您配置Ceph集群以支持iSCSI。

在开始之前,确保您已经搭建好了一个Ceph集群,并配置好了适当的硬件设备。

如果您还没有完成这些步骤,您可以参考Ceph官方文档来进行安装和配置。

以下是配置Ceph集群以支持iSCSI的操作步骤:1. 检查iSCSI支持:首先,您需要确保Ceph集群的所有节点都支持iSCSI。

您可以通过运行以下命令来检查内核模块是否加载:lsmod grep rbdlsmod grep target如果返回的结果为空,则需要加载相应的内核模块。

您可以使用modprobe命令来加载内核模块:modprobe rbdmodprobe target_core_user2. 创建iSCSI池:要使用iSCSI,您需要先创建一个用于存储iSCSI卷的池。

您可以使用以下命令在Ceph集群中创建一个新的池:ceph osd pool create iscsi 128 128其中,"iscsi"是池的名称,"128"是最小数量的副本数,"128"是最大数量的副本数。

3. 创建iSCSI卷:一旦您创建了iSCSI池,就可以在其中创建iSCSI卷。

您可以使用以下命令在Ceph集群中创建一个新的iSCSI卷:rbd create iscsi/myvolume size 10G pool iscsi其中,"iscsi/myvolume"是卷的名称,"size 10G"表示卷的大小为10GB,"pool iscsi"表示卷将存储在名为"iscsi"的池中。

ceph运维手册

ceph运维手册

ceph运维手册Ceph是一个开源的分布式存储系统,可提供高可用性、高性能和可扩展性。

为了能够有效地管理和维护Ceph集群,需要掌握一些运维技巧和最佳实践。

以下是关于Ceph运维的一些指南和手册。

1. 部署和安装Ceph集群:- 选择合适的硬件配置:了解Ceph的硬件要求,并根据需要选择适当的硬件,如存储设备、网络等。

- 安装Ceph软件包:根据操作系统版本和类型,选择合适的Ceph 软件包,并按照官方文档进行安装。

- 配置Ceph集群:了解Ceph的配置文件和参数,按照需求进行相应的配置,如存储池、存储节点等。

2. 监控和调优Ceph集群:- 使用Ceph管理工具:了解Ceph提供的管理工具,如cephadm、ceph-deploy等,可以方便地监控和管理Ceph集群。

- 监控集群状态:配置和使用监控工具,如Ceph Dashboard、Prometheus等,定期监控集群的状态和性能指标,及时发现和解决问题。

- 调优集群性能:根据实际需求和负载特点,调整Ceph集群的参数和配置,例如调整副本数、调整缓存策略等,以提高性能和可靠性。

3. 故障排除和故障恢复:- 日志分析和排查:仔细分析Ceph集群的日志,找出可能的问题根源,并采取相应的解决措施。

- 数据恢复和修复:当发生数据丢失或损坏时,根据Ceph提供的工具和方法,进行数据恢复和修复操作,确保数据的完整性和可用性。

- 灾难恢复:制定和实施灾难恢复计划,确保在灾难事件发生时,能够快速恢复Ceph集群的运行。

4. 安全和权限管理:- 访问控制和身份认证:了解Ceph的访问控制机制,配置和管理用户、角色和权限,确保集群的安全性。

- 数据加密和传输安全:配置和使用Ceph的加密功能,保护数据的隐私和机密性,确保数据在传输过程中的安全性。

5. 升级和扩展Ceph集群:- 升级Ceph软件:根据官方文档,了解和执行Ceph软件的升级过程,确保平滑升级,并避免数据丢失或故障。

ceph 集群配置iscsi的操作步骤 -回复

ceph 集群配置iscsi的操作步骤 -回复

ceph 集群配置iscsi的操作步骤-回复Ceph是一种分布式存储系统,它能够提供高性能和高可靠性的存储解决方案。

同时,Ceph还支持ISCSI(Internet Small Computer System Interface),这意味着可以将Ceph集群用作ISCSI存储,为用户提供块级存储服务。

下面将一步一步介绍如何配置Ceph集群以使用ISCSI。

步骤一:安装和配置Ceph集群1. 首先,安装Ceph软件包。

在Ceph官方网站上可以找到相应的软件包和下载链接。

2. 在所有Ceph节点上配置和启动Ceph集群。

这包括创建Ceph配置文件(如ceph.conf)和密钥环文件(如ceph.client.admin.keyring)。

3. 创建Ceph存储池(pool)用于存储ISCSI镜像。

可以使用命令"ceph osd pool create"来创建一个新的pool。

步骤二:配置ISCSI Gateway1. 在其中一个Ceph节点上配置ISCSI Gateway。

ISCSI Gateway将充当ISCSI目标,为客户端提供ISCSI卷。

2. 在Ceph配置文件(ceph.conf)中添加ISCSI Gateway的配置选项,如以下示例所示:[client.iscsigw]keyring = /etc/ceph/iscsi-gateway.keyringclient_mount_uid = 0client_mount_gid = 0pool = iscsi-pool这些选项定义了ISCSI Gateway使用的密钥环文件、ceph用户权限的UID和GID,以及存储ISCSI镜像的池(pool)。

3. 创建并导入ISCSI Gateway所需的密钥环文件。

可使用以下命令创建密钥环文件:ceph auth get-or-create client.iscsigw mon 'profile rbd' osd'profile rbd pool=iscsi-pool'这将生成一个密钥环文件,其中包含ISCSI Gateway所需的权限。

ceph分布式存储技术参数

ceph分布式存储技术参数

ceph分布式存储技术参数
摘要:
1.Ceph 简介
2.Ceph 的分布式存储技术
3.Ceph 的技术参数
4.总结
正文:
1.Ceph 简介
Ceph 是一种开源的、高度可扩展的分布式存储系统,旨在提供优秀的性能、可靠性和可扩展性。

它采用了一种名为“对象存储”的数据存储方式,使得数据可以在集群中的多个节点上分布式存储,从而实现了高可用性和高性能。

2.Ceph 的分布式存储技术
Ceph 的分布式存储技术主要包括三个部分:Ceph OSD(Object Storage Daemon)、Ceph Monitor(Ceph Mon)和Ceph 元数据服务器。

其中,Ceph OSD 负责数据存储和数据复制,Ceph Monitor 负责集群管理和监控,Ceph 元数据服务器负责存储元数据信息。

3.Ceph 的技术参数
Ceph 的技术参数主要包括以下几个方面:
(1) 存储容量:Ceph 可以横向扩展,理论上可以支持无限的存储容量。

(2) 数据可靠性:Ceph 支持数据副本,可以根据用户的需求进行配置,以实现不同的数据可靠性和性能平衡。

(3) 性能:Ceph 的性能非常出色,可以支持高并发访问和大规模数据存储。

(4) 可扩展性:Ceph 可以水平扩展,可以支持大量的节点和存储设备。

(5) 安全性:Ceph 支持多种访问控制方式,可以实现数据的安全存储和访问。

ceph的云盘操作流程

ceph的云盘操作流程

ceph的云盘操作流程Ceph 是一个分布式存储系统,它提供了云盘(RBD - RADOS Block Device)作为一种存储方式,允许用户在分布式存储集群上创建块设备。

以下是在 Ceph 中使用云盘的一般操作流程:Ceph 环境准备:安装和配置Ceph 集群:搭建一个Ceph 存储集群,包括Monitor、OSD(Object Storage Daemon)等组件。

配置 Ceph Block Device:确保 RBD(RADOS Block Device)服务可用,通常在 Ceph Monitor 节点上启动 RBD 服务。

创建 Ceph Pool:在 Ceph 集群中创建一个存储池(pool)用于存放块设备。

可以使用 ceph osd pool create 命令来创建。

bashCopy codeceph osd pool create {pool_name} {pg_num} [{pgp_num}]创建 Ceph 块设备(云盘):使用 rbd create 命令创建一个块设备。

bashCopy coderbd create {pool_name}/{image_name} --size {image_size} 映射块设备到本地主机:使用 rbd map 命令将块设备映射到本地主机。

bashCopy coderbd map {pool_name}/{image_name}分区和格式化块设备:在本地主机上,使用 fdisk 或其他分区工具对映射的块设备进行分区。

格式化分区,例如使用 mkfs 命令。

挂载块设备:使用 mount 命令将格式化后的块设备挂载到本地文件系统。

bashCopy codemount /dev/rbd/{pool_name}/{image_name} {mount_point}使用云盘:现在,块设备已经成功映射、分区、格式化和挂载到本地主机,你可以像使用普通硬盘一样在本地文件系统中使用这个块设备。

CEPH分布式存储部署

CEPH分布式存储部署
出现以下提示,启动成功:
[root@node1 ~]# ceph -s
cluster a500528d-fc02-464e-b944-bddacbb5c3d1
health HEALTH_ERR 192 pgs stuck inactive; 192 pgs stuck unclean; no osds
initrd /initramfs-3.10.29.img
#ceph osd crush add osd.0 0.2 root=default host=node2
2.3.5启动osd进程
#ceph-osd -i 0
2.3.6查看进程
#ps -ef|grep ceph-osd
以下提示启动成功
[root@node2 ~]# ps -ef|grep ceph-osd
public network= 192.168.100.0/24
cluster network =172.16.100.0/24
osd pool default size =2
osd pool default min size = 1
max open files= 65535
mon osd full ratio = .95
检查mds状态,成功启动如下
[root@node1 ~]# ceph mds stat
e19: 1/1/1 up {0=node1=up:active}
3.1确定操作系统内核
3.1.1查看内核版本
#uname -r
若内核版本低于2.6.32时,建议升级到2.6.34或以上
3.1.2更新内核,编译ceph模块
[root@node1 linux-3.10.29]# ll /boot/|grep 3.10

cephadm对象存储使用方式

cephadm对象存储使用方式

cephadm对象存储使用方式Ceph是一个开源的分布式存储系统,它提供了对象存储的功能,可以用于存储和管理大规模的数据。

Ceph的对象存储使用方式可以通过cephadm来实现,本文将介绍cephadm对象存储的使用方式。

1. 安装Ceph集群:首先需要安装Ceph集群,可以使用cephadm工具进行安装。

cephadm是一个用于管理Ceph集群的工具,它可以简化Ceph集群的部署和管理过程。

通过cephadm 工具,我们可以方便地安装和配置Ceph集群。

2. 创建存储池:在使用Ceph对象存储之前,需要先创建一个存储池。

存储池是Ceph中用于存储对象的逻辑容器,可以将不同类型的对象存储到不同的存储池中。

可以使用cephadm工具来创建存储池,通过指定存储池的名称、副本数、存储池的类型等参数来创建存储池。

3. 上传对象:在创建好存储池之后,就可以开始上传对象到Ceph 集群中了。

可以使用cephadm工具提供的命令来上传对象,通过指定对象的名称、对象的路径等参数来上传对象。

4. 下载对象:在上传对象之后,可以使用cephadm工具提供的命令来下载对象。

通过指定对象的名称、下载对象的路径等参数来下载对象。

5. 删除对象:如果不再需要某个对象,可以使用cephadm工具提供的命令来删除对象。

通过指定对象的名称来删除对象。

6. 添加用户:为了实现对象存储的权限控制,可以使用cephadm 工具提供的命令来添加用户。

通过指定用户名和密码等参数来添加用户。

7. 授权用户:在添加用户之后,需要为用户授权,以实现权限控制。

可以使用cephadm工具提供的命令来为用户授权,通过指定用户的名称和权限等参数来授权用户。

8. 查看存储池信息:可以使用cephadm工具提供的命令来查看存储池的信息。

通过指定存储池的名称来查看存储池的信息,如存储池中对象的数量、存储池的大小等。

9. 查看对象信息:可以使用cephadm工具提供的命令来查看对象的信息。

基于开源Ceph的自研分布式存储架构及关键技术分析

基于开源Ceph的自研分布式存储架构及关键技术分析

I nternet Technology互联网+技术一、业务需求对存储技术的新要求(一)非结构化数据高速增长及对象存储的兴起随着大数据、云计算和物联网技术的迅速发展,手机短视频、基于摄像头的视频监控业务也随之迅猛发展,带来流量爆炸式增长,企业也面临着加密越来越多的大规模、非结构化的数据存储、敏感信息和隐私数据以及AI识别等处理需求。

由于传统的集中式存储系统存在数据规模有限、存储和处理能力瓶颈、单点故障等问题,已经难以满足现阶段的业务需求。

为了更好地满足大规模数据存储和处理的需求,从成本考虑,分布式存储系统的软硬件投资成本相比公有云具有明显优势;从国产化考虑,分布式存储系统自主可控,适配龙芯CPU、麒麟V10和统信UOS操作系统,能够根据业务的个性化需求定制需求支撑。

分布式存储系统将数据分散存储在多个节点上,通过网络进行通信和协作,实现高可用性、高扩展性和高性能的存储和处理。

目前,对自研分布式存储系统的要求进一步提高,应当具备数据迅速增长、多样化存储类型支持、自主可控及成本效益考量等方面的能力,并能够根据具体需求进行设计和优化,以满足企业或组织特定的数据存储和处理需求。

(二)存储虚拟化和容器化的发展存储虚拟化技术和容器化技术的发展使得分布式存储系统能够更高效地在虚拟化环境或容器化环境中部署和管理。

容器化有两个重点,一是控制平面,能够调度服务器资源来运行企业不同类型的应用;二是数据平台,无状态应用的数据要想落到统一存储上,开源Ceph提供的块存储是很好的解决方案,为企业提供了低成本、高可用性和可扩展性,并已经在业界取得了广泛应用。

(三)异地多活灾备和数据复制新要求随着企业全球化业务的增长,异地多活灾备和数据复制成为迫切需求。

分布式存储系统能够跨多个地理位置复制数据,以增加数据的可用性和容灾能力。

对于异地多活,集群在不同的地理位置部署多个存储集群,通过复制数据和具有自动故障转移功能的Monitor来实现数据的跨地理位置访问与同步,即使一个地点的存储集群发生故障,其他地点的集群仍然可以提供服务。

ceph操作手册

ceph操作手册

ceph操作手册Ceph是一种分布式存储系统,提供了高性能、高可用性和可扩展性的存储服务。

以下是Ceph操作手册,以帮助您快速上手使用Ceph。

一、概述Ceph是一个开源的分布式存储系统,具有高性能、高可用性和可扩展性,广泛应用于存储大规模数据。

Ceph提供了块存储、文件存储和对象存储三种服务,可以根据实际需求选择合适的存储类型。

二、安装与部署1.安装前准备:确保服务器硬件满足Ceph的要求,包括CPU、内存、磁盘和网络等。

同时,需要准备Ceph软件包和安装工具。

2.安装Ceph:根据您的操作系统和需求,选择合适的Ceph版本,并按照官方文档的指引进行安装。

3.配置Ceph:编辑Ceph的配置文件,设置集群名称、监控组件、存储组件等参数。

4.启动Ceph:启动Ceph的各个组件,包括监视器、存储节点等。

5.测试Ceph:通过创建对象、文件或块设备,测试Ceph 是否正常工作。

三、管理维护1.监控Ceph:使用Ceph命令行工具或图形化界面,监控集群状态、性能指标和故障排除等。

2.维护Ceph:定期进行Ceph的维护操作,如更新配置、修复故障和升级版本等。

3.数据备份与恢复:定期备份Ceph中的数据,以防止数据丢失。

同时,需要制定数据恢复计划,以便在数据损坏或丢失时快速恢复。

4.安全防护:确保Ceph集群的安全性,采取措施防止未经授权的访问和数据泄露。

四、性能优化1.调整配置:根据实际需求和硬件性能,调整Ceph的配置参数,提高存储性能。

2使用SSD:使用SSD可以提高I/O性能和数据可靠性。

3.多路径I/O:配置多路径I/O可以增加数据传输带宽和可靠性。

4.压缩与去重:启用数据压缩和去重功能可以减少存储空间占用和网络带宽消耗。

五、常见问题与解决方案1.Ceph集群无法启动:检查硬件和网络连接是否正常,查看日志文件查找故障原因。

2.数据损坏或丢失:检查数据备份和恢复计划是否完善,及时采取恢复措施。

Ceph集群概念以及部署

Ceph集群概念以及部署

Ceph集群概念以及部署⼀、Ceph基础: 1、基础概念: ceph 是⼀个开源的分布式存储,同时⽀持对象存储、块设备、⽂件系统 ceph是⼀个对象(object)式存储系统,它把每⼀个待管理的数据流(⽂件等数据)切分伟⼀到多个固定⼤⼩(默认4M)的对象数据,并以其为原⼦单元(原⼦是构成元素的最⼩单元)完成数据的读写 对象数据的底层存储服务是由多个存储主机(host)组成的存储集群,该集群也被称之为RADOS(reliable automatic distributed object store)存储集群,即可靠的、⾃动化的、分布式的对象存储系统 librados是RADOS存储集群的API,⽀持C/C++/JAVA/Python/ruby/go/php等多种编程语⾔客户端 2、ceph的设计思想: ceph的设计宗旨在实现以下⽬标: 每⼀组件皆可扩展 ⽆单点故障 基于软件(⽽⾮专业设备)并且开源(⽆供应商) 在现有的廉价硬件上运⾏ 尽可能⾃动管理,减少⽤户⼲预 3、ceph版本: x.0.z - 开发版 x.1.z - 候选版 x.2.z - 稳定、修正版 4、ceph集群⾓⾊定义: 5、ceph集群的组成部分: 若⼲的Ceph OSD(对象存储守护进程) ⾄少需要⼀个Ceph Monitor 监视器(数量最好为奇数1,3,5,7........) 两个或以上的Ceph管理器 managers,运⾏Ceph⽂件系统客户端时还需要⾼可⽤的Ceph Metadata Server(⽂件系统元数据服务器) RADOS Cluster:由多台host存储服务器组成的ceph集群 OSD(Object Storage Daemon):每台存储服务器的磁盘组成的存储空间 Mon(Monitor):Ceph的监视器,维护OSD和PG的集群状态,⼀个Ceph集群⾄少有⼀个Mon节点,可以是⼀三五七等这样的奇数个 Mgr(Manager):负责跟踪运⾏时指标和Ceph集群的当前状态,包括存储利⽤率,当前性能指标和系统负载等 6、Ceph集群术语详细介绍: 6.1 Monitor(ceph-mon)ceph监视器: 软件包名&进程名:ceph-mon 在⼀个主机上运⾏的⼀个守护进程,⽤于维护集群状态映射(maintains maps of the cluster state),⽐如ceph 集群中有多少存储池、每个存储池有多少PG 以及存储池和PG的映射关系等, monitor map, manager map, the OSD map, the MDS map, and the CRUSH map,这些映射是Ceph 守护程序相互协调所需的关键群集状态,此外监视器还负责管理守护程序和客户端之间的⾝份验证(认证使⽤cephX 协议)。

Ceph安装部署与测试调优

Ceph安装部署与测试调优

Ceph安装部署及测试调优目录1.熟悉Ceph存储的基本原理与架构2.掌握Ceph集群的安装部署方法3.掌握Ceph常见的性能测试调优方法目录1.基本概念及架构2.安装部署3.测试调优Ceph是一个统一的分布式存储系统,具有高扩展性、高可靠性、高性能,基于RADOS(reliable, autonomous, distributed object store ),可提供对象存储、块设备存储、文件系统存储三种接口RADOS:是Ceph集群的精华,为用户实现数据分配、Failover等集群操作。

LIBRADOS:Librados是RADOS的提供库,上层的RBD、RGW和CephFS都是通过LIBRADOS访问的,目前提供PHP、Ruby、Java、Python、C和C++支持。

RBD:RBD全称RADOS block device,是Ceph对外提供的块设备服务。

RGW:RGW全称RADOS gateway,是Ceph对外提供的对象存储服务,接口与S3和Swift兼容。

CephFS:CephFS全称Ceph File System,是Ceph对外提供的文件系统服务OSD :Ceph OSD 进程,功能是负责读写数据,处理数据的复制、恢复、回填、再均衡,并通过检查其他OSD 守护进程的心跳来向Ceph Monitors 提供一些监控信息。

Monitor :集群的管理进程,维护着展示集群状态的各种图表,包括监视器图、OSD 图、归置组(PG )图、和CRUSH 图。

MDS :Ceph 元数据服务器,为Ceph 文件系统存储元数据(也就是说,Ceph 块存储和Ceph 对象存储不使用MDS )。

Ceph存储集群Object :Ceph 最底层的存储单元是Object 对象,每个Object 包含元数据和原始数据。

PG :PG 全称Placement Groups ,即归置组,是存放objects 的逻辑概念,一个PG 可映射到多个OSD 。

ceph 集群配置iscsi的操作步骤

ceph 集群配置iscsi的操作步骤

ceph 集群配置iscsi的操作步骤1. 引言1.1 概述本文将介绍如何在Ceph集群中配置iSCSI,并提供操作步骤以帮助读者完成配置过程。

iSCSI(Internet Small Computer System Interface)是一种基于IP 网络的存储协议,它允许主机通过网络访问远程存储设备,模拟出本地连接的效果。

Ceph是一个开源、分布式存储平台,具有高扩展性和可靠性,与iSCSI结合使用能够提供更多的存储解决方案。

1.2 文章结构本文将包含以下几个部分:概述、ceph与iSCSI集成优势、准备工作、ceph集群配置步骤、配置iSCSI Initiator客户端和结论。

首先,文章将通过简要介绍概述部分来引入话题,并描述本文的组织结构。

然后,我们将讨论为什么选择使用ceph与iSCSI集成,并探讨该集成在存储环境中所带来的优势。

接下来,我们将介绍在进行配置之前需要做的准备工作。

随后,在ceph集群配置步骤部分,我们将详细说明如何安装和配置ceph集群,并创建Pool和RBD镜像。

然后,在配置iSCSI Initiator客户端部分,我们将讲解如何在客户端安装Initiator软件包、发现远程iSCSI目标并连接,以及格式化与挂载iSCSI磁盘的步骤。

最后,在结论部分,我们将总结本文的主要内容,并展望ceph与iSCSI集成在未来的发展方向。

1.3 目的本文旨在帮助读者了解如何在Ceph集群中配置iSCSI,并提供详细的操作步骤。

通过阅读本文,读者将能够掌握配置Ceph集群和设置iSCSI Initiator客户端所需的技能,并了解Ceph和iSCSI集成所带来的优势。

无论是初学者还是有经验的存储管理员,都可以从本文中获得有益的知识和参考指导。

将Ceph和iSCSI 相结合可以为存储环境提供更灵活、可靠和可扩展的解决方案,本文也旨在推广这种集成应用并促进其未来发展。

2. ceph 集群配置iscsi的操作步骤:2.1 iSCSI简介:iSCSI(Internet Small Computer System Interface)是一种基于IP网络的存储协议,它允许远程主机通过TCP/IP网络访问存储设备。

  1. 1、下载文档前请自行甄别文档内容的完整性,平台不提供额外的编辑、内容补充、找答案等附加服务。
  2. 2、"仅部分预览"的文档,不可在线预览部分如存在完整性等问题,可反馈申请退款(可完整预览的文档不适用该条件!)。
  3. 3、如文档侵犯您的权益,请联系客服反馈,我们会尽快为您处理(人工客服工作时间:9:00-18:30)。

Ceph分布式存储平台部署手册目录1.CEPH的架构介绍 (5)2.CEPH在OPENSTACK中应用的云存储的整体规划 (6)3.CEPH集群安装在UBUNTU 12.04 (7)3.1.配置ceph源73.2.依需求修改ceph.conf配置文件73.3.设置主机的hosts 93.4.设置集群节点之间无密钥访问93.5.创建目录103.6.创建分区与挂载103.7.执行初始化113.8.启动ceph 113.9.ceph健康检查114.CEPH集群安装在CENTOS6.4 (12)4.1.安装更新源124.2.使用rpm安装ceph0.67.4 124.3.依需求修改ceph.conf配置文件134.4.设置主机的hosts 214.5.设置集群节点之间无密钥访问214.6.创建目录224.7.执行初始化224.8.启动ceph 224.9.ceph健康检查235.OPENSTACK GLANCE 使用CEPH集群的配置 (24)5.1.创建卷池和图像池245.2.增加两个池的复制水平245.3.为池创建 Ceph 客户端和密钥环245.4.在计算节点应用密钥环245.4.1.创建libvirt密钥245.4.2.计算节点ceph安装255.5.更新你的 glance-api 配置文件256.OPENSTACK VOLUMES使用CEPH集群的配置 (27)6.1.计算节点ceph安装276.2.创建临时的 secret.xml 文件276.3.设定 libvirt 使用上面的密钥286.4.更新 cinder 配置286.4.1.cinder.conf文件更改286.4.2.更改 cinder 启动脚本配置文件296.4.3.更改/etc/nova/nova.conf配置296.4.4.重启 cinder 服务296.5.验证cinder-volume 296.6.验证rdb创建volume 307.挂载CEPHFS (31)7.1.配置/etc/fstab 317.2.挂载vm实例目录318.FQA (32)1.CEPH的架构介绍CEPH的组件主要包括客户端ceph client(数据用户),元数据服务器mds(缓存和同步分布式元数据),一个对象存储集群osd(将数据和元数据作为对象存储,执行其他关键职能),集群监视器mon(执行监视功能)。

2.CEPH在openstack中应用的云存储的整体规划3.CEPH集群安装在ubuntu 12.043.1.配置ceph源echo deb /debian-bobtail/ $(lsb_release -sc) main | sudo tee /etc/apt/sources.list.d/ceph.listapt-get update && apt-get install ceph #安装cephceph –V #检查ceph的安装版本3.2.依需求修改ceph.conf配置文件/etc/ceph/ceph.conf内容如下:[global]auth supported = cephxkeyring = /etc/ceph/keyring.admin[mds]keyring = /etc/ceph/keyring.$name[mds.0]host = network-n01[osd]osd data = /srv/ceph/osd$idosd journal = /srv/ceph/osd$id/journalosd journal size = 512osd class dir = /usr/lib/rados-classeskeyring = /etc/ceph/keyring.$name; working with ext4filestore xattr use omap = trueosd mkfs type = xfsosd mkfs options xfs = -fosd mount options xfs = rw,noatime; solve rbd data corruptionfilestore fiemap = true[osd.0]host = network-n01cluster addr = 10.10.10.21public addr = 192.168.2.21devs = /dev/sdb1[osd.1]host = network-n01cluster addr = 10.10.10.21public addr = 192.168.2.21devs = /dev/sdc1[osd.2]host = control-n01cluster addr = 10.10.10.11public addr = 192.168.2.11devs = /dev/cinder-volumes/vol002 [mon]mon data = /srv/ceph/mon$id[mon.0]host = network-n01mon addr = 10.10.10.21:6789[mon.1]Host = control-n01Mon addr = 10.10.10.11:6789[client.volumes]keyring = /etc/ceph/ceph.client.volumes.keyring#[client.images]# keyring = /etc/ceph/client.images.keyring3.3.设置主机的hosts主机名是ceph通信的基础,因此集群中每个节点需要hosts同步。

/etc/hosts如下:192.168.2.11 control-n01 192.168.2.21 network-n01 192.168.2.31 compute-n01 192.168.2.32 compute-n023.4.设置集群节点之间无密钥访问元数据节点、监控节点、存储节点ssh配置相同ssh-keygen 一直回车生成密钥ssh-copy-id –i ~/root/.ssh/id_rsa.pub 10.10.10.11 #复制公钥需去认证目标主机3.5.创建目录mkdir -p /srv/ceph/osd0mkdir –p /srv/ceph/osd1mkdir –p /srv/ceph/osd2mkdir –p /srv/ceph/mon0mkdir –p /srv/ceph/mon1mkdir –p /srv/ceph/mds3.6.创建分区与挂载parted /dev/sdb #parted分区parted /dev/sdcmkfs.xfs –f /dev/sdb1mkfs.xfs –f /dev/sdc1vim /etc/fstab #添加挂载在fstab/dev/sdb1 /srv/ceph/osd0 xfs rw,noexec,nodev,noatime,nodiratime,barrier=0 0 0/dev/sdc1 /srv/ceph/osd1 xfs rw,noexec,nodev,noatime,nodiratime,barrier=0 0 03.7.执行初始化mkcephfs -a -c /etc/ceph/ceph.conf -k /etc/ceph/keyring.admin chmod +r /etc/ceph/keyring.admin3.8.启动cephservice ceph –a start3.9.ceph健康检查ceph –sceph osd treeceph healthceph df4.CEPH集群安装在centos6.44.1.安装更新源rpm --import 'https:///git/?p=ceph.git;a=blob_plain;f=keys/release.asc' rpm -Uvh /pub/epel/6/x86_64/epel-release-6-8.noarch.rpm4.2.使用rpm安装ceph0.67.4在系统上安装ceph /rpm-dumpling/rhel6/x86_64/ 依据依赖关系安装CEPH 0.6.7.4yum install -y leveldb snappy xfsprogs boost gdisk python-lockfile gperftools-libs python-flask python-requests python-argparserpm -i /rpm-dumpling/rhel6/x86_64/libcephfs1-0.67.4-0.el6.x86_64.rpmrpm -i /rpm-dumpling/rhel6/x86_64/librados2-0.67.4-0.el6.x86_64.rpmrpm -i /rpm-dumpling/rhel6/x86_64/librbd1-0.67.4-0.el6.x86_64.rpmrpm -i /rpm-dumpling/rhel6/x86_64/python-ceph-0.67.4-0.el6.x86_64.rpmrpm -i /rpm-dumpling/rhel6/x86_64/ceph-0.67.4-0.el6.x86_64.rpm rpm -i /rpm-dumpling/rhel6/x86_64/ceph-fuse-0.67.4-0.el6.x86_64.rpm4.3.依需求修改ceph.conf配置文件[global]auth supported = cephxmax open files = 131072log file = /var/log/ceph/$name.logpid file = /var/run/ceph/$name.pidkeyring = /etc/ceph/keyring.admin [mon]mon data = /srv/ceph/$name;osd pool default size = 3;osd pool default crush rule = 0;mon clock drift allowed = 1;mon clock drift warn backoff = 30;debug ms = 1;debug mon = 20;debug paxos = 20;debug auth = 20[mon.0]host = DG-store001mon addr = 172.32.4.100:6789[mon.1]host = DG-store002mon addr = 172.32.4.101:6789[mon.2]host = DG-store003mon addr = 172.32.4.102:6789[mds]keyring = /etc/ceph/keyring.$name; mds logging to debug issues.;debug ms = 1;debug mds = 20[mds.0]host = DG-store001[mds.1]host = DG-store002[osd]osd data = /srv/ceph/$nameosd journal = /srv/ssd/$name/journalosd journal size = 5120 ; journal size, in megabyteskeyring = /etc/ceph/keyring.$name;journal dio = false; osd recovery max active = 3; osd logging to debug osd issues, in order of likelihood of being ; helpful;debug ms = 1;debug osd = 20;debug filestore = 20;debug journal = 20osd mkfs type = xfsosd mount options xfs = rw,noatimeosd mkfs options xfs = -f[osd.0]host = DG-store001public address = 172.16.4.100cluster address = 192.168.2.10devs = /dev/sdb[osd.1]host = DG-store001public address = 172.16.4.100cluster address = 192.168.2.10devs = /dev/sdc[osd.2]。

相关文档
最新文档