Cepsh集群原理架构及配置操作 1、介绍 2、Ceph集群配置 3、关于存储设备 4、对象存储实现方式 =========================================================================================================================== 1、介绍 ceph存储集群是部署ceph分布式存储的基础,其之上的是RADOS。Ceph存储集群启动之后有两类进程,Ceph OSD守护进程将数据 存储为存储节点上的对象;Ceph Mon守护进程负责维护集群映射的主副本。一个Ceph集群中可能包含上千个存储节点。在Ceph 集群中最少需要两个两个OSD守护进程用于数据复制,至少需要一个Mon守护进程。 2、Ceph集群配置 Ceph集群启动运行需要很少的几个配置,绝大多数配置都有默认值。每个Ceph进程可以从多个源获取配置参数,例如:配置文件 全局配置、监控节点、命令行以及环境变量。配置选项可以是全局配置选项适应于所有守护进程或者适应于特定的守护进程。 3、关于存储设备 Ceph OSD Ceph OSD进程的数据都存储在Ceph集群中,通常来说每个Cpeh OSD进程对应一个存储设备(存储设备可以是传统的机械硬盘 或者快速固态硬盘),存储设备也可以是不同存储设备的组合,例如用SSD来存储 metadata、使用 HDD 来存储数据。每个 Ceph集群中OSD进程通常取决与数据量以及数据冗余级别。 Ceph Monitor Cpeh Monitor守护进程管理着集群成员信息以及身份验证等。 4、对象存储实现方式 Cpeh集群中OSD实现存储方式都为 ObjectStore,ObjectStore实现方式有两种。从Luminous 12.2.z 版本之后,后端使用实 现对象存储的方式默认是 BlueStore。在 Luminous 之前,使用的对象存储方式都是 FileStore。 BlueStore功能特点 1、直接管理使用存储设备。避免了本地文件系统如XFS等复杂抽象层对性能的限制。 2、元数据的管理存储使用RockDB。RockDB是一种嵌入式Key-Value数据库,相对于传统的关系型数据及其他嵌入式数据库有着 更好的性能表现。 3、更强大的元数据和数据的校验和机制。默认写入BlueStore的所有数据都需要一个或多个校验和进行校验保护。返回给用户 的元数据和数据都经过严格的校验和验证。 4、压缩机制。写入的数据在存储的磁盘时可以选择将数据进行压缩。 5、多设备分层使用。BlueStore允许单独的将内部日志写入高速的存储设备上去。 6、写时复制,copy-on-write。Ceph中RBD和CephFS的快照功能都依赖于高校的写时复制功能。 FileStore与BlueStore比较 1、FileStore依赖于抽象的文件系统。 2、使用LevelDB管理和存储元数据。 3、官方只建议在XFS文件系统之上使用FileStore。 ===========================================================================================================================