前言在之前一直想尝试使用CEPH进行故障迁移/网络迁移测试,一直没有了解这东西该如何实际部署和使用,今天索性学习下。注意:如果读文章的你同样使用虚拟机做测试,建议请先阅读:虚拟机内网带宽修正,CEPH需要大量带宽进行文件同步及存储池同步。执行首先在电脑上创建4个PVE虚拟机,并开启CPU虚拟化,注意虚拟硬盘保存位置及RAM和CPU分配量:之后需要对其进行更换源仓库操作,并禁用官方的企业源。正常创建完成后,首先将所有虚拟机加入到同一个集群内:注意:所有服务器需要有至少一个接口在同一个网络用于内部通讯在所有服务器加入集群后,每台服务器都要单独安装CEPH,过程很简单不再赘述CEPH OSD、POOL创建首先需要创建OSD的堆积规则,OSD是存储池的基本单位,可以简单理解为Raid的基本磁盘,单块的OSD损失并不会造成数据丢失,而OSD存储的堆积规则是用于告知CEPH如何存储文件,或者说告知它将文件存储在哪个类型的设备中。在本次案例中,每个虚拟机均有一块100G的SSD和一块200G的HDD虚拟硬盘,那么根据两种硬盘类型就可以分别创建以下规则:创建SSD堆积规则ceph osd crush
情况:在进行CEPH测试中,发现由VMware workstation 17虚拟出来的三个虚拟机之间网络很慢,完全打不到正常的单机速度(约数百MBPS甚至更低),在网络上进行检索后发现此问题并无十分明显的解决方案研究:STFW一段时间后,一个较为关键的配置文件节点出现频率较高:ethernet0.virtualDev = "vmxnet3"根据其他博主和使用人员描述,该选项用于控制vmware要模拟的网卡的类型,但默认vmware workstation 17生成的虚拟机配置文件中并未存在此配置节点,故所以我并不觉得是它的问题,仍然尝试调整虚拟交换机、更改MTU等参数进行打流测试,结果十分不理想测试中往往会得到一个十分不理想的数值,在 这份问题 中提到了我已经进行的大部分操作,且都已经尝试无效,折腾了数个小时后,无奈尝试手动将 ethernet0.virtualDev = "vmxnet3" 添加到虚拟机配置文件中。注意:此配置文件节点更改后,在虚拟机内的对应设备名称会变化,记得修改对应的网络配置文件在配置文件更改之后重新进行打流测试:结果发现速
粉毛变态老狐狸
学啥都学不动的一条懒狗