proxmox超融合集群挂接nfs出错删除挂接点操作备忘 精选 原创 sery 2019-01-13 00:06:46 博主文章分类:《互联网运营智慧》 ©著作权 文章标签 proxmox 超融合 私有云 文章分类 运维 ©著作权归作者所有:来自51CTO博客作者sery的原创作品,请联系作者获取转载授权,否则将追究法律责任 4节点proxmox生产环境,由于在做nfs共享时,为考虑仔细,存在多个pve(集群和单机)备份时,相同虚拟机ID同时备份到此nfs共享目录的情况,为了区别,需要把共享点进行分离。[root@localhost pve_dump]# more /etc/exports /data/db_bk 172.16.98.0/24(rw,all_squash,anOnuid=500,anOngid=500) /data/pve_dump 172.16.98.0/24(rw,all_squash,anOnuid=500,anOngid=500)这是原nfs配置,优化以后,如下所示:[root@localhost pve_dump]# more /etc/exports /data/db_bk 172.16.98.0/24(rw,all_squash,anOnuid=500,anOngid=500) /data/pve_dump/pve_cluster 172.16.98.0/24(rw,all_squash,anOnuid=500,anOngid=500) /data/pve_dump/pve_150 172.16.98.0/24(rw,all_squash,anOnuid=500,anOngid=500) /data/pve_dump/pve_151 172.16.98.0/24(rw,all_squash,anOnuid=500,anOngid=500)不同的proxmox挂接不同的共享目录,就不会引起混淆了。不幸的是,挂接的时候,在proxmox web管理界面输入了两次同样的挂接ID,导致挂接失败。然后重新改一个名词,挂接成功。但登录proxmox宿主系统debian9,查看目录/mnt/pve,发现有不正常的挂接目录(没挂上,但ls -al 显示若干问号)。感觉不爽,企图用rm删除,无法执行,再用mv指令,还是不行。一气之下,重启了proxmox集群的某个物理服务器,起来后看看是否能删除。还好,系统起来后,那两个曾经异常的目录,用rm可以直接删除了。但我不能把proxmox集群的服务器全部重启一遍,毕竟是生产环境。不过从上边的操作可知,这种目录是可以删掉的。怎么下手呢?根据删除操作输出的提示“cannot stat 'backup156': Stale file handle”。这个提示大概意思是,文件句柄还处于打开状态。root@pve10:~# ls -al /mnt/pve/ ls: cannot access '/mnt/pve/nfs156backup': Stale file handle ls: cannot access '/mnt/pve/backup156': Stale file handle total 16 drwxr-xr-x 6 root root 4096 Jan 12 23:26 . drwxr-xr-x 3 root root 4096 Dec 19 22:45 .. d????????? ? ? ? ? ? backup156 drwxr-xr-x 6 500 500 4096 Jan 5 16:09 nfs155 drwxr-xr-x 4 500 500 4096 Jan 29 2015 nfs156 d????????? ? ? ? ? ? nfs156backup试试umount该目录。root@pve20:/mnt/pve# umount backup156 root@pve20:/mnt/pve# umount nfs156backup执行成功,再看看属性:root@pve20:/mnt/pve# ls -al total 24 drwxr-xr-x 6 root root 4096 Jan 12 23:26 . drwxr-xr-x 3 root root 4096 Dec 19 22:45 .. drwxr-xr-x 2 root root 4096 Dec 28 19:09 backup156 drwxr-xr-x 6 500 500 4096 Jan 5 16:09 nfs155 drwxr-xr-x 4 500 500 4096 Jan 29 2015 nfs156 drwxr-xr-x 2 root root 4096 Jan 12 23:16 nfs156backup问号没有了,执行删除。root@pve10:/mnt/pve# rm -rf backup156/ nfs156backup/ root@pve10:/mnt/pve# ls -al total 20 drwxr-xr-x 5 root root 4096 Jan 12 23:42 . drwxr-xr-x 3 root root 4096 Dec 19 22:45 .. drwxr-xr-x 2 root root 4096 Jan 12 23:40 del drwxr-xr-x 6 500 500 4096 Jan 5 16:09 nfs155 drwxr-xr-x 4 500 500 4096 Jan 29 2015 nfs156问题解决! 赞 收藏 评论 分享 举报 上一篇:Haproxy开启日志,但不重复往messages里写 下一篇:用备份玩死proxmox超融合私有云集群 提问和评论都可以,用心的回复会被更多人看到 评论 发布评论 全部评论 () 最热 最新 相关文章 Proxmox VE 超融合集群销毁Ceph Pool 作者:田逸(formyz)销毁Ceph Pool的目的一套五节点的Proxmox VE超融合集群,当初为有效利用资源,配备了Nvme高性能磁盘和大容量的SATA机械磁盘(如图所示),高性能Nvme磁盘用于虚拟机的系统盘、数据库的数据存储盘,而大容量的机械盘则用于存储诸如图片、视频、共享数据等对性能要求不高的场景。由于机构的业务发展迅猛,收益较好(个人猜测),决策人打算将现有的机械盘全部更换成Nvm Web 命令行 离线 在线更换Proxmox VE超融合集群Ceph OSD磁盘 因为资源紧张的原因,担心一旦关机,虚拟机因为没有空闲的资源而被冻结,以致于不能漂移,导致部分服务停止,只好让机房帮忙热插拔。幸运的是,插上去能够被系统所识别(/dev/sdf就是新插入的硬盘)。开始对新加入磁盘的服务器做创建OSD操作。 热插拔 服务器 Proxmox VE 超融合集群不停服务新增配置 五个节点的Proxmox VE超融合集群,创建了两个Ceph Pool,一个是高速的Nvme存储池,另一个是大容量SATA存储池。现在需要将原有的SATA磁盘全部拔出来,换成高速Nvme磁盘。首先,先销毁由SATA机械盘组成的“hdd_pool”,选中它,然后点击按钮“销毁”。注意,必须先销毁Ceph Pool,在销毁组成Ceph Pool的OSD盘,如果顺序反了,在销毁Ceph OSD过程中,剩 Web 服务器 命令行 proxmox超融合集群用户授权 作者:田逸(sery@163.com) Proxmox超融合私有云交付以后,存在一些有风险的操作,如果把控制权完全交给经验不够的人,很可能造成不可预料的后果。比如修改节点主机名导致集群崩溃、对ceph ODS不当操作导致ceph故障…。为了保证超融合的安全稳定,有必要对不同的用户进行有效授权。 Proxmox的权限,涉及到数据中心及虚拟机(没有针对物理节点的相关权限)。几个地方 proxmox 超融合 私有云 权限管理 Proxmox VE 超融合集群实践真传 第1章 老司机眼中的私有云... 31.1私有云的定义... 31.2私有云适用场景... 41.3私有云行业现状... 61.4私有云技术要求(针对Proxmox VE平台)... 7第2章 开源私有云神器Proxmox VE. 82.1 Proxmox VE主要特征... 82.2 Proxmox VE主要功能... 102.3服务与支持... 182.4题外话... 19 超融合 集群 linux下强制卸载挂接点 linux下强制卸载挂接点的方法 linux 卸载挂接点 Centreon监控超融合集群Proxmox VE(PVE) ----出自《分布式监控平台Centreon最佳实践》Proxmox VE(Proxmox Virtual Environment)简称PVE,是一款能与VMware相匹敌的超融合虚拟化平台,其去中心化的特性使整个平台具备更高的可用性,因为没有控制中心,集群中的任意节点故障,都不会导致服务不可用。Proxmox VE 6以后的版本,几乎所有的管控操作,都可以在Web管理界面轻松完成,真是系统管理 Centreon 分布式监控 Nagios Proxmox VE Proxmox VE 超融合集群不停服务更换硬盘操作实录 情况描述四节点组成的proxmoxVE超融合集群,连续运行时间超过500天。每个节点除了系统盘而外,由四个单独的2.4T10000转sas盘做cephosd。监控发现,其中一个节点的一块硬盘处于down的状态,尝试修复未获得成功,登录系统,发现系统日志有大量的IO错误,由此判断,一定是硬盘物理损坏。再通知机房,请值班技术帮忙,现场查看硬盘指示灯状态,有一块硬盘常亮红灯,确认故障与判断一致。故障修复 proxmox VE超融合集群 不停服务换硬盘 Proxmox VE 超融合集群创建多个Ceph Pool 作者:田逸(vx:formyz)创建多Ceph Pool的目的Proxmox VE集群上的虚拟机运行在高速磁盘NVME,而虚拟机附属的数据,则指定到低速、廉价、容量大的磁盘空间。为了高可用性,充分利用资源,需要让除Proxmox VE宿主二外的数据都运行在Ceph分布式存储上。 解决思路把高速的NVMe(或者其它固态磁盘SSD)多磁盘做成一个Ceph 命令行 宿主系统 数据 centos 服务器 《Proxmox VE 超融合集群实践真传》京东有货 出版机构:清华大学出版社(国家一级)ISBN:978-7-302-61185-1责任编辑:王中英 Proxmox VE 新书上架 linux 挂接 标题:Linux挂接:实现系统资源的有效管理和使用正文:在Linux系统中,挂接(Mount)是指将一个文件系统连接到文件树的特定位置,使得系统能够访问该文件系统的内容。通过挂接,我们可以将多个磁盘、分区或其他存储介质的数据整合到一个文件系统中,提高系统的灵活性和可用性。下面将从挂接的概念、挂接的作用以及常见的挂接命令等方面展开阐述。首先,挂接是Linux系统中实现资源管理和使用的重要方 文件系统 x系统 存储容量 API挂接 在阅读这篇文章之前,你可能要先阅读[url]http://www.codeproject.com/system/inject2exe.asp#PortableExecutablefileformat2[/url]和[url]http://blog.csdn.net/XXKKFF/archive/2007/03/06/1522632.aspx[/url]下面这段代码是一个动态链接库的源码,它 职场 API 休闲 MessageBoxW 挂接API <br />// hook.cpp : Defines the entry point for the console application.//#include "stdafx.h"#include <windows.h> api descriptor winapi import image proxmox超融合集群无故障运行超过250天 两套生产系统,都超过250天了,祝贺一下。 proxmox超融合 Proxmox VE 超融合集群ceph OSD磁盘塞满处理 故障描述查看pve管理后台概述,发现有告警,提示ceph健康告警。点这个黄色图标,得到更进一步的信息:有2个OSD磁盘塞满了。再用鼠标点击第一行“2nearfullosd(?)”右侧的感叹号,可确定序号为5与7的磁盘塞满了。处理过程确定被数据塞满的OSD位于哪些节点,然后在该节点删除没有运行的虚拟机或者不需要的虚拟机,以释放磁盘空间。确定磁盘位于哪些节点。从上图可知,两个塞满了数据的磁盘分别位于 proxmox VE超融合集群 ceph分布式去中心化文件系统 Proxmox VE 超融合集群虚拟的NFS服务性能很差的问题解决 作者:田逸(formyz)场景描述五节点Proxmox VE集群,万兆网络,数据网络与存储网络独立,接口两两bond,交换机堆叠。单机配置两颗AMD 宵龙CPU,核心数48,单台线程数192,单台内存1024G。存储分三种:SATA接口SSD,做系统盘;NVME 固态盘,做虚拟机与数据库的Ceph Pool;大容量低速SATA机械盘,做要求不太高的对象Ceph Pool。计划中,像日志 共享目录 服务器 mysql proxmox VE超融合集群无故障运行超过600天 热烈祝贺proxmoxve超融合集群连续无故障运行超过600天! proxmox VE 超融合 集群 挂接mysql win 挂接地线 接地线是一般电气设备经常用到的一项安全技术措施,特别是数控开料机在使用过程中,更需要注意接地线的连接使用,操作一定要符合规范要求,千万不可马虎大意。这很大程度上关系着开料机的安全使用。所以,在连接开料机接地线的使用一定要注意以下技术问题:一、 开料机安装和拆接注意顺序1、挂接地线时:先连结接地夹,后接接电夹;拆除接地线时,必须按程序先拆接电夹,后拆接地夹。2、安装:将接地软铜线分相上双眼铜鼻 挂接mysql win 地线与接地螺丝 解决方案 工业4.0 智能家居 LINUX挂接UNIX系统NFS文件共享 类似于windows的网络共享,UNIX(Linux)系统也有自己的网络共享,那就是NFS(网络文件系统),下面我们就以SUN Solaris2.8和REDHAT as server 3 为例简单介绍一下在linux下如何mount nfs网络共享。 在linux客户端挂接(mount)NFS磁盘共 linux 服务端 linux系统 主机名 客户端