阿里云ecsnfs(阿里云ecs关机不收费)
华为云服务器特价优惠火热进行中! 2核2G2兆仅需 38 元;4核4G3兆仅需 79 元。购买时间越长越优惠!更多配置及优惠价格请咨询客服。
合作流程: |
今天给各位分享阿里云ecsnfs的知识,其中也会对阿里云ecs关机不收费进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!
微信号:cloud7591如需了解更多,欢迎添加客服微信咨询。
复制微信号
本文目录一览:
docker使用NFS解决数据存储问题
NFS :Net File System 网络文件存储系统
将云存储的磁盘挂载到本地计算机,本文所用的NFS提供商是阿里云网络文件存储系统。
1. 首先在阿里云配置好网络文件存储系统
具体文档在该链接中:
2. 在本地linux测试挂载
首先安装nfs客户端工具
sudo apt-get install nfs-common
挂载,执行下列命令后,即可看到 /mount-point 挂载点出现,有关mount和umount命令的使用,需要自行百度和谷歌
sudo mount -t nfs -o vers=4.0,rsize=1048576,wsize=1048576,hard,timeo=600,retrans=2,noresvport file-system-id-xxxx.region.nas.aliyuncs.com:/ /mount-point
3. 使用docker创建驱动为nfs类型的磁盘(volume,不推荐使用bind mount)
docker volume create --driver local --opt type=nfs --opt o=addr=192.168.138.130,rw --opt device=:/data/nfs volume-nfs
4. 运行容器时,挂载 volume-nfs 磁盘即可
使用-v选项将volume挂载到容器上
docker run -dit --name data1 -v volume-nfs:/mnt ubuntu:16.04

阿里云跨网段间执行showmount不通的解决办法
背景:
在阿里云上,同地域不同账号下的ecs服务器,需要跨网段进行nfs挂载。目标是使A网段(172.16.3.*)下可以将storm处理结果存储在B网段(172.16.2.*)下的nfs目录下,然后在B网段的web服务可以读取同网段nfs目录中的内容,并加载到页面中。
前提是两个网段已经互配了云企业网,可以互相ping通内网ip。而且在/etc/exports下,也添加了对端网段的访问权限:
但是当执行mount -t nfs挂载跨网段的nfs时,就无法挂载了。挂载同网段的nfs是没有问题的。所以问题的焦点就聚焦在了跨网段上。
在A网段ecs上执行shoumount -e B网段ecsip时,提示如下:
经过查找,有提到portmapper服务的,于是在nfs服务器上查看其运行的端口111,也确实存在。
执行rpcinfo -p查看:
但即使在阿里云安全组中开通了tcp和udp类型的111端口映射后,仍然无法执行showmount命令。
后来继续查找发现在/etc/sysconfig/nfs文件中,默认注释掉了MOUNTD_PORT,于是加上了一个自定义的该端口信息:
MOUNTD_PORT=21503
同时,在B网段的阿里云安全组中添加21503的外网端口映射。
重启nfs:service nfs restart
再次查看,就可以跨网段使用showmount命令了:
经过验证,最终在阿里云端配置的端口映射如下(在提供NFS服务的账号安全组下):
注意:最终开通的是UDP 111端口和TCP 21503端口即可。
阿里云ECS的CPU100%排查
一、背景和现象
初创公司,架构lanmp,web前端和后端分开服务器,业务驱动主要是nginx和apache,nginx主要是处理静态文件和反向代理,前后端、搜索引擎、缓存、队列等附加的服务都是用docker容器部署。因为比较初级,上传文件和采集文件都是直接写在硬盘上,涉及到的目录共享,就在其中一台服务器存储并且nfs共享。我们暂且分为ECS1(apache1)、ECS2(apache2)、ECS3(nginx)。某天网站业务中断,但是没有报错。一直在等待响应,默认响应超时是一分钟,所以很基础高可用没有起到作用。中断10分钟左右,重启服务,提示“open too many files”,但是lsof统计没几个。因为初级处理不了,所以直接重启服务器,一段时间后一切恢复正常,可是第二天又来一次这种情况。
二、第一次出现后的排查思路
本来第一次发现这种问题的时候就要追查原因了,看了一下zabbix监控图像其中断了十分钟,包括网络、内存、CPU、硬盘、IO等监控数据。首先想到的是网络问题,结论是zabbix-servert获取不到了zabbix-agent采集的数据,估计就是网络不通了。
但是,这个结论站不住脚,因为我本身通过ssh登录服务器,并且命令输入无卡顿,不至于头文件都传不过来。后来一看阿里云的云监控,上面有数据,似乎也可以佐证网络这个说法,因为云监控是阿里云内部的监控,可以内网获取到监控数据。直到看CPU的使用率这项,发现有一段时间的CPU使用率100%。并且我重启的时候CPU恢复正常,不能说网络一定没问题,但系统肯定有问题。也可以解释因为CPU使用已经是100%,zabbix-agent和根本不能正常运行,所以没有监控数据。因为这个公司全部都是云服务器,没有使用IDC所以我们也没有安装smokeping来监控,接着我们就不把重心在网络上了。
目前掌握的信息就是:在毫无征兆的情况下,CPU暴涨到100%,重启之前一直保留,重启之后恢复原样。匆忙之中又看了一下系统各日志,因为太匆忙,没有总结,没有找到什么有价值的东西。现在有下面几种猜想:第一,程序的bug或者部署不当,触发之后耗尽资源。第二、docker容器的bug。第三、网络攻击。第四、病毒入侵。第五、阿里云方系统不稳定。
小总结了一下,现在问题还没有找出来。下次还有这个问题的可能,所以先尽量防范,但是又不能重启一刀切。所以在zabbix上面设置了自动化,当检测到ECS1获取不到数据的时候马上操作ECS3标记后端为ECS1的apache为down。保留异常现场。(请求停止的时候,CPU100%还在)
三、现场排查
1、相应的排查计划(想到这些信息需要获取的,实际上没有严格按照这样的步骤)
1)用htop和top命令监控CPU、内存使用大的进程。先看看哪个进程消耗资源较多,用户态、内核态、内存、IO……同时sar -b查io的 历史 定时抽样。
2)统计tcp连接数,看看有没有DDOS攻击。netstat -anp |grep tcp |wc -l 。用iftop-i eth1看看通讯。同时用tail -n 1200 /var/log/messages查看内核日志。
3)用pstree查看打开进程,ps aux|wc-l看看有没有特别多的进程。虽然zabbix监控上说没有,但是我们要检查一下看看有没有异常的进程名字。
4)查看全部容器的资源使用docker stats $(docker ps -a -q),看看能不能从容器上排查。
5)有了“too many open files”的启发,计算打开文件数目lsof|wc -l,根据进程看看ll /proc/PID/fd文件描述符有没有可疑的打开文件、文件描述符。
6)关于用lsof打开文件数找到的线索,排序打开文件找出进程号 lsof -n|awk '{print $2}'|sort|uniq -c|sort -nr|more
7)关于用lsof打开文件数找到的线索,用lsof -p PID查看进程打开的句柄。直接查看打开的文件。
8)启动容器的时候又总是“open too many files"。那就是打开文件数的问题,因为CPU的使用率是CPU的使用时间和空闲时间比,有可能因为打开文件数阻塞而导致CPU都在等待。针对连接数的问题,大不了最后一步试试echo 6553500 /proc/sys/fs/file-max 测试打开文件对CPU的影响。
9)玩意测出来了消耗CPU的进程,可以使用strace最终程序。用户态的函数调用跟踪用「ltrace」,所以这里我们应该用「strace」-p PID
10)从程序里面看到调用系统底层的函数可以跟踪。跟踪操作 strace -T -e * -p PID,主要看看代码调用的函数有没有问题。
2、现场排查
第二天同样时间,ECS果然暴涨了CPU。这是时候zabbix的工作如希望进行保留了一台故障的ECS1给我。
1)用htop看到资源使用最大是,搜索引擎下我写的一个判断脚本xunsearch.sh。脚本里面很简单,判断索引和搜索服务缺一个就全部重启。就当是我的容器有问题我直接关掉搜索引擎容器。httpd顶上,我又关掉apache容器。rabbitmq相关进程又顶上。这时候我没心情周旋了,肯定不也是这个原因。sar -b查看的 历史 io也没有异常。
2)统计tcp连接,几百。先不用着重考虑攻击了。用tail -n 1200 /var/log/messages查看内核日志,是TCP TIME WAIT的错误。可以理解为CPU使用100%,程序无响应外面的tcp请求超时。这是结果,还是没有找到根本原因。
接着往下看系统内核日志,发现了和“open too many files”呼应的错误,“file-max limit 65535 reached”意思是,已到达了文件限制瓶颈。这里保持怀疑,继续收集其他信息。
3)查看进程数量,数量几百。列出来也看到都是熟悉的进程,可以先排除异常进程。
4)监控容器的资源使用,里面很不稳定,首先是xunsearch容器使用80%的CPU,关掉xunsearch,又变成了其他容器使用CPU最高。很大程度上可以排查容器的问题和执行程序的问题。
5)查看了最大连接数cat /proc/sys/fs/file-max是65535但是用lsof查到的连接数是10000多,完全没有达到连接数。
6)各项参数都正常,现在聚焦在打开的文件数这个问题上面。也可以用另外同一种方式查看一下内核统计文件 /proc/sys/fs/file-nr,比较一下差异,看看能不能找出问题。cat了一下,打开文件数是66080,果然超了!内核日志就以这个为标准。
但是看lsof怎么统计不出来,ll /proc/PID/fd也没几个。这个问题放在后面,先按照步骤echo 6553500 /proc/sys/fs/file-max给连接数提高到100倍,CPU果然降了下来。原因确认了,但是必须找到根源,为什么忽然有这么大的打开文件数。关掉全部docker容器和docker引擎,打开文件数是少了一点,但是仍然在65535差不多。我就先排除一下业务的影响,把ECS3的nginx直接指向视频ECS2的apache,就等同于在ECS2上实现了ECS1的场景。查看一下ECS2的句柄数,才4000多,排除了业务相关应用对服务器的影响。那就能下个小结论,ECS1被神秘程序打开了6万多句柄数,打开业务就多了2000多的句柄数,然后就崩溃了。不过这个现象有点奇怪,ECS2和ECS1在一样的机房一样的配置一样的网络环境,一样的操作系统,一样的服务,一样的容器,为什么一个有问题,一个没问题呢?不同的只是有一台是共享nfs。难道是静态文件共享了,其他人读了,也算是本服务器打开的?
7)现在程序找不到,没法继续lsof -p了。排查之前的猜想。带着排查得到对的结论往下想。
程序的bug和部署不当,那是不可能的,因为主要问题来自于打开句柄数,当部署到ECS2那里,一切正常。docker容器的bug,那也不可能的,每个都是我亲自写脚本,亲自编译,亲自构建的,关键是我关掉了docker容器和引擎都没有很大改善。网络攻击也排除,因为网络连接数没几个,流量也不变。那就只剩下病毒入侵也不是,没有异常进程。考虑到ECS的稳定性问题了。这方面就协助阿里云工程师去排查。
8)阿里云工程师用的排查手段和我差不多,最终也是没能看到什么。也只是给了我一些治标不治本的建议。后来上升到专家排查,专家直接在阿里云后端抓取了coredump文件分析打开的文件是图片,程序是nfsd。
好像印证了我刚才后面的猜想,应该就是ECS1使用了nfs共享其他服务器打开了然后算在ECS1头上。那问题又来了,我们的业务已经到达了可以影响服务器的程度吗?
9)既然问题解决到这一步,先不管程序有没有关闭打开的文件和nfs的配置。我们架构上面的图片应该是归nginx读取,难道是linux的内存机制让它缓存了。带着缓存的问题,首先去ECS3上释放内存echo 3 /proc/sys/vm/drop_caches,释放之后,发现没什么改善,有点失落。总是觉得还有一台后端是PHP主导,但是逻辑上是写入,没有打开文件之说。后来从程序员中了解到,PHP也有打开图片。我猛然去ECS2释放一下内存,果然,句柄数降下来。(这里大家一定有个疑问,为什么我直接想到内存缓存而不是目前打开的文件呢。其一,这是生产环境,web前端只有一个,不能乱来停服务。其二,第一次遇到问题的时候,重启之后没有问题,过了一天之后积累到一定的程度才爆发,这里已经引导了我的思路是积累的问题,那就是缓存不断积累了)
10)因为ECS2的调用ECS1的nfs共享文件,所以lsof也有读不到那么多句柄数的理由。如果说是nfs的服务本身就有缓存,导致问题的话,我查看了配置文件,还是默认值允许缓存,30S过期,根本不会因为nfs的缓存造成打开文件过多。如果我们的后端程序打开之后没好好处理的话,那倒有可能。然后尝试排除:我改了ECS3的配置,使程序只读ECS1后端,从ECS1上面却看不到有什么异常表现,说明PHP程序已经好好处理了打开的文件。也不是docker挂载了nfs的共享的问题,因为nginx也有挂载。排查到这里也很大程度上解决问题,而且缓存了nfs的全部共享文件,句柄并没有增加,也算合理,所以就增加了打开文件数的限制。
11)现在排查的结果是跟后端和nfs共享有关。就是说,后端挂载了nfs的网络共享,被程序读取。而程序释放之后,在正常背景的硬盘文件是没有缓存的。但是在nfs挂载的环境下,缓存并没有得到释放。
12)总结:很多问题的排查和我们的猜想结果一样,但是有些例外的情况。比如这次我想到的原因都一一排除,但是问题也是在一步步排查中,逐步被发现的。
阿里云服务器yum安装的nfs怎么启动
小鸟云服务器niaoyun实例创建好之后,您可以使用以下任意一种方式登录服务器:
远程桌面连接(MicrosoftTerminalServicesClient,MSTSC):采用这种方式登录,请确保实例能访问公网。如果在创建实例时没有购买带宽,则不能使用远程桌面连接。
管理终端VNC:无论您在创建实例时是否购买了带宽,只要您本地有网页浏览器,都可以通过管理控制台的管理终端登录实例。
使用远程桌面连接(MSTSC)登录实例
打开开始菜单远程桌面连接,或在开始菜单搜索中输入mstsc。也可以使用快捷键Win+R来启动运行窗口,输入mstsc后回车启动远程桌面连接。
在远程桌面连接对话框中,输入实例的公网IP地址。单击显示选项。
输入用户名,如小鸟云默认为niaoyun。单击允许我保存凭据,然后单击连接。这样以后登录就不需要手动输入密码了。
阿里云ecsnfs的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于阿里云ecs关机不收费、阿里云ecsnfs的信息别忘了在本站进行查找喔。
推荐阅读
-
四川路桥(600039.SH)获准发行不超30亿元公司债券
四川路桥(600039.SH)公告,2023年6月6日,公司收到中国证券监督管理委员会下发的《中国证监会关于四川路桥建设集团股份有...
-
受益产品涨价 金宝汤Q3利润超预期
美东时间6月7日美股盘前,金宝汤(CPB.US)公布了2023财年第三季度业绩。受益于多轮涨价,该公司Q3利润超出了华尔街预期。财...
-
正式分家!周鸿祎与前妻离婚股份过户完成,最新市值68亿元
在签订离婚协议两个多月后,三六零实际控制人周鸿祎与前妻胡欢完成了股份转让,正式“分家”。 6月6日晚,三六零(601360...
-
阿根廷男足北京行首轮门票售罄!梅西效应疯狂:有酒店房价飙至11万/晚
阿根廷男足北京行首轮门票售罄!梅西效应疯狂:有酒店房价飙至11万/晚 林心林 来源:时代财经 自去年在卡塔尔捧得...
-
我市整治虚假 违法广告联席会召开
拉萨融媒讯(记者赵耀铁)为进一步加强我市广告市场监管力度,持续规范广告市场秩序,近日,拉萨市整治虚假违法广告联席会议办公室...
-
西部证券-TCL中环-002129-跟踪点评报告:看好六月中旬开工率提升,海外建厂或引动产业链出海潮-230606
硅片库存有望见底,看好六月中旬开工率回升。根据infolink数据,当前硅片厂家皆以去库存化为首要目标,除了硅片价格持续下降外...
-
杉杉品牌预期将于8月4日或之前派发末期股息每股0.04元
杉杉品牌(01749)发布公告,建议派发截至2022年12月31日止年度末期股息每股人民币0.04元(税前)的决议案已获正式...
-
欧盟敦促大型科技公司提醒用户人工智能存在的“阴暗面”
欧盟希望科技公司提醒用户,人工智能(AI)生成的内容有可能导致虚假信息。 虽然新的AI技术“可以充当正面力量”,但是也存在...
-
苹果为演示MR头显搭了一个“大型建筑”?终于有人拍清楚了
财联社 北京时间周二凌晨,苹果将在加州总部举行WWDC23。考虑到库克有望在这次会议上拿出被称为“RealityPro”...
-
所罗门环球控股(08133.HK)拟"10合1"并股后按"2供1"进行供股
来源:格隆汇格隆汇6月5日丨所罗门环球控股(08133.HK)公告,董事会建议按将公司股本中每十(10)股每股面值0.08港元的...
