腾讯云性能压测(腾讯压力测试)

华为云服务器特价优惠火热进行中!

2核2G2兆仅需 38 元;4核4G3兆仅需 79 元。购买时间越长越优惠!更多配置及优惠价格请咨询客服。

合作流程:
1、点击链接注册/关联华为云账号:点击跳转
2、添加客服微信号:cloud7591,确定产品方案、价格方案、服务支持方案等;
3、客服协助购买,并拉微信技术服务群,享受一对一免费技术支持服务;
技术专家在金蝶、华为、腾讯原厂有多年工作经验,并已从事云计算服务8年,可对域名、备案、网站搭建、系统部署、AI人工智能、云资源规划等上云常见问题提供更专业靠谱的服务,对相应产品提供更优惠的报价和方案,欢迎咨询。

本篇文章给大家谈谈腾讯云性能压测,以及腾讯压力测试对应的知识点,希望对各位有所帮助,不要忘了收藏本站喔。

微信号:cloud7591
如需了解更多,欢迎添加客服微信咨询。
复制微信号

本文目录一览:

Elasticsearch数据迁移与集群容灾

本文讨论如何跨集群迁移ES数据以及如何实现ES的同城跨机房容灾和异地容灾。

在ES的生产实践中,往往会遇到以下问题:

根据业务需求,存在以下场景:

如果是第一种场景,数据迁移过程中可以停止写入,可以采用诸如elasticsearch-dump、logstash、reindex、snapshot等方式进行数据迁移。实际上这几种工具大体上可以分为两类:

如果是第二种场景,数据迁移过程中旧集群不能停止写入,需要根据实际的业务场景解决数据一致性的问题:

下面介绍一下在旧集群可以停止写入的情况下进行数据迁移的几种工具的用法。

elasticsearch-dump是一款开源的ES数据迁移工具,github地址:

以下操作通过elasticdump命令将集群x.x.x.1中的companydatabase索引迁移至集群x.x.x.2。注意第一条命令先将索引的settings先迁移,如果直接迁移mapping或者data将失去原有集群中索引的配置信息如分片数量和副本数量等,当然也可以直接在目标集群中将索引创建完毕后再同步mapping与data

logstash支持从一个ES集群中读取数据然后写入到另一个ES集群,因此可以使用logstash进行数据迁移,具体的配置文件如下:

上述配置文件将源ES集群的所有索引同步到目标集群中,当然可以设置只同步指定的索引,logstash的更多功能可查阅logstash官方文档 logstash 官方文档 .

reindex是Elasticsearch提供的一个api接口,可以把数据从一个集群迁移到另外一个集群。

snapshot api是Elasticsearch用于对数据进行备份和恢复的一组api接口,可以通过snapshot api进行跨集群的数据迁移,原理就是从源ES集群创建数据快照,然后在目标ES集群中进行恢复。需要注意ES的版本问题:

如果旧集群不能停止写入,此时进行在线数据迁移,需要保证新旧集群的数据一致性。目前看来,除了官方提供的CCR功能,没有成熟的可以严格保证数据一致性的在线数据迁移方法。此时可以从业务场景出发,根据业务写入数据的特点选择合适的数据迁移方案。

一般来说,业务写入数据的特点有以下几种:

下面来具体分析不同的写入数据的特点下,该如何选择合适的数据迁移方式。

在日志或者APM的场景中,数据都是时序数据,一般索引也都是按天创建的,当天的数据只会写入当前的索引中。此时,可以先把存量的不再写入的索引数据一次性同步到新集群中,然后使用logstash或者其它工具增量同步当天的索引,待数据追平后,把业务对ES的访问切换到新集群中。

具体的实现方案为:

add only的数据写入方式,可以按照数据写入的顺序(根据_doc进行排序,如果有时间戳字段也可以根据时间戳排序)批量从旧集群中拉取数据,然后再批量写入新集群中;可以通过写程序,使用用scroll api 或者search_after参数批量拉取增量数据,再使用bulk api批量写入。

使用scroll拉取增量数据:

上述操作可以每分钟执行一次,拉起前一分钟新产生的数据,所以数据在旧集群和新集群的同步延迟为一分钟。

使用search_after批量拉取增量数据:

上述操作可以根据需要自定义事件间隔执行,每次执行时修改search_after参数的值,获取指定值之后的多条数据;search_after实际上相当于一个游标,每执行一次向前推进,从而获取到最新的数据。

使用scroll和search_after的区别是:

另外,如果不想通过写程序迁移旧集群的增量数据到新集群的话,可以使用logstash结合scroll进行增量数据的迁移,可参考的配置文件如下:

使用过程中可以根据实际业务的需求调整定时任务参数schedule以及scroll相关的参数。

业务场景如果是写入ES时既有追加,又有存量数据的更新,此时比较重要的是怎么解决update操作的数据同步问题。对于新增的数据,可以采用上述介绍的增量迁移热索引的方式同步到新集群中。对于更新的数据,此时如果索引有类似于updateTime的字段用于标记数据更新的时间,则可以通过写程序或者logstash,使用scroll api根据updateTime字段批量拉取更新的增量数据,然后再写入到新的集群中。

可参考的logstash配置文件如下:

实际应用各种,同步新增(add)的数据和更新(update)的数据可以同时进行。但是如果索引中没有类似updateTime之类的字段可以标识出哪些数据是更新过的,目前看来并没有较好的同步方式,可以采用CCR来保证旧集群和新集群的数据一致性。

如果业务写入ES时既有新增(add)数据,又有更新(update)和删除(delete)数据,可以采用6.5之后商业版X-pack插件中的CCR功能进行数据迁移。但是使用CCR有一些限制,必须要注意:

具体的使用方式如下:

如果业务是通过中间件如kafka把数据写入到ES, 则可以使用如下图中的方式,使用logstash消费kafka的数据到新集群中,在旧集群和新集群数据完全追平之后,可以切换到新集群进行业务的查询,之后再对旧的集群下线处理。

使用中间件进行同步双写的优点是:

当然,双写也可以使用其他的方式解决,比如自建proxy,业务写入时向proxy写入,proxy把请求转发到一个或者多个集群中,但是这种方式存在以下问题:

随着业务规模的增长,业务侧对使用的ES集群的数据可靠性、集群稳定性等方面的要求越来越高,所以要比较好的集群容灾方案支持业务侧的需求。

如果是公司在自建IDC机房内,通过物理机自己搭建的ES集群,在解决跨机房容灾的时候,往往会在两个机房 部署两个ES集群,一主一备,然后解决解决数据同步的问题;数据同步一般有两种方式,一种方式双写,由业务侧实现双写保证数据一致性,但是双写对业务侧是一个挑战,需要保证数据在两个集群都写成功才能算成功。另外一种方式是异步复制,业务侧只写主集群,后台再把数据同步到备集群中去,但是比较难以保证数据一致性。第三种方式是通过专线打通两个机房,实现跨机房部署,但是成本较高。

因为数据同步的复杂性,云厂商在实现ES集群跨机房容灾的时候,往往都是通过只部署一个集群解决,利用ES自身的能力同步数据。国外某云厂商实现跨机房部署ES集群的特点1是不强制使用专用主节点,如上图中的一个集群,只有两个节点,既作为数据节点也作为候选主节点;主分片和副本分片分布在两个可用区中,因为有副本分片的存在,可用区1挂掉之后集群仍然可用,但是如果两个可用区之间网络中断时,会出现脑裂的问题。如下图中使用三个专用主节点,就不会存在脑裂的问题了。

但是如果一个地域没有三个可用区怎么办呢,那就只能在其中一个可用区中放置两个专用主节点了,如国内某云厂商的解决方案:

但是重建节点的过程还是存在问题的,如上图中,集群本身的quorum应该为2,可用区1挂掉后,集群中只剩一个专用主节点,需要把quorum参数(discovery.zen.minimum_master_nodes)调整为1后集群才能够正常进行选主,等挂掉的两个专用主节点恢复之后,需要再把quorum参数(discovery.zen.minimum_master_nodes)调整为2,以避免脑裂的发生。

当然还是有可以把无法选主和脑裂这两个可能发生的问题规避掉的解决方案,如下图中国内某云厂商的解决思路:

创建双可用区集群时,必须选择3个或者5个专用主节点,后台会在一个隐藏的可用区中只部署专用主节点;方案的优点1是如果一个可用区挂掉,集群仍然能够正常选主,避免了因为不满足quorum法定票数而无法选主的情况;2是因为必须要选择三个或5个专用主节点,也避免了脑裂。

想比较一主一备两个集群进行跨机房容灾的方式,云厂商通过跨机房部署集群把原本比较复杂的主备数据同步问题解决了,但是,比较让人担心的是,机房或者可用区之间的网络延迟是否会造成集群性能下降。这里针对腾讯云的双可用区集群,使用标准的benchmark工具对两个同规格的单可用区和双可用区集群进行了压测,压测结果如下图所示:

从压测结果的查询延时和写入延时指标来看,两种类型的集群并没有明显的差异,这主要得益与云上底层网络基础设施的完善,可用区之间的网络延迟很低。

类似于同城跨机房容灾,异地容灾一般的解决思路是在异地两个机房部署一主一备两个集群。业务写入时只写主集群,再异步地把数据同步到备集群中,但是实现起来会比较复杂,因为要解决主备集群数据一致性的问题,并且跨地域的话,网络延迟会比较高;还有就是,当主集群挂掉之后,这时候切换到备集群,可能两边数据还没有追平,出现不一致,导致业务受损。当然,可以借助于kafka等中间件实现双写,但是数据链路增加了,写入延迟也增加了,并且kafka出现问题,故障可能就是灾难性的了。

一种比较常见的异步复制方法是,使用snapshot备份功能,定期比如每个小时在主集群中执行一次备份,然后在备集群中进行恢复,但是主备集群会有一个小时的数据延迟。以腾讯云为例,腾讯云的ES集群支持把数据备份到对象存储COS中,因为可以用来实现主备集群的数据同步,具体的操作步骤可以参考 。

在6.5版本官方推出了CCR功能之后,集群间数据同步的难题就迎刃而解了。可以利用CCR来实现ES集群的异地容灾:

CCR是类似于数据订阅的方式,主集群为Leader, 备集群为Follower, 备集群以pull的方式从主集群拉取数据和写请求;在定义好Follwer Index时,Follwer Index会进行初始化,从Leader中以snapshot的方式把底层的segment文件全量同步过来,初始化完成之后,再拉取写请求,拉取完写请求后,Follwer侧进行重放,完成数据的同步。CCR的优点当然是因为可以同步UPDATE/DELETE操作,数据一致性问题解决了,同步延时也减小了。

另外,基于CCR可以和前面提到的跨机房容灾的集群结合,实现两地多中心的ES集群。在上海地域,部署有多可用区集群实现跨机房的高可用,同时在北京地域部署备集群作为Follwer利用CCR同步数据,从而在集群可用性上又向前走了一步,既实现了同城跨机房容灾,又实现了跨地域容灾。

但是在出现故障时需要把集群的访问从上海切换到北京时,会有一些限制,因为CCR中的Follwer Index是只读的,不能写入,需要切换为正常的索引才能进行写入,过程也是不可逆的。不过在业务侧进行规避,比如写入时使用新的正常的索引,业务使用别名进行查询,当上海地域恢复时,再反向的把数据同步回去。

现在问题就是保证上海地域集群数据的完整性,在上海地域恢复后,可以在上海地域新建一个Follower Index,以北京地域正在进行写的索引为Leader同步数据,待数据完全追平后,再切换到上海地域进行读写,注意切换到需要新建Leader索引写入数据。

数据同步过程如下所示:

1.上海主集群正常提供服务,北京备集群从主集群Follow数据

2.上海主集群故障,业务切换到北京备集群进行读写,上海主集群恢复后从北京集群Follow数据

腾讯云上的虚拟机适合做压测机吗

简的回答是:适合。

详细的回答是:根据你的应用和具体的虚拟机来决定。

比较直观的一个场景是,在云服务器上做性能测试。所有的云端机器比如EC2,都是虚拟机,只要用了云,就跟底层硬件说再见了。这种测试当然不会给你在实体机器(bare metal)上的测试数据,但是得到的结果仍然相当有参考价值。特别是如果跟自己的研发版本做纵向对比的时候,只要测试环境没有改变,得到的数据就可以说明问题。

如果是在本地的实体机器上进行测试呢?也有很多虚拟机技术可以选择,比如Linux下的KVM或LXC,都可以在相当接近裸机的性能下运行虚拟系统。KVM本身有硬件级支持就不说了,LXC直接在kernel里划namespace来给虚拟机提供资源,基本上和宿主系统的性能是一样的(97%以上)。具体的性能数据可以看这里:KVM and Docker LXC Benchmarking。这种测试方法的好处是可以隔离测试环境,宿主机器上安装卸载软件都不会影响虚拟机的配置,从而即不妨碍对实体机做除测试以外的使用,又可以严格控制每次测试的环境和条件。

以上所说更多是针对服务端程序,如果是客户端的3D程序(比如游戏),我不太清楚虚拟机技术对显卡的支持如何,不做评价。

如何对比测试云服务器的性能

相信你也经常遇到云服务器无法访问的问题?

也会遇到服务器丢包,数据加载慢的问题?

阿里云、腾讯云和华为云三大知名云计算厂家的网络情况怎么样?

要判断一个云服务的网络情况好坏又应该从哪些方面考虑呢?

面对以上疑问?一起来看一下阿里云、腾讯云和华为云的云服务器网络能力哪家强。

一、阿里云、腾讯云和华为云的运营商内网间TCP带宽性能测试华为云400Mbps,阿里云在280Mbps左右,腾讯云优势较大,达到1100Mbps。

云服务器

二、在都开放了16001-16008端口的情况下,华为云S6内网PPS测试结果达到25万,阿里云15万,腾讯云S2在45万至51万之间。

三、三大服务器的外网主机连通性表现基本相同,国内地区服务器响应速度在60ms左右,海外地区响应速度在130ms左右。

四、上传下载能力对比,同样下载100MB大小的文件,华为云耗时120s,腾讯云162s,阿里云154s。

希望本篇回答可以帮助到你

望采纳~

阿里云腾讯云服务器官方性能及实际体验对比

阿里云腾讯云服务器性能对比

阿里云我自己的服务器,2核8G的,1个物理CPU.1个物理核心,两线程

4核=核8g,1个物理CPU  2个物理核心,4线程

腾讯云sa24核8g    一个物理CPU,4个物理核心,,4线程

实际体验:腾讯云的redis会掉,阿里云的没有遇到过,扔开性能指数,还是阿里云的稳定些

腾讯云的不稳定点,性价比腾讯云还是可以吧,sa2做活动服务商那边拿真便宜!!

腾讯官方活动链接

阿里官方活动链接

以下是腾讯官网的一些数据

腾讯云标准型 S5

2.5GHz Intel® Xeon® Cascade Lake 处理器,2.5GHz,睿频3.1GHz,搭配最新一代六通道 DDR4,内存计算性能稳定

规格vCPU内存(GB)网络收发包(pps)队列数内网带宽能力(Gbps)主频备注

S5.SMALL11125万11.52.5GHz-

S5.SMALL21225万11.52.5GHz-

S5.SMALL41425万11.52.5GHz-

S5.MEDIUM42430万21.52.5GHz-

S5.MEDIUM82830万21.52.5GHz-

S5.LARGE84850万21.52.5GHz-

S5.LARGE1641650万21.52.5GHz-

S5.2XLARGE1681680万23.02.5GHz-

S5.2XLARGE3283280万23.02.5GHz-

S5.4XLARGE321632150万46.02.5GHz-

S5.4XLARGE641664150万46.02.5GHz-

S5.6XLARGE482448200万69.02.5GHz-

S5.6XLARGE962496200万69.02.5GHz-

S5.8XLARGE643264250万8122.5GHz-

S5.8XLARGE12832128250万8122.5GHz-

S5.12XLARGE964896400万1217.02.5GHz-

S5.12XLARGE19248192400万1217.02.5GHz-

S5.16XLARGE25664256500万1623.02.5GHz-

腾讯云s4

标准型 S4 实例采用至强®处理器 Skylake 全新处理器,内存采用最新最新一代六通道 DDR4 内存,,默认网络优化,内存带宽达2666MT/s最高内网收发能力达600万pps,最高内网带宽可支持25Gbps。

服务器    2.4GHz Intel® Xeon® Skylake 6148 最新一代六通道 DDR4 内存

规格vCPU内存(GB)网络收发包(pps)队列数内网带宽能力(Gbps)主频备注

S4.SMALL11125万11.52.4GHz-

S4.SMALL21225万11.52.4GHz-

S4.SMALL41425万11.52.4GHz-

S4.MEDIUM42430万21.52.4GHz-

S4.MEDIUM82830万21.52.4GHz-

S4.LARGE84850万21.52.4GHz-

S4.LARGE1641650万21.52.4GHz-

S4.2XLARGE1681680万23.02.4GHz-

S4.2XLARGE3283280万23.02.4GHz-

S4.4XLARGE321632150万46.02.4GHz-

S4.4XLARGE641664150万46.02.4GHz-

S4.6XLARGE482448200万68.02.4GHz-

S4.6XLARGE962496200万68.02.4GHz-

S4.8XLARGE643264250万811.02.4GHz-

S4.8XLARGE12832128250万811.02.4GHz-

S4.12XLARGE964896400万1216.02.4GHz-

S4.12XLARGE19248192400万1216.02.4GHz-

S4.16XLARGE12864128500万1622.02.4GHz-

S4.16XLARGE25664256500万1622.02.4GHz-

S4.18XLARGE28872288600万1624.02.4GHz-

腾讯云标准型SA2配置参数

CPU处理器:AMD EPYC ROME新一代处理器,主频2.6GHz,睿频3.3GHz。

内存:最新一代八通道 DDR4,内存计算性能稳定。

网络:超高网络收发包能力达750万pps,最大网络带宽25Gbps。

规格vCPU内存(GB)网络收发包(pps)队列数内网带宽能力(Gbps)主频备注

SA2.SMALL11125万11.52.6GHz-

SA2.SMALL21225万11.52.6GHz-

SA2.SMALL41425万11.52.6GHz-

SA2.MEDIUM42430万21.52.6GHz-

SA2.MEDIUM82830万21.52.6GHz-

SA2.LARGE84850万21.52.6GHz-

SA2.LARGE1641650万21.52.6GHz-

SA2.2XLARGE1681670万21.52.6GHz-

SA2.2XLARGE3283270万21.52.6GHz-

SA2.4XLARGE321632100万43.02.6GHz-

SA2.4XLARGE641664100万43.02.6GHz-

SA2.8XLARGE643264140万85.02.6GHz-

SA2.12XLARGE964896210万127.02.6GHz-

SA2.16XLARGE12864128280万169.02.6GHz-

SA2.20XLARGE16080160350万1612.02.6GHz-

SA2.22XLARGE22490224375万1613.02.6GHz-

SA2.24XLARGE19296192420万1614.02.6GHz-

SA2.32XLARGE256128256560万3218.02.6GHz-

SA2.40XLARGE320160320710万3223.02.6GHz-

SA2.45XLARGE464180464750万3225.02.6GHz-

腾讯云的mysql 2核4G大概能支撑多少并发?

2核cpu,4g内存?这个配置并发量肯定比较低的。但性能测试还和网站本身的架构及功能逻辑有关,不一定的。

关于腾讯云性能压测和腾讯压力测试的介绍到此就结束了,不知道你从中找到你需要的信息了吗 ?如果你还想了解更多这方面的信息,记得收藏关注本站。

发布于 2022-11-05 13:11:47
收藏
分享
海报
60
目录

    推荐阅读

    忘记密码?

    图形验证码

    复制成功
    微信号: cloud7591
    如需了解更多,欢迎添加客服微信咨询。
    我知道了