一种分布式融合存储系统性能等级评定方法与流程

    专利查询2025-04-25  18

    本发明涉及分布式融合存储系统,具体为一种分布式融合存储系统性能等级评定方法。
    背景技术
    ::1、分布式融合存储系统能够有效整合分布式文件、对象、大数据等各种存储类型和存储组织形式,支持多种存储协议,满足各类存储业务需求,提高数据存储效率。2、目前数据中心存储系统性能评定大多以单个指标或多个指标联合评估为主,使得数据中心存储系统性能评定方法仍处于起步阶段,业界尚无统一的分布式融合存储测试规范以进行产品和技术评估。3、于是,有鉴于此,针对现有的结构及缺失予以研究改良,提出一种分布式融合存储系统性能等级评定方法。技术实现思路1、针对现有技术的不足,本发明提供了一种分布式融合存储系统性能等级评定方法,解决了上述
    背景技术
    :中提出的问题。2、为实现以上目的,本发明通过以下技术方案予以实现:一种分布式融合存储系统性能等级评定方法,所述分布式融合存储系统性能等级评定方法包括下述步骤:3、s1、测试指标:4、从通用功能、文件业务功能、对象业务功能、大数据业务功能四个维度对分布式融合存储系统性能等级进行测试,其中通用功能的权重为20%,文件业务功能的权重为20%,对象业务功能的权重为30%,数据业务功能的权重为30%;5、其中通用功能的测试指标包括多协议存储池创建测试、多协议互通测试、快照功能、容量配额功能、qos功能;6、文件业务功能的测试指标包括nfs和cifs协议接口测试、容量配额功能、文件数配额功能、对接ai域功能;7、对象业务功能的测试指标包括桶和对象基本操作、桶acl权限控制、桶策略控制、多段方式上传对象、桶日志功能;8、大数据业务功能的测试指标包括hdfs功能、yarn&mapreduce功能测试、hbase表基本操作测试、sparksql基本操作测试、hive表基本操作测试;9、s2、多协议存储池创建测试的测试步骤:10、进入存储管理系统的存储池管理界面;11、进行存储创建操作,输入存储池相关配置,至少包含存储池名称、池冗余策略、数据安全级别,并提交创建、查看存储池创建过程;12、存储池创建结束后查看存储池信息;13、开启每个存储节点的文件、对象、大数据服务;14、验证存储的文件、对象、大数据服务是否正常;15、s3、多协议互通测试的测试步骤:16、在windows主机和linux主机分别以cifs、nfs挂载共享目录,在大数据平台与存储完成对接配置;17、windows主机在cifs共享目录下创建文件并写入内容,linux主机在nfs共享目录下创建文件并写入内容,hdfs主机通过hdfs协议写入文件,对象主机通过s3协议上传文件;18、分别在不同协议主机查看文件;19、分别从不同协议主机下载所有文件,并对比文件md5;20、s4、快照功能的测试步骤:21、在windows主机和linux主机分别以cifs、nfs挂载共享目录,在大数据平台与存储完成对接配置;22、windows主机在cifs共享目录下创建文件并写入内容,linux主机在nfs共享目录下创建文件并写入内容,hdfs主机通过hdfs协议写入文件,对象主机通过s3协议上传文件;23、登录存储系统,对命名空间创建一个快照snaptest1;24、查看快照snaptest1数据;25、s5、通用功能中容量配额功能的测试步骤:26、通过存储管理界面设置容量配额为1g;27、在windows主机和linux主机分别以cifs、nfs挂载共享目录,在大数据平台与存储完成对接配置;28、windows主机在cifs共享目录下写入大小为200m的文件,linux主机在nfs共享目录下写入大小为200m的文件,hdfs主机通过hdfs协议写入大小为200m的文件,对象主机通过s3协议上传大小为200m的文件;29、不同协议测试主机向命名空间再写入300m数据;30、s6、qos功能的测试步骤:31、nfs测试主机使用vdbench测试工具,对共享目录进行持续数据写入;32、测试主机业务运行2分钟后,性能达到稳定值a;33、登录存储管理界面,设置命名空间qos策略,限制性能为b,其中b<a,观测业务变化情况;34、预设时间后,关闭命名空间qos策略,观察业务变化情况;35、对象测试主机使用cosbench测试工具对存储进行对象持续写入;36、测试主机业务运行2分钟后,性能达到稳定值c;37、登录存储管理界面,设置命名空间qos策略,限制性能为d,其中d<c,观测业务变化情况;38、预设时间后,关闭命名空间qos策略,观察业务变化情况;39、大数据测试主机运行testdfsio组件,执行写性能测试;40、测试主机业务运行2分钟后,性能达到稳定值e;41、登录存储管理界面,设置命名空间qos策略,限制性能为f,f<e,观测业务变化情况;42、预设时间后,关闭命名空间qos策略,观察业务变化情况;43、s7、nfs和cifs协议接口测试的测试步骤:44、在linux测试主机上创建本地目录/mnt/nfstest,并通过标准nfs协议挂载共享;45、在nfs共享目录下执行目录的创建、重命名、修改属性和删除操作;46、在nfs共享目录下执行文件的创建、写入、读取、修改、重命名、修改属性和删除操作;47、在windows测试主机上,选择“映射网络驱动器”,在驱动器中选择盘符,并通过标准cifs协议映射共享;48、在cifs共享目录下执行目录的创建、重命名和删除操作;49、在cifs共享目录下执行文件的创建、写入、读取、修改、重命名和删除操作;50、分别通过linux测试主机和windows测试主机查看共享目录中内容;51、s8、文件业务功能中容量配额功能的测试步骤:52、通过存储管理界面设置空间配额为1g;53、在测试主机通过标准nfs协议挂载共享目录;54、测试主机向共享目录写入900mb的数据;55、测试主机向共享目录再写入200mb数;56、s9、文件数配额功能的测试步骤:57、通过存储管理界面设置文件数配额为1000;58、在测试主机通过标准nfs协议挂载共享目录;59、测试主机向共享目录写入900个文件;60、测试主机向共享目录再写入200个文件;61、s10、对接ai域功能的测试步骤:62、在存储管理界面,创建命名空间testad,并配置cifs共享,设置aduser具有完全控制权限;63、在windows测试主机上,选择“映射网络驱动器”,在驱动器中选择盘符,使用ad域用户aduser映射共享目录testad,进行文件操作;64、s11、桶和对象基本操作的测试步骤:65、通过s3 browser工具,使用测试账户basic,创建桶basictest;66、使用s3 browser查询账户的桶信息;67、使用s3 browser进行上传对象、下载对象和删除对象等操作;68、在s3 browser管理界面上删除一个空桶;69、s12、桶acl权限控制的测试步骤:70、通过s3 browser工具,使用账户bucketacl创建桶testbucket,并上传对象testobject1;71、通过s3 browser工具,使用账户bucketacl1对桶testbucket配置访问控制,为账户bucketacl2授权桶的读取;72、通过s3 browser工具,使用账户bucketacl2列举桶testbucket中的对象,并上传对象testobject2;73、通过s3 browser工具,使用账户bucketacl1对桶testbucket配置访问控制,为账户bucketacl2授权桶的写入权限,并获取相关权限;74、通过s3 browser工具,使用账户bucketacl2上传对象testobject2;75、通过s3 browser工具,使用账户bucketacl1删除桶testbucket;76、s13、桶策略控制的测试步骤:77、使用s3 browser添加账户的接入证书,并使用账户bucketpolicy1创建桶policytest,并上传对象object1、object2;78、使用s3 browser工具设置其他账户对于该桶的访问策略,为账户bucketpolicy2、bucketpolicy3授权列举桶权限,为账户bucketpolicy2授权对桶中的资源有读取和上传的权限;79、通过s3 browser工具,使用账户bucketpolicy2读取对象object1、object2;80、通过s3 browser工具,使用账户bucketpolicy3读取对象object1、object2;81、通过s3 browser工具,使用账户bucketpolicy2上传对象object3、object4;82、通过s3 browser工具,使用账户bucketpolicy3上传对象object3、object4;83、通过s3 browser工具,使用账户bucketpolicy2删除对象object1、object2;84、通过s3 browser工具,使用账户bucketpolicy3删除对象object1、object2;85、通过s3 browser工具,使用账户bucketpolicy1删除对象object1、object2;86、s14、多段方式上传对象的测试步骤:87、户使用s3 browser添加账户multipart的接入证书,并创建桶;88、用户开启s3 browser的多段上传功能,并使用工具上传一个大对象;89、使用s3 browser工具下载对象;90、s15、桶日志功能的测试步骤:91、通过s3 browser工具,使用测试账户bucketlog,创建桶bucketlogtest;92、右键桶bucketlogtest,选择bucket logging settings后开启桶日志功能;93、针对桶bucketlogtest进行上传、下载、删除等操作;94、等待10分钟后,查看桶中是否有个目录记录了日志;95、s16、hdfs功能测试的测试步骤:96、在测试主机切换到hdfs用户,创建文件夹,执行语句:hdfsdfs-mkdir-p/hdfs_test/mydir97、查看文件夹,执行语句:hdfs dfs-ls/hdfs_test/;98、删除文件夹,执行语句:hdfs dfs-rm-r/hdfs_test/mydir;99、查看文件夹,执行语句:hdfs dfs-ls/hdfs_test/;100、上传文件即指定本地存在的文件,执行语句:hdfs dfs-put/tmp/testaccess.txt/hdfs_test/,其中“/tmp/testaccess.txt”为本地文件,再执行查看指令检查文件是否存在:hdfs dfs-ls/hdfs_test/;101、下载文件到本地,执行语句:hdfs dfs-get/hdfs_test/testaccess.txt/tmp/testaccess2.txt;102、删除文件,执行语句:hdfs dfs-rm/hdfs_test/testaccess.txt,再执行查看指令检查文件是否存在:hdfs dfs-ls/hdfs_test/;103、s17、yarn&mapreduce功能测试的测试步骤:104、在测试主机切换到yarn用户,提交mapreduce teragen作业,参考执行语句:yarnjar/opt/cloudera/parcels/cdh6.2.1-1.cdh6.2.1.p0.1580995/lib/hadoop-mapreduce/hadoop-mapreduce-examples.jar teragen 10000000/tmp/teragen;105、任务执行过程中,可以另外打开一个客户端,查看该mapreduce作业,参考执行语句:mapred job-list;106、任务已经执行完成,参考执行如下语句查看所有任务:mapred job-list all;107、提交terasort作业,参考执行语句:yarn jar/opt/cloudera/parcels/cdh-6.2.1-1.cdh6.2.1.p0.1580995/lib/hadoop-mapreduce/ha;doop-mapreduce-examples.jar terasort/tmp/teragen/tmp/terasort;108、验证terasort执行成功,参考执行语句:yarn jar/opt/cloudera/parcels/cdh-6.2.1-1.cdh6.2.1.p0.1580995/lib/hadoop-mapreduce/hadoop;109、mapreduce-examples.jar teravalidate/tmp/terasort/tmp/teravalidate;110、s18、hbase表基本操作测试的测试步骤:111、在测试主机切换到hbase用户,执行hbase shell进入hbase的cli视图;112、create表,执行语句:create'test','f1','f2','f3',完成后再执行list,查看表是否存在;113、disable表,执行语句:disable'test',完成后再执行describe'test';114、alter表,执行语句:alter'test',{name=>'f3',method=>'delete'},完成后再执行describe'test';115、enable表,执行语句:enable'test',完成后再执行describe'test';116、drop表:先执行disable'test',再执行drop'test',最后执行list;117、s19、sparksql基本操作测试的测试步骤:118、在测试主机切换到spark用户,执行spark-shell进入spark的cli视图;119、用create语句建表,执行语句:sqlcontext.sql(“create external table test(a int,b string)row format delimited fields terminated by','stored astextfile”).show;120、执行语句查看表test是否存在:sqlcontext.sql(“show tables”).show;121、alter表,执行语句:sqlcontext.sql(“alter table test rename to mytest”).show;122、执行语句查看表名是否修改:sqlcontext.sql(“show tables”).show;123、drop表,执行语句:sqlcontext.sql(“drop table mytest”).show;124、执行语句查看表mytest是否存在:sqlcontext.sql(“show tables”).show;125、s20、hive基本操作测试的操作步骤:126、在测试主机切换到hive用户,执行hive进入hive的cli视图;127、用create语句建表,执行语句:create external table test(a int,bstring)row format delimited fields terminated by','stored as textfile location'/tmp/hive_test/test1';128、执行语句查看表test是否存在:show tables;129、alter表,执行语句:alter table test rename to mytest;130、执行语句查看表名是否修改为mytest:show tables;131、drop表,执行语句:drop table mytest;132、执行语句查看表mytest是否存在:show tables。133、进一步的,所述步骤s1中,多协议存储池创建测试、多协议互通测试、快照功能、容量配额功能、qos功能的三级指标占比均为4%;134、nfs和cifs协议接口测试、容量配额功能、文件数配额功能、对接ai域功能的三级指标占比均为5%;135、桶和对象基本操作、桶acl权限控制、桶策略控制、多段方式上传对象、桶日志功能的三级指标占比均为6%;136、hdfs功能、yarn&mapreduce功能测试、hbase表基本操作测试、sparksql基本操作测试、hive表基本操作测试的三级指标占比均为6%。137、进一步的,所述步骤s2中,多协议存储池创建测试的测试步骤的预期结果:存储池创建成功,各节点服务开启成功,存储的文件、对象、大数据服务正常;138、所述步骤s3中,多协议互通测试的测试步骤的预期结果:cifs、nfs挂载成功,大数据平台与存储完成对接,所有协议主机操作成功,文件列举成功,所有协议主机均看到所有文件,文件下载成功,所有协议主机下载文件md5一致。139、进一步的,所述步骤s4中,快照功能的测试步骤的预期结果:以cifs、nfs挂载成功,大数据平台与存储完成对接,所有协议主机操作成功,快照创建成功,快照数据与源文件内容一致;140、所述步骤s5中,通用功能中容量配额功能的测试步骤的预期结果:配额设置成功,以cifs、nfs挂载成功,大数据平台与存储完成对接,数据写入成功,文件超额写入失败;141、所述步骤s6中,qos功能的测试步骤的预期结果:对命名空间设置qos成功,性能符合qos设定,关闭命名空间策略后,业务性能恢复。142、进一步的,所述步骤s7中,nfs和cifs协议接口测试的测试步骤的预期结果:挂载成功,操作成功,查看内容一致;143、所述步骤s8中,文件业务功能中容量配额功能的测试步骤的预期结果:配额设置成功,挂载成功,数据写入成功,数据超额写入失败;144、所述步骤s9中,文件数配额功能的测试步骤的预期结果:配额设置成功,挂载成功,数据写入成功,数据超额写入失败;145、所述步骤s10中,对接ai域功能的测试步骤的预期结果:cifs共享配置成功,映射成功,文件操作成功。146、进一步的,所述步骤s11中,桶和对象基本操作的测试步骤的预期结果:创建桶成功,查询桶信息成功,上传、下载和删除对象成功,删除桶成功;147、所述步骤s12中,桶acl权限控制的测试步骤的预期结果:bucketacl1创建桶成功、上传对象成功;设置桶权限、获取桶权限成功;bucketacl2列举对象成功、上传对象失败;设置桶权限、获取桶权限成功;bucketacl2上传对象成功;bucketacl1删除桶成功;148、所述步骤s13中,桶策略控制的测试步骤的预期结果:创建桶成功,上传对象成功,设置桶访问策略成功,读取对象成功,读取对象失败,上传对象成功,上传对象失败,删除对象失败,删除对象失败,删除对象成功;149、所述步骤s14中,多段方式上传对象的测试步骤的预期结果:创建桶成功,用户使用多段上传功能上传对象成功,下载对象成功;150、所述步骤s15中,桶日志功能的测试步骤的预期结果:创建桶成功,开启桶日志功能成功,对象操作成功,能够查看上传、下载、删除日志。151、进一步的,所述步骤s16中,hdfs功能测试的测试步骤的预期结果:执行成功,没有错误提示;查询结果包含创建的mydir目录;执行成功,没有错误提示;查询结果有mydir目录;执行成功,没有错误提示,查询命令查询结果可以看到/hdfs_test目录下有testaccess.txt文件;执行成功,没有错误提示,查看本地“/tmp”目录下有testaccess2.txt文件;执行成功,没有错误提示,查询命令查询结果“/hdfs_test”目录下没有testaccess.txt文件;152、所述步骤s17中,yarn&mapreduce功能测试的测试步骤的预期结果:提交mapreduce作业成功,执行成功,能够查看到jobld、state等信息,terasort执行成功;153、所述步骤s18中,hbase表基本操作测试的测试步骤预期结果:hbase shell执行成功,进入hbase视图;create表成功,执行list可以查看表已经存在;执行成功,查看表状态为disabled;执行成功,查看表状态列族f3已经不存在;执行成功,查看表状态为enabled;执行成功,执行list可以查看表已经不存在;154、所述步骤s19中,sparksql基本操作测试的测试步骤的预期结果:成功进入spark的cli;执行创建表语句没有任何错误信息,show tables,查看表后会显示刚创建的表test;查看表名已经被修改为mytest;表mytest删除成功,再次执行show tables发现表mytest已经删除;155、所述步骤s20中,hive基本操作测试的操作步骤的预期结果:成功进入hive的cli,执行创建表语句没有任何错误信息,show tables,查看表显示刚创建的表test,showtables查看表名已经被修改为mytest,表mytest删除成功,show tables查看表mytest已经删除。156、进一步的,所述分布式融合存储系统性能等级评定方法还包括下述步骤:157、s21、评分标准:158、针对各项功能测试,按照所示权重进行赋分,为了推动分布式存储具备更多创新功能,对对象业务功能、大数据业务功能赋予权重各赋30%,对于基础通用功能和文件业务功能,各赋20%,各项测试若通过则按权重赋予满分,若不通过则记该项为0分;159、根据打分结果将分布式融合存储功能测试分为五个等级,l1—l5,各等级分布式融合存储方案能表述如下:160、l1:低于20,方案难以适用企业业务,亟需重构系统,加强设计;161、l2:大于等于20,低于40,分布式融合存储方案功能不健全,难以支撑企业业务开展;162、l3:大于等于40,低于60,分布式融合存储方案设计一般,基本可用,但有较大提升空间;163、l4:得分大于等于60,低于80%,分布式融合存储方案设计良好,仍有提升空间;164、l5:得分大于等于80分,分布式融合存储方案设计优良,能够支撑企业开展分布式业务。165、进一步的,所述分布式融合存储系统性能等级评定方法还包括下述步骤:166、s22、信息记录:167、在进行上述s2-s21步骤时的功能测试时,基于系统硬件记录对应的测试结果,即采用不同规格的硬件使得系统会产生对应的测试结果,还记录硬件名称以及其各销售渠道的售价;168、s23、硬件优化:169、基于测试结果、硬件价格对各硬件加以排序,并根据当前硬件所搭载的系统推荐硬件优化方案。170、进一步的,所述步骤s23中,硬件优化方案能够直接展示当前硬件向上更换后所需的价格以及优化后系统测试结果的提升。171、本发明提供了一种分布式融合存储系统性能等级评定方法,具备以下有益效果:172、1.该分布式融合存储系统性能等级评定方法,从通用功能、文件业务功能、对象业务功能、大数据业务功能四个维度对分布式融合存储系统的主要功能进行测试,并对测试结果进行分级评价,综合性评价数据中心分布式融合存储方案设计是否满足企业应用需求,在进行分布式融合存储评价过程中,针对各项指标提出了具体的打分参考标准,依据各项指标的重要性赋予不同分值权重,这使得数据中心分布式融合存储方案评价能够更加接近于用户的实际需求。173、2.该分布式融合存储系统性能等级评定方法,通过对不同硬件上的系统各功能进行测试,以记录不同规格硬件对系统功能的加持效果,即越简陋的硬件其加持效果越低,而越精密的硬件其加持效果则越高,在记录不同硬件对系统中对应测试功能的测试结果后,还基于硬件名称搜集各销售渠道下的售价,由此在对当前硬件中的系统各功能进行测试时,基于测试结果向上列入优于该测试结果的其它测试结果,并基于其它测试结果显示对应的硬件以及硬件各渠道价格,并显示其它测试结果与测试结果之间的差距,由此在后续针对某一功能进行优化时提供硬件优化方案的参考。当前第1页12当前第1页12
    技术特征:

    1.一种分布式融合存储系统性能等级评定方法,其特征在于:所述分布式融合存储系统性能等级评定方法包括下述步骤:

    2.根据权利要求1所述的一种分布式融合存储系统性能等级评定方法,其特征在于:所述步骤s1中,多协议存储池创建测试、多协议互通测试、快照功能、容量配额功能、qos功能的三级指标占比均为4%;nfs和cifs协议接口测试、容量配额功能、文件数配额功能、对接ai域功能的三级指标占比均为5%;桶和对象基本操作、桶acl权限控制、桶策略控制、多段方式上传对象、桶日志功能的三级指标占比均为6%;hdfs功能、yarn&mapreduce功能测试、hbase表基本操作测试、sparksql基本操作测试、hive表基本操作测试的三级指标占比均为6%。

    3.根据权利要求1所述的一种分布式融合存储系统性能等级评定方法,其特征在于:所述步骤s2中,多协议存储池创建测试的测试步骤的预期结果:存储池创建成功,各节点服务开启成功,存储的文件、对象、大数据服务正常;所述步骤s3中,多协议互通测试的测试步骤的预期结果:cifs、nfs挂载成功,大数据平台与存储完成对接,所有协议主机操作成功,文件列举成功,所有协议主机均看到所有文件,文件下载成功,所有协议主机下载文件md5一致。

    4.根据权利要求1所述的一种分布式融合存储系统性能等级评定方法,其特征在于:所述步骤s4中,快照功能的测试步骤的预期结果:以cifs、nfs挂载成功,大数据平台与存储完成对接,所有协议主机操作成功,快照创建成功,快照数据与源文件内容一致;所述步骤s5中,通用功能中容量配额功能的测试步骤的预期结果:配额设置成功,以cifs、nfs挂载成功,大数据平台与存储完成对接,数据写入成功,文件超额写入失败;所述步骤s6中,qos功能的测试步骤的预期结果:对命名空间设置qos成功,性能符合qos设定,关闭命名空间策略后,业务性能恢复。

    5.根据权利要求1所述的一种分布式融合存储系统性能等级评定方法,其特征在于:所述步骤s7中,nfs和cifs协议接口测试的测试步骤的预期结果:挂载成功,操作成功,查看内容一致;所述步骤s8中,文件业务功能中容量配额功能的测试步骤的预期结果:配额设置成功,挂载成功,数据写入成功,数据超额写入失败;所述步骤s9中,文件数配额功能的测试步骤的预期结果:配额设置成功,挂载成功,数据写入成功,数据超额写入失败;所述步骤s10中,对接ai域功能的测试步骤的预期结果:cifs共享配置成功,映射成功,文件操作成功。

    6.根据权利要求1所述的一种分布式融合存储系统性能等级评定方法,其特征在于:所述步骤s11中,桶和对象基本操作的测试步骤的预期结果:创建桶成功,查询桶信息成功,上传、下载和删除对象成功,删除桶成功;所述步骤s12中,桶acl权限控制的测试步骤的预期结果:bucketacl1创建桶成功、上传对象成功;设置桶权限、获取桶权限成功;bucketacl2列举对象成功、上传对象失败;设置桶权限、获取桶权限成功;bucketacl2上传对象成功;bucketacl1删除桶成功;所述步骤s13中,桶策略控制的测试步骤的预期结果:创建桶成功,上传对象成功,设置桶访问策略成功,读取对象成功,读取对象失败,上传对象成功,上传对象失败,删除对象失败,删除对象失败,删除对象成功;所述步骤s14中,多段方式上传对象的测试步骤的预期结果:创建桶成功,用户使用多段上传功能上传对象成功,下载对象成功;所述步骤s15中,桶日志功能的测试步骤的预期结果:创建桶成功,开启桶日志功能成功,对象操作成功,能够查看上传、下载、删除日志。

    7.根据权利要求1所述的一种分布式融合存储系统性能等级评定方法,其特征在于:所述步骤s16中,hdfs功能测试的测试步骤的预期结果:执行成功,没有错误提示;查询结果包含创建的mydir目录;执行成功,没有错误提示;查询结果有mydir目录;执行成功,没有错误提示,查询命令查询结果可以看到/hdfs_test目录下有testaccess.txt文件;执行成功,没有错误提示,查看本地“/tmp”目录下有testaccess2.txt文件;执行成功,没有错误提示,查询命令查询结果“/hdfs_test”目录下没有testaccess.txt文件;所述步骤s17中,yarn&mapreduce功能测试的测试步骤的预期结果:提交mapreduce作业成功,执行成功,能够查看到jobld、state等信息,terasort执行成功;所述步骤s18中,hbase表基本操作测试的测试步骤预期结果:hbase shell执行成功,进入hbase视图;create表成功,执行list可以查看表已经存在;执行成功,查看表状态为disabled;执行成功,查看表状态列族f3已经不存在;执行成功,查看表状态为enabled;执行成功,执行list可以查看表已经不存在;所述步骤s19中,sparksql基本操作测试的测试步骤的预期结果:成功进入spark的cli;执行创建表语句没有任何错误信息,show tables,查看表后会显示刚创建的表test;查看表名已经被修改为mytest;表mytest删除成功,再次执行show tables发现表mytest已经删除;所述步骤s20中,hive基本操作测试的操作步骤的预期结果:成功进入hive的cli,执行创建表语句没有任何错误信息,show tables,查看表显示刚创建的表test,show tables查看表名已经被修改为mytest,表mytest删除成功,show tables查看表mytest已经删除。

    8.根据权利要求1所述的一种分布式融合存储系统性能等级评定方法,其特征在于:所述分布式融合存储系统性能等级评定方法还包括下述步骤:

    9.根据权利要求1所述的一种分布式融合存储系统性能等级评定方法,其特征在于:所述分布式融合存储系统性能等级评定方法还包括下述步骤:

    10.根据权利要求9所述的一种分布式融合存储系统性能等级评定方法,其特征在于:所述步骤s23中,硬件优化方案能够直接展示当前硬件向上更换后所需的价格以及优化后系统测试结果的提升。


    技术总结
    本发明公开了一种分布式融合存储系统性能等级评定方法,涉及分布式融合存储系统技术领域,从通用功能、文件业务功能、对象业务功能、大数据业务功能四个维度进行测试。该分布式融合存储系统性能等级评定方法,从通用功能、文件业务功能、对象业务功能、大数据业务功能四个维度对分布式融合存储系统的主要功能进行测试,并对测试结果进行分级评价,综合性评价数据中心分布式融合存储方案设计是否满足企业应用需求,在进行分布式融合存储评价过程中,针对各项指标提出了具体的打分参考标准,依据各项指标的重要性赋予不同分值权重,这使得数据中心分布式融合存储方案评价能够更加接近于用户的实际需求。

    技术研发人员:郭亮,邱奔,王少鹏,李洁
    受保护的技术使用者:中国信息通信研究院
    技术研发日:
    技术公布日:2024/11/26
    转载请注明原文地址:https://tc.8miu.com/read-27899.html

    最新回复(0)