中国数据存储服务平台

英睿达X10 Pro移动固态盘,让iPhone 15 Pro变成能拍电影的手机

朱 朋博

苹果官方宣传片里介绍了iPhone 15 直接连接外接固态盘的新特性,能用iPhone 15 Pro拍摄大量60FPS ProRes 4k视频,更是扬言这是能拍电影的手机。

看到这里,广大果粉似乎又多了一个把买iPhone当做买生产力的理由,不过,在变成生产力之前,不要忘了选一块靠谱的移动固态盘。

选对移动硬盘,把iPhone 15 Pro变拍照生产力

全新iPhone 15 系列带来了钛金属外壳,更强的摄像头,也带来了标准的USB-C接口,可以直接与Andriod手机通用充电线,苹果用户出门再也不用单独带充电线了。

而且,因为无需MFI认证。所以,可以直接插入外置固态硬盘,直接把视频文件直接传到外置固态硬盘上。

作为量入为出、勤俭持家的打工人,笔者愿意将这次更新视为苹果最有良心的重大更新。

因为,iPhone 15同系列里,128GB和256GB版本差价为1000人民币,256GB和512GB版本差价为2000。“夸”苹果是“最会赚钱”的硬盘厂商一点也不过分。

然而,1000块钱左右就能买一块2TB的英睿达X9 Pro或者X10 Pro移动固态盘了,如果能把数据即时迁移到外置移动固态盘上,就能省下很多钱,是不是很会过日子。

当然,从实际使用角度来讲,256GB是最合理的选择,因为除了照片视频这种占空间的文件,还有即时通讯、社交媒体等应用程序要用的数据,这些数据导出来会影响使用。

iPhone 15系列用户在选择移动固态盘时,要注意3点:

首先,选择你觉得稳定可靠的牌子,不然数据丢了可就很难找回来了。

第二,一定要避开移动磁盘,避开还在用micro USB接口的盘,一定得选USB-C的固态硬盘。

第三,还需要注意一下固态硬盘的接口速度问题,这个重点说。

iPhone 15和iPhone 15 Plus采用的是USB 2.0规格,最高速率是480Mb/s,大约60MB/s。而iPhone 15 Pro和iPhone 15 Pro Max的传输速率为10Gb/s,大约为1280 MB/s。

市场上移动固态盘的读写速度相差很大,像英睿达X9 Pro的2TB版本的标称读写速度都分别为1050MB/s,它可能会对iPhone 15 Pro和iPhone 15 Pro Max造成性能瓶颈。

花大价钱买来的新一代苹果手机,怎么能受性能瓶颈的委屈?

对于Pro系列用户来说,英睿达X10 Pro 2TB版本最高读写速度分别为2100MB/s、2000MB/s,性能还有不少余量,用起来就不容易遭遇性能瓶颈了。

小结论:iPhone 15和iPhone 15 Plus用户跟英睿达X9 Pro更搭配,iPhone 15 Pro和iPhone 15 Pro Max更适合选英睿达X10 Pro。

试玩英睿达X9 Pro和英睿达X10 Pro

英睿达X10 Pro和英睿达X9 Pro外形都很精巧,有防尘和防水设计,支持密码保护和AES 256硬件加密。正面是硬硬的有金属质感的材料,摸上去凉凉的,另一面有亲肤质感,手感挺舒服的。

当我试着把英睿达的移动硬盘插到iPhone 15上,不对,忘了我没有(钱)买。是插到我的一加Ace Pro安卓机上之后,手机系统显示如上图。

我可以将照片和视频移动到这块硬盘上,为手机腾出空间。第一次插手机上如果报错,用exFAT格式格式化一下即可。

插手机上之后是这样的画面。一对比就能看到,英睿达X10 Pro和英睿达X9 Pro的尺寸非常小巧。相对上一代英睿达X8的尺寸小了很多,重量也轻了很多,手感也更好。

插在iPad Pro 2021上之后,可以在文件管理栏找到这块盘,苹果系统的兼容性好像更好一点,不需要格式化就可以直接识别。同样的,我也可以把数据从iPad迁移到硬盘上,为iPad减负。

当我把它插在笔记本电脑上,比如,已经没有传统USB-A口的Macbook上就非常合适,因为,英睿达X10 Pro和英睿达X9 Pro已经不像英睿达X8那样提供USB-A转接头了。

想想也对,都用上移动固态盘了,谁还没几个USB-C的设备呢。

最后简单跑跑分

这两款移动固态盘兼容Windows,Mac,Android,iPad,PC,以及Linux,这里没提到iOS,因为苹果没有加密,所以肯定也是兼容的。

想看看性能表现的话,还是得用Windows PC。因为,英睿达X10 Pro的接口是USB 3.2 Gen-2 2×2 (20Gb/s)的,所以,得有同级别的主板接口才行。

右上角标有20的USB-C口就是20Gbps的口

我的主板是华硕TUF Gaming X670E Plus Wifi,主板上带有USB 3.2 Gen 2×2的接口,CPU是AMD Ryzen 7600,别的硬件就不介绍了,随便看看性能表现就行。

英睿达X10 Pro

英睿达X9 Pro

考虑到这种固态盘可能经常要在多种不同系统间使用,所以使用的文件系统就还是默认的exFAT格式的,分配的单元大小是默认的512KB的。两块盘,先给英睿达X10 Pro跑分,再给X9 Pro跑分。

首先,让CrystalDiskMark登场,这是一款流行的存储性能测试工具,主要用于测量磁盘、固态盘以及其他类型存储设备的读写速度。广泛用于业界基准测试和产品评测,被认为是相对准确和可靠的测试工具。

AS SSD Benchmark 是一款专门用于测试固态硬盘(SSD)性能的软件工具。与 CrystalDiskMark 类似,它也提供了一系列的测试选项。除了基础的性能测试外,AS SSD Benchmark 还提供了压缩性能测试和拷贝测试(Copy Benchmark)。

ATTO Disk Benchmark 是一款广泛使用的磁盘性能测试工具,也适用于固态硬盘(SSD),它主要用于测试硬盘的读写速度,在不同数据块大小下进行顺序读写测试,从而提供了一种性能评估。

结束语

上面也提到了,英睿达X9 Pro适合数字版的iPhone 15,X10 Pro适合Pro版iPhone 15。

从存储的角度看,数字版的iPhone 15的接口性能太差了,而英睿达X9 Pro读写1050MB/s的标称性能其实已经非常够用了。

2023年,绝大部分的设备还没有配备USB 3.2 Gen-2 2×2 (20Gb/s)速率,只有少数关乎生产力的设备才会用到这样的性能,iPhone 15 Pro也算是其中一个吧,比如,就像苹果说的那样,把手机变成拍电影的摄像机。

Solidigm推出基于SLC的D7-P5810,可作为傲腾固态盘平替

朱 朋博

现在都2023年了,TLC固态盘是绝对主流,QLC渐入佳境,MLC已不太常见,SLC就更难看见了。2023年9月21日,Solidigm宣布推出面向数据中心市场的SLC固态盘——Solidigm D7-P5810,可能是打算用它替代傲腾固态盘。

Solidigm在介绍新的D7-P5810时提到了CSAL(Cloud Storage Acceleration Layer ),原来CSAL主要依靠傲腾搭配QLC的方案,现在傲腾的部分则是替换成了基于SLC的D7-P5810。

Solidigm这是直接把SLC盘当傲腾盘的平替了。

D7-P5810 非常耐写,随机写入的DWPD最高50 次,顺序写入DWPD最高65。所以,在CSAL方案里,基于SLC的D7-P5810被用作缓存能显著提高应用性能。同时,利用大容量较低成本的QLC来改善TCO。

作为CSAL的写缓冲区,数据会先写入SLC SSD中,由此获得更快的提交速度和后续读取速度。待数据冷却后,再将其聚合、压缩、批量写入下层的高容量QLC硬盘中(比如Solidigm D5-P5336),从而在该介质上实现更高的存储空间效率。

阿里云ECS本地磁盘 D3C中使用了CSAL,CSAL的持久化写缓冲区需要使用高性能固态盘,高性能固态盘有两种可选,一种是英特尔傲腾固态盘,另外一个就是SLC固态盘。英特尔已经宣布不再研发傲腾新品,现有基于傲腾的方案后续也自然会迁移到SLC方案上。

有趣的是,英特尔傲腾固态盘的产品名字叫 P5800X/P5810X/P5820X,而D7-P5810的命名似乎参考了英特尔傲腾固态盘的名字,或许想要让用户从傲腾固态盘平滑迁移到基于SLC的D7-P581吧。

傲腾确实是一个好东西,超高的耐久性,还有在高业务负载下持续稳定的低延迟和高性能还是很有实用价值的。但是,由于其通用性较差,成本较高,即使是在英特尔的全力推动下也没有取得市场上的成功。

相比之下,作为一种NAND闪存,SLC拥有更强的普适性,它不只是英特尔或者美光专属的产品。所以,基于SLC的CSAL有很强的技术开放性,更容易被更多用户接受。更重要的是,SLC所需成本不到非 NAND SCM (傲腾SCM)技术的 20%。

与同级别的其他硬盘相比,D7-P5810在随机读写上的优势更为明显。和同类产品相比,可将缓存、高性能计算(HPC)、数据记录、日志等多个场景的性能提升高达 2 倍,

D7-P5810使用Solidigm 久经考验的 144 层 3D NAND介质, 是一款 PCIe 4.0 产品。现在推出的是 800GB(U.2 15mm外形规格)版本,2024 年上半年推出还将推出1.6TB 版本。

看来Solidigm发布SLC的盘不是偶然,向上做SLC,向下也做QLC。

HAMR磁盘在手,希捷从容应对AIGC带来的数据挑战

朱 朋博

2023年,AIGC是科技界的顶流话题,也被很多人视为行业变革的可能。有人说AIGC已是生产力,有人说它是泡沫。

但可以肯定的是,AIGC作为绽放在数据海洋上的一朵艳丽的花朵,也将成为数据增长的新引擎。作为大容量磁盘厂商,希捷希望用HAMR技术来帮助用户从容应对AIGC带来的数据挑战。

面对生成式AI的存储挑战,磁盘存储大有可为

IDC预计,到2027年,全球数据量将达到291 ZB,此前IDC预测的数据是,到2025年,全球数据量将达到175 ZB。短短几年前后,数据量预计又多出了100 多个ZB,可见数据增速是多么的不可思议。

2023年,随着以ChatGPT为代表的生成式AI技术的兴起,AI模型居然又成了新的数据增长引擎。因为,使用过生成式AI能力的人会知道,现在想要用生成式AI来产出点内容,简直太简单了。

比如,在全民自媒体时代,一个完整的视频只需要一个想法即可。内容创作者可以用AI来写视频脚本,用AI来生成图像内容和背景音乐,甚至配音都由AI来生成。同时,数字人技术越来越成熟,一些视频博主直接用自己的形象包装了数字人,做录视频根本不用本人出镜。

在希捷中国区产品线管理总监刘嘉看来,AIGC技术目前还处于偏早期的阶段,他认为,随着AIGC技术的不断成熟,AIGC相关应用也会越来越多,它会产生更多数据,AI会代替人来产生更多数据,磁盘将是这些数据的重要存储载体。

数据的加速产生自然会对数据存储设施带来挑战,作为全球主要的磁盘和闪存存储供应商,希捷不断在研究新的存储技术,以满足不断增长的数据存储市场。过去几年以来,希捷将采用HAMR(热辅助磁记录技术)的硬盘推向市场,改变了磁盘容量增长的节奏。

HAMR技术加快了磁盘容量的增长步伐

从此前希捷公布的技术产品路线图中可见,2023年要推出采用HAMR技术的30+TB磁盘,2024年将推出40TB+磁盘,2026年将会推出50+TB的磁盘,磁盘容量按照10+TB的节奏不断增长,这与过去十多年的磁盘容量增长节奏大不相同。

想提升磁盘容量主要有两个方面,一个是增加磁盘的碟片的个数,一个是提高碟片的面密度(Areal Density)。

从刘嘉的介绍中了解到,希捷是第一个做出10碟片硬盘的厂商,希捷认为,10个碟片在成本、良品率、容量、功耗方面达到了比较好的平衡,将碟片控制在10个是最优解,至少在未来5年以内都是最优解。

所以,磁盘容量提升主要就靠提升面密度了。HAMR技术可以使用更小、更稳定的磁性颗粒,这些小颗粒可以更密集地排列,从而进一步提高盘片的面密度,进而提高磁盘的整体容量。

当然也不能一味的只是提升容量,过去几年来,希捷通过双磁臂技术(MACH.2)提升磁盘的性能表现,其第一代双磁臂硬盘是14TB,第二代容量为18TB。据刘嘉介绍,双磁臂硬盘在国内外拥有众多用户,整体销量在百万级,称得上是机械硬盘近年来一个非常成功的创新。

在刘嘉看来,AIGC既对容量有要求,也对性能有要求。所以,采用双磁臂技术的产品非常适合AIGC。

当然,对存储性能有要求的远不只是AIGC,随着以HAMR为代表的更高密度硬盘的出现,双磁臂技术(MACH.2)甚至未来多磁臂技术也非常有必要,因为只提升容量而不提升性能意味着新的性能瓶颈。

大容量磁盘VS.大容量闪存盘

站在2023年,必须要考虑闪存存储对于磁盘存储的影响。2022年到2023年期间,闪存存储的单位容量成本有了明显降低,同时,随着QLC闪存产品的推出,以及一些基于QLC的闪存存储系统的推出,也都给磁盘存储带来了一些压力。

对此,刘嘉表示,在相对成熟度更高的海外市场上,一些互联网公司在采用磁盘和闪存存储时,会有一个相对稳定的整体比例,这一比例在过去几年都没有什么变化,闪存盘增长的同时,磁盘也在增长,两者在未来也会保持协同发展的态势。

从第三方公布的数据来看,在未来5年,固态硬盘每年年复合增长率在30%左右,大容量机械硬盘的增长率也是在25%-30%。在很多超大规模数据中心用户看来,成熟度和可靠性更高的磁盘,在数据留存时间、数据恢复以及成本方面还是有明显的竞争力的。

特别是HAMR技术带来高容量磁盘,将带来很高的TCO优势。刘嘉表示,HAMR带来的容量高增速对于用户成本有很大帮助,当40TB或者50TB的HAMR磁盘推出时,原来需要一万台服务器才能提供的容量,现在只需要五千多台就行,总体成本会大幅降低。

不得不说,超大规模数据中心用户自然有技术实力来用上大容量磁盘,为了安全地让更多企业用户也用上大容量磁盘,希捷开发了Exos CORVAULT磁盘存储系统。

此前发布的4U106 CORVAULT系统在4U空间里提供了106块大容量磁盘,提供2.12PB的容量,该系统采用专有的ASIC技术做主控,采用了ADAPT技术实现高可用,让用户轻松用上了大容量磁盘。希捷已经发布5U84的新版本系统,在高密度上会有新的突破。

当然,希捷除了不断开发磁盘技术,也在布局闪存存储。在ODCC活动现场,希捷除了展示各种磁盘以外,也展示雷霆(Nytro)系列大容量企业级固态硬盘,还有Nytro X 2U24在内的全闪存储系统以及混闪存储系统。

DDR4用得好好的,为什么要搞DDR5呢?

朱 朋博

过去几年来,数据中心市场和移动市场上的内存技术创新,重点关注如何降低功耗。随着DDR5的推出,内存将性能提升作为重点,性能提升主要依靠内存带宽的提高。

有人说,DDR4的性能也不错,用得也挺好的,为什么要提高性能,为什么要要搞DDR5呢?

其实,随着现代应用复杂度的不断提升,对计算能力的要求也越来越高。为了提高计算性能,无论是英特尔还是AMD,都将多核CPU视为重点。

然而,随着核数增多,实际性能却并非线性增长,限制性能发挥的原因之一,就是单核内存带宽的下降。

受限于带宽降低,应用延迟就会增大、性能会降低,这是谁都不想看到的。

这一现象其实非常明显,比如说,一个使用DDR4 3200内存的8核处理器,每个核心可以分到4.2GB/s的带宽。

但是如果换成16核的,那么单核内存带宽就变成2.1GB/s了,16核处理器无法完全发挥真正的性能。

如果换成DDR5-5600内存的话,16核处理器每个核心的带宽又变成了原来的4.2GB/s,拥有更高带宽的DDR5内存就是为此而生的,因为,它能充分释放多核处理器的性能优势。

常见的DDR4是3200MT/s,常见的DDR5则是从4800MT/s起步,随后又有了5600MT/s等更高标准的内存,未来DDR5的峰值将达到8800MT/s,DDR5的内存提升幅度会很大。

DDR5的高传输速率和高频是大势所趋,属于DDR5的时代正在来临。

如今,AMD 7000系处理器已经只支持DDR5内存了,英特尔的12代和13代虽然同时支持DDR4和DDR5内存,但随着核数增多,DDR5的实际价值也越来越明显。更重要的是,现在DDR5的内存价格已经比较低了。

记得一年前,8GB DDR4 3200大约200块钱,当时觉得已经比较可以了,而现在16GB起步的DDR5内存单条大约为300块,我也觉得比较有性价比。当然,不排除继续降价的可能。

虽然整体上DDR5的价格大约比DDR4的价格高了40%左右,但相较于半年前,DDR5内存的价格还是降了很多的,准备14代酷睿的朋友可以看看DDR5了,听说14代酷睿不用换主板。

今年,我自己装了一台新主机,因为不想用水冷了,所以,就换了更入门款的AMD Ryzen 5 7600,甚至都是不带X的版本,实际运行起来挺安静的。

主板选择的是华硕TUF X670E Plus,有一个支持PCIe 5.0的M.2接口。内存方面,它只支持DDR5内存,好在AMD平台的主板针脚的更新频率比较慢,2023年拿下这张AM5主板,称得上是能战未来的主板了吧。

我用的内存是英睿达最新的Pro系列DDR5 5600 16GBx2套装,带有内存散热马甲。另外,还有两个是英睿达普通版本的内存条,也是DDR5 5600 16GBx2套装。

虽然Ryzen 5 7600 CPU只支持5200的传输速率,但是,由于这四根内存都支持AMD的EXPO超频技术,所以,也能正常在5600的速率下工作。

上图展示的是,它同时支持AMD的EXPO和英特尔的XMP 3.0内存超频技术。

英特尔那边的13代酷睿已经支持最高5600的内存了,12代酷睿最高还是4800,主板配合的话,XMP 3.0内存应该能把12代酷睿的内存传输速率拉到5600。

DDR5的传输速率很高,意味着带宽能带来更高的性能;单条内存容量最高能做到128GB,意味着更大的内存上限;工作电压更低了,意味着更省电;DDR5甚至还引入了片上ECC,能减少蓝屏的概率。

但是有人注意到,DDR5的CAS(常说的CL值)延迟变大,是不是延迟变高了呢?

比如,DDR4 3200的CL值为22,DDR5 4800的CL值为40,DDR5 5600的CL值为46,提升幅度这么大,那就说明内存延迟变高了?

其实,真正的内存延迟是用纳秒为单位来计算的,计算公式为:真实内存延迟(纳秒)= (2000 / RAM速度) (纳秒) × CAS延迟。

实际算下来,DDR4-3200 CL22 的真实延迟为 13.75 ns,DDR5-4800 CL40的真实延迟为 16.67 ns,延迟确实变大了,但没有想象中那么大。

而且,随着DDR5-5600 CL46的出现,实际延迟为16.42ns,相较于DDR5 4800 CL40,延迟还有所降低了。

算完了内存的延迟数据,英睿达在官网数据中还测算了系统的延迟数据。

英睿达官网公布的数据显示,采用DDR5-4800 CL40内存的系统延迟为92.8 ns,采用DDR4-3200 CL22内存的系统延迟为90.0 ns,相差比例非常小。

与之相比,DDR5对内存带宽的提升则更为明显。

英睿达官网公布的数据显示采用DDR5-5600 CL46内存的系统带宽为69.2 GB/s,而DDR4-3200 CL22的内存带宽仅为33.6 GB/s。

更高的内存带宽,意味着用户可以在更短的时间内完成更多的工作。

对数据量大的用户来说,内存密集型工作负载带来的好处只会更大。当然,最终用户体验还取决于软件优化,运行各个软件时候的提升状况也各不相同。

上图是根据英睿达官网介绍的DDR5所带来的性能提升的概况,仅供参考,效果还是很明显的。

英睿达提到,很多应用都对DDR5做了优化,对于游戏玩家和生产力用户都能带来直接的性能提升。

最后,分享一下我这台拥有64GB DDR5 5600内存电脑的AIDA64跑分数据:

这是5600速率下的性能数据,带宽提升还是很明显的,当然也可以试试5200时候的数据,简单在BIOS设置一下就行。

我既然已经来到了5600了,就不再尝试5200了,毕竟,由奢入俭难啊。

2023年的戴尔科技,强调作为端到端整体架构提供商的优势

朱 朋博

2023年,公有云资源已是许多企业的默认配置,多云架构也顺其自然成了默认架构,这是企业级IT架构的基本面。

随着数字化转型的逐步深入,边缘计算支撑着更丰富的数字化转型场景,边缘计算和多云架构共同带来的安全边界上的变化,同时也带来了安全上的挑战。

面对这样的技术和市场趋势,作为一家科技公司要做什么呢?

2023年8月18日,戴尔科技集团一年一度的戴尔科技峰会在北京举办,戴尔科技集团大中华区信息基础架构解决方案事业部总经理陈洁,在采访中强调戴尔科技作为端到端整体架构提供商的优势。

戴尔科技拥有丰富全面的技术产品、专业服务和智能管理软件,为企业构建现代化数据架构,对不同云平台的数据资源进行管理和控制,并以端点级零信任体系帮助企业构建现代安全防线,实现数据的全方位防护。

作为戴尔科技信息基础架构解决方案的主要负责人之一,她表示,戴尔科技始终要做的就是了解客户的需求、痛点和面临的挑战,帮助企业实现数字化转型中的业务目标。

戴尔科技集团大中华区信息基础架构解决方案事业部总经理 陈洁

戴尔科技信息基础架构解决方案包括常见的服务器、存储系统、网络等基础产品线,还有与之紧密相关的多云架构解决方案,边缘计算解决方案,安全相关解决方案以及专业的IT服务能力。

戴尔科技信息基础架构解决方案,要如何帮助企业实现数字化转型中的业务目标的呢?

“快、专、智、稳”的服务器

作为在营收数额和出货量方面都处于领先地位的大型服务器厂商,戴尔科技在2022年年底和2023年上半年,先后发布了基于AMD热那亚的新一代服务器和基于英特尔第四代至强可扩展处理器的新一代服务器。

谈到新服务的服务器时,戴尔科技集团大中华区信息基础架构解决方案事业部资深总监席与琛将其总结为快、专、智、稳。

所谓“快”,指的是性能上的突飞猛进,很多新型号搭载了更多核心的处理器或者一些专用加速器。

“专”指的是针对各种不同应用场景的适应性,新一代服务器的一些型号针对很多典型场景做了很多优化,比如边缘计算方面就有针对性的调整。

“智”指的是在服务器中融合了AI的能力,比如智能散热、智能运维等。

“稳”指的就是稳定性,稳定性来自于丰富的设计经验,来自于精益求精的精神,这是戴尔科技成为全球规模最大服务器厂商的核心能力。

被软件驱动的存储系统创新

2023年上半年,戴尔科技存储方面发布了2000多个新的软件特性,涉及PowerStore、PowerMax、Unity XT、PowerFlex、PowerScale、ObjectScale、PowerProtect和CloudIQ等产品,戴尔科技将存储创新的重心放到了软件上,换言之,戴尔科技存储被软件创新所驱动。

戴尔科技集团大中华区信息基础架构解决方案事业部存储业务总经理刘志洪表示,“如今戴尔科技整个存储系统的创新确实更多是以软件创新为主,然而,这并不是新趋势”。

在他看来,存储系统原本就应该是以软件创新来驱动的,只不过,原来受限于存储硬件的不足,不得不做一些硬件的创新来弥补。随着硬件,特别是x86硬件性能达到一定阶段之后,一些存储系统得以舍弃专有硬件,比如软件定义存储。

Dell PowerEdge服务器迭代速度快,整体素质过硬,戴尔科技存储系统正在利用这些优势,基PowerEdge服务器打造了PowerFlex、PowerScale等软件定义存储解决方案。

考虑到存储系统的复杂性,要考虑效率、性能、稳定性、安全等诸多因素,很大一部分工作都要在软件上来落地,所以我们看到,创新更多以软件为主。

存储系统的智能化改造也是一个趋势,戴尔科技在PowerMax和PowerStore中都内嵌了机器学习引擎,提高数据的调动效率,减少用户的运维负担,这些能力通常也更多依赖软件层面上的创新。

在今年五月份召开的DTW上,戴尔科技宣布了APEX方案的多项更新,戴尔科技将块存储和文件存储能力放到了公有云上,这是戴尔科技在软件定义存储方案上的一大新举措,说到底,这些创新也是以软件为核心来开展的。

“呼朋唤友”的边缘计算创新

边缘计算是数字化转型发展到一定阶段的产物,当越来越多的业务发生在边缘侧,在车间、在商店、在病房、在电梯、在农田、在车站闸口都可能有边缘计算技术,边缘计算的场景越发多样化。

戴尔科技集团全球副总裁、大中华区售前系统工程部总经理杨捷表示,边缘的创新就是业务的创新,边缘的场景千变万化,每个行业各不相同,同一个行业不同客户也可能完全不一样。所以,戴尔科技要在考虑用户实际场景的基础上,与众多合作伙伴一起深入到边缘计算领域。

2023年,戴尔科技发布了边缘运营软件平台 NativeEdge,它可以帮助各行各业的企业安全地扩展其边缘业务,也为与更多合作伙伴进行合作提供了诸多便利。

在戴尔科技边缘计算合作伙伴当中,有的关注业务,有的关注人工智能技术,有的擅长解决网络问题,有的擅长安全技术,戴尔科技构建了一个不断丰富的边缘计算创新生态。

在杨捷看来,边缘计算非常复杂,但也非常有趣。比如,要解决一个安全问题,对接的客户可能不是企业的CSO(首席安全官),而是一个工厂的厂长。正因为如此,做边缘计算业务更需要进行更多投入,需要打造平台,需要打造生态。

边缘计算被视为继云计算之后,又一次IT基础架构变革浪潮。据IDC预测,到2024年,90%的企业业务将部署在边缘。边缘正成为企业获得数据洞察的重要来源,而数据技术风暴和竞争正在加剧边缘的革新。

戴尔科技拥有广泛多样且历经验证的边缘产品组合,覆盖从边缘到云的完整的数据生命周期,可帮助企业简化边缘环境,构建安全高效的边缘基础架构,挖掘数据价值,解锁新的创新优势

“零信任”保护系统,“三位一体”保护数据

多云架构和边缘计算的出现改变了原有的安全边界,传统安全手段开始失效。于是,包括戴尔科技在内的基础架构领域的厂商开始构建零信任架构体系,以零信任来保护系统。同时,戴尔科技还有包含数据备份、灾难恢复和CyberRecovery组成的三位一体的数据保护方案。

戴尔科技集团大中华区数据保护解决方案事业部技术总监李岩指出了企业安全防护方面的误区,他看到,如今有许多企业将工作的放在了安全检测和安全防护方面,但是缺乏对网络弹性的认识,网络弹性指的是遭受到网络攻击时的承受能力和快速恢复能力。

戴尔科技从基础架构层面帮助企业构建零信任架构。零信任首先要解决的是身份验证的问题,限制只有业务相关的人才能访问特定资源,过程中要反复验证身份。支撑这一套逻辑的是背后的一套通用控制层,它负责把业务逻辑解释成IT语言,最后交由基础架构来执行。

戴尔科技在基础架构领域积累深厚,会确保系统使用的各个组件都是安全可信任的,从软件操作系统到底层的一个硬件的Firmware都是经过安全认证的,戴尔科技的产品从设计、研发到生产制造,都会尊重零信任的安全原则,只有这样才能真正做到彻底的零信任。

“三位一体”是戴尔科技数据保护方案的经典组合式方案,数据备份解决数据安全和丢失的问题,灾难恢复解决异地容灾的问题,最后的CyberRecovery保护最核心的数据免受狡猾的勒索软件的攻击,从而避免核心业务遭受重创。

小结

作为一家提供端到端整体架构的服务商,戴尔科技有先进的产品方案,不断创新的技术投入,还有深耕行业的经验,在可持续发展方面也卓有成效。

陈洁在大会上表示:“戴尔科技从不同行业客户的业务需求出发,以科技创新、数据洞察、零信任的安全理念为基础帮助企业面对多云、数据管理以及网络威胁带来的挑战,重新构建智能、灵活、有弹性的现代化数据中心基础架构,以满足今天、明天以及未来的需求。”

正如陈洁所言,戴尔科技所做的不仅是要满足今天的需求,还有对明天以及未来的规划。2023财年,戴尔科技在可持续发展方面取得了卓越的成绩,包括使用了15.55万吨的可持续材料,产品组合中 94.5% 的包装由可再生材料制成,全球工厂59%的电力来自可再生能源等。

Aurora成首个部署英特尔Max GPU的超算,峰值性能突破2 百亿亿次

朱 朋博

2023年6月25日,英特尔宣布,Aurora超级计算机在阿贡国家实验室完成部署,可提供 2 Exaflops 的 FP64 (双精度)算力,将成为全球首台峰值性能可达每秒计算 200 亿亿次的超级计算机,性能可持续稳定在1 Exaflops 的 FP64的水平。

Aurora是第一个部署英特尔数据中心GPU Max系列的超级计算机,也是世界上最大的基于至强Max CPU的系统,同时,也拥有目前世界上最大的GPU集群。

Aurora超级计算机是英特尔、慧与(HPE)和美国能源部(DOE)的合作项目,设计目标是发挥高性能计算机在模拟、数据分析和人工智能方面的巨大潜力。

Aurora的各项参数都非常惊人。

2个至强CPU Max和6个英特尔数据中心Max GPU

Aurora拥有10624个刀片服务器节点,每个刀片配备两个具有HBM的英特尔至强CPU Max系列处理器,还有六个英特尔数据中心Max系列GPU。

也就是说,Aurora有21248 个英特尔至强CPU Max系列处理器,提供总计11万个核心。还有63744个用于处理AI和HPC工作负载的英特尔数据中心Max 系列 GPU。

英特尔数据中心Max系列 GPU主要用于高性能计算和AI场景,测试结果显示,它在实际的科学和工程工作负载上优势明显,如在OpenMC上的性能是AMD MI250X GPU的2倍,并且,它还可以近乎线性地扩展到数百个节点。

英特尔Xeon Max系列CPU是唯一一款将HBM放到了x86处理器上的处理器,在许多实际的高性能计算工作负载上,比如地球系统建模、能源和制造领域 ,比竞争对手的性能高40%。

存储方面。Aurora集成了超过1024个存储节点,存储系统使用的是英特尔开源的分布式异步对象存储(DAOS),提供220 PB的容量,31 TB/s的带宽,并利用了HPE Slingshot高性能网络。

高性能的存储对于处理涉及大量数据集的工作负载,如核聚变研究、科学工程、物理模拟、天气预测和其他任务都非常有用。

从应对气候变化,到研发治病药物,科研人员都需要动用大量计算资源。Aurora可用于满足高性能计算和AI的需求,作为推动科学技术突破的关键工具。

预计今年TOP500榜单,Aurora将占有重要的一个席位。

“在进行验收测试时,我们将使用Aurora来训练一些大规模的用于科学研究的开源生成AI模型,” 阿贡国家实验室副实验室主任Rick Stevens说道。”Aurora拥有超过60,000个英特尔Max GPU,一个非常快的I/O系统,还有一个全闪存的大规模存储系统,是训练模型的理想环境。”

Aurora所使用的刀片服务器各个部件,从处理器、内存、网络再到冷却技术,都非常先进。每台刀片包含两个英特尔至强Max系列CPU和六个英特尔数据中心Max系列GPU。

此前,Xeon Max系列在Sunspot上展示出了很好的性能表现,Sunspot是具有与Aurora相同架构的测试和开发系统。开发者可以利用oneAPI和AI工具来加速HPC和AI工作负载,并提高代码在多种架构上的可移植性。

刀片服务器的安装也是一个非常精细的活儿。

图自Auora官网:使用专门的机器来安装刀片

每个重达70磅的刀片服务器都需要专用的机器吊装到冰箱大小的机架中。Aurora有166个机架,每个机架可容纳64个刀片,整套系统占地大约两个专业篮球场的空间。

部署完成后,科研人员就能将应用从测试平台Sunspot上迁移进来,将应用放置到整个系统上来运行。

随着GPU在高性能计算和AI方面的优势逐步显现,英特尔开始发展GPU技术路线。

2022年底和2023年初,英特尔发布了数据中心 GPU Max系列,开始向阿贡国家实验室交付,如今正式完成了安装。

Aurora贡献了好几个里程碑,它是工业界首台性能超过2 ExaFLOPS的超级计算机,也是第一台基于英特尔的ExaFLOPS级别的超级计算机,标志着超算时代的一个重要里程碑。

数据中心应用液冷更省钱还是支出更高?英特尔这样解答

朱 朋博

2023年1月,英特尔第四代至强可扩展处理器发布,尽管平均性能每瓦效率提高了2.9倍,但最高TDP也从上一代的270瓦提升到了350瓦,依然为服务器散热带来了较大挑战。

在数据中心层面,国内政策对新建数据中心PUE,以及数据中心能耗利用效率提出了更高要求。如何提高能效利用率、降低碳排放,是基础设施领域亟待解决的问题。

这些背景之下,液冷也随之成为热点话题。但在现实面前,新的液冷必然需要额外资金投入,对数据中心建设和运营者来说,这笔额外的开销值得吗?

英特尔数据中心与人工智能集团副总裁兼中国区总经理陈葆立,将企业在液冷技术上的投资比作买节能灯,节能灯的购买成本更高,但是后期长期使用过程中能省电费,液冷技术也是如此。

液冷技术利用了液体比热容的优势来高效散热,能减少甚至减免机箱风扇的电费支出,减少数据中心机房的空调电费支出。此外,高效散热还能让处理器在较低的温度下工作,不用增加电压就能有较高的性能表现,从而可以提高每瓦性能表现。

传统风冷数据中心的PUE为1.4-1.5,如果改为液冷则可以做到近1.1,这能够显著改善整体能耗,进而大幅降低数据中心对能源的需求。

长远来看,液冷技术益处较多,但初始投入成本仍要尽可能降低。

从宁畅总裁秦晓宁的介绍中,记者了解到目前市场上有许多冷板散热方案,但其标准并没有统一,因此通用性较差,而这不仅会给用户带来困扰,还会导致成本的上升。因此,英特尔牵头制定冷板液冷团体标准,不仅在业界得到了广泛的认同,并且为客户带来了积极影响。据了解,英特尔平台上的冷板散热更有普适性,初始采购成本更低。

同时,英特尔市场营销集团副总裁、中国区数据中心销售总经理兼中国区运营商销售总经理庄秉翰也表示,英特尔在液冷技术发展中起到了链接产业的作用,英特尔联合生态伙伴共同定制了很多标准,这些标准有助于降低成本,也将推动产业化进程,加快液冷数据中心的普及。

从庄秉翰的介绍中了解到,液冷技术首先被大量应用在互联网行业,各个互联网公司都采取了不同的液冷方案,运营商对冷板的采用比例也很高,金融行业目前也在逐步采用液冷技术。现阶段,这些行业都已经跳过了POC阶段,进入到了规模化采用的阶段。

事实上,除了推动冷板方案标准化,英特尔还通过将绿色数据中心技术框架升级至2.0版本,围绕处理器、系统及软件与工具等创新,多个手段推动数据中心低碳、高能效可持续发展。

新的绿色数据中心技术框架2.0版本中,不仅加入了隐含碳排放,同时也细化了运营碳排放的维度。

该框架在原有的三个垂直领域,四个水平方向的基础上,新增了材料和可循环设计模块(上图右侧),旨在将可持续理念深入贯穿至源头的原材料及设计中,通过模块化服务器设计、可降解PCB及负责任材料计划等,降低数据中心整体生命周期的能耗。

在隐含碳排放中,英特尔提出创建模块化服务器,与合作伙伴联合打造通用开放服务器平台(OCSP),并发布OCSP模块化规范。目前,已有100多位本地生态伙伴加入OCSP社区,且多家厂商已推出或正在研发符合OCSP规范的主板、机箱和其他模组。

在处理器层面,第四代英特尔至强可扩展处理器的能效比达到了新的高度,处理器本身还内置了多种提高能效的技术,比如,如新的优化电源模式可以为某些工作负载带来高达20%的插槽节能,而对性能的影响仅有不到5%。

此外,提升供电板块效率亦有助于降低数据中心碳排放,基于此,英特尔也与生态伙伴从加速48v配电架构应用、以电源汇流排方案提升主板电源效率等维度,创新数据中心电源节能解决方案。

新华三集团计算存储产品线副总裁刘宏程表示,在合作过程当中英特尔为其提供了很多帮助,而且英特尔一直强调数据中心层面的可持续发展,不只是关注某一个元件技术,而是把数据中心的原件、部件、技术都纳入考量范围,以此来加速低碳数据中心的发展。

记者从刘宏程的介绍中了解到,此前,英特尔和新华三推出的节能方案帮助某运营商把5G方案的整体功耗降低了30%-40%。在新一代服务器里,英特尔创新地推出多种节能技术,这些技术的积累为双方的长期合作打下了重要基础。

在西数发布22TB磁盘的九个月后,希捷发布首款22TB盘

朱 朋博

在西部数据推出22TB硬盘九个月后,最近,希捷宣布推出首款22TB硬盘。

希捷IronWolf Pro 22TB硬盘的发布同时,宣布了与QNAP(威联通)的合作伙伴关系,合作涉及希捷的IronWolf Pro硬盘、Exos E JBOD存储系统和Lyve Cloud云存储解决方案。

希捷的新款22TB硬盘没有采用HAMR磁记录技术,主要面向NAS、直连存储(DAS)和RAID磁盘阵列等环境。

该硬盘包含10个2.222TB的碟片,封装在充满氦气的壳子里。相较于之前的9碟片20TB型号,新加入碟片使得硬盘的重量增加了,从680克增加到了690克。

新款22TB硬盘的功耗也有所上升,平均工作功耗现在为7.9瓦,而之前的20TB型号为7.7瓦。待机功耗为6瓦,而之前为5瓦。

希捷22TB IronWolf Pro

与之前的20TB产品相比,这款新硬盘在可靠性和工作负载方面有了显著的改进:MTBF(平均故障间隔时间)从120万小时提高到了250万小时,工作负载限制从每年300TB提高到了每年550TB。

性能方面,持续传输速率最高可达286MB,与之前相同,转速仍为7200转/分钟,接口为6Gbps的SATA。

这次容量增加没有用到HAMR技术,实际上,希捷的热辅助磁记录(HAMR)技术能带来容量的大幅跃升,下一季度,我们可能会看到希捷发布30TB的HAMR硬盘。

预计,希捷将很快推出22TB的Exos和SkyHawk版本,就像2021年,希捷发布20TB IronWolf Pro时一样,后续跟了两个其他版本。

Solidigm倪锦峰:QLC SSD已为主流工作负载做好了准备

朱 朋博

如今已是2023年,从2018年英特尔推出第一款QLC SSD到现在已有四年多时间。不久后,Solidigm也即将发布第四代192层的QLC SSD产品,将进一步拓展QLC的使用场景。

此前,英特尔就是QLC的坚定拥趸,而现在,继承了英特尔和SK海力士衣钵的Solidigm仍是QLC的主要推手,也极有可能是PLC的主要推动者。

QLC SSD已为主流工作负载做好了准备

QLC曾面临一些非议,而在近日举办的中国闪存市场峰会上,Solidigm亚太区销售总监倪锦峰表示,QLC SSD已为主流工作负载做好了准备。

从市场应用来看,截止到2023年,QLC技术和产品在质量、可靠性、寿命等诸多方面得到广泛的验证,已在消费级和企业级应用崭露头角。

寿命方面,QLC SSD拥有足够的寿命适应绝大部分工作负载。现实世界中的很多工作负载,实际需要的SSD寿命远小于预期,大约99%的系统中,其实际寿命损耗最多15%。

在性能方面,QLC SSD和入门级TLC SSD的读性能相当。在大型互联网公司和存储厂商那里,把QLC应用到读密集型工作负载,或者针对写密集场景进行顺序化处理,这些做法都已不新鲜,毕竟已经做了好多年了。

具体场景方面,QLC SSD在CDN加速, Cloud DVR(Digital Video Recorder)视频解决方案,HPC/AI,对象存储等行业典型工作场景得到了广泛的部署和价值证明。

不久后,Solidigm也即将发布第四代192层的QLC SSD产品,将进一步拓展QLC的使用场景,让QLC为主流工作负载做好准备。

倪锦峰介绍了基于Floating Gate技术的第四代192层QLC NAND的信息。单芯片密度为1.3Tb,相比于第一代64层的QLC NAND,其Programing速度提升了2.5倍,随机读取性能提升5倍,读取延迟降低了1.5倍。

Solidigm为QLC的更广泛部署提供了多个选项

作为QLC的主要推手,Solidigm为QLC的更广泛部署提供了多个选项。

QLC介于磁盘和TLC之间,在Solidigm看来,QLC SSD向上可部分替代TLC SSD,向下可部分替代磁盘。

4K数据块的读写一般是TLC的优势领域,而Solidigm的第四代QLC SSD支持将4K数据直接写入,并且不需要对应用做修改,这就是对于TLC的替代作用。

对于64KB及以上数据块而言,可以通过像Solidigm D5-5316这样的SSD直接写入,部分没有64KB对齐的数据块,需要额外进行Write shaping(写入整理)来减少写放大。

倪锦峰介绍称,Solidigm与英特尔合作,用QLC搭配CSAL(Cloud Storage Acceleration Layer)方案,为某云服务商的云主机提供了低延迟、高IO、高吞吐和高性价比的本地存储解决方案,替代了原来基于磁盘的方案。

在倪锦峰看来,对于需要快速访问大量数据集的读取密集型工作负载而言,QLC NAND SSD是理想选择。

从上图可见,QLC支持的业务负载类型还是非常丰富的。CDN、大数据、HCI等大文件块为主的读密集型工作负载都适合用QLC。

而随着即将发布的第四代QLC技术,QLC对于AI、深度学习、OLTP等小文件块读密集型工作负载的承载能力将进一步提升。

整体而言,QLC的应用正在逐渐增多。除了大型公有云服务商,还有非常多的企业级用户,OEM/ODM以及Lightbits Lab,VAST Data等创新企业都围绕着QLC进行创新。

为什么是Solidigm在推动QLC,甚至PLC的落地应用

Solidigm不仅推动QLC在更多场景中的应用,在PLC方面也有准备。PLC听起来有点言之过早,但有其必然性。

从倪锦峰的介绍中了解到,3D NAND技术的发展最主要表现是层数提高,更高层数带来更高的存储密度和更低的成本。但是,随着层数增加,其收益会不断收敛,同时,还要考虑工厂生产周期、良率控制等挑战。

如何打破这一窘境呢?这就需要PLC了。

倪锦峰介绍了世界上第一款PLC NAND(Penta Level Cell NAND),相比于192L QLC NAND,其容量密度提升25%。而且,经实际测试发现,PLC的数据维持能力可以达到与QLC产品相同的级别。

总之,PLC能提供更高的密度、更低的成本,为将来替换磁盘打下坚实的基础。

Solidigm融合了SK海力士和英特尔两家公司在SSD技术方面的积累,同时拥有Floating Gate和Charge Trap这两项NAND技术的设计与制造能力,前者容量更有优势,后者性能更有优势。

同时,结合在SoC(SSD控制器)、硬件、固件以及软件和工作负载方面的积累,在Form Factor方面的经验,Solidigm在SSD领域几乎可以“为所欲为”。

Solidigm秉承50年来在NAND技术上的创新,对工作负载的深入理解以及对数据中心的深入耕耘,打造可满足企业、云端、客户端等不同领域,适合AI、大数据等多种应用需求的创新存储解决方案。

从Solidigm公布的数据来看,其产品在CDN大厂CloudFlare、VPS大厂DigitalOcean、DropBox这样的云存储服务商,推特和领英这样的大型互联网公司得到了较多应用。

在思科、HPE、超微、戴尔这样的硬件大厂以及Lightbits和VAST等创新企业那里,采用率也在不断提升。

如何让存储厂商轻松用上大容量磁盘?

朱 朋博

Part 1:如何让存储厂商用上大容量磁盘?

过去近十几年以来,磁盘容量从十几GB爬升到了二十多个TB。

撇开闪存不说,当你仔细看磁盘存储系统的时候,总能发现存储系统厂商在使用最大容量的磁盘时,往往有一些滞后。

一块希捷Exos X20

这是为什么呢?

有人说了,这是因为大容量磁盘的容量太大,万一容量磁盘坏了,Raid重构的时候需要的时间就更长了。

恢复一块10TB的盘数据,跟恢复一块20TB的盘,工作量能一样吗?

小容量磁盘的重构时间短,对性能压力小,对业务连续性更有好处。

对业务人员的血压有好处,对存储管理员的人身安全有好处。

为了帮存储厂商安心用上大容量磁盘,还得从技术上解决大容量磁盘重构的难题。

为此,硬盘大厂希捷搞了一个叫ADR(自动容量重生)的硬盘技术,配合ADAPT技术,可将系统重构所需的大幅缩短,最多能缩短95%的时间。

传统RAID技术下,坏一块盘需要五十多个小时重构,而现在需要几个小时甚至几十分钟即可。

重构时间缩短,好处多多:系统性能更稳定,对性能影响更小,还能减少恢复过程中可能带来的二次损坏,比如,恢复过程中又有别的盘坏了。

能缩短95%就很诱人吧,但是,听着很简单的技术原理,实际用起来还比较有挑战。

目前,希捷自家的Exos CORVAULT存储系统支持,其他存储厂商,想要用上这一良心技术,还得需要投入一些人力物力才行。

想了解,希捷Exos CORVAULT的神奇之处的话,可以接着往下看。(看完整版视频)

Part 2:为什么希捷Exos CORVAULT能让存储系统用上大容量磁盘?

Exos CORVAULT是希捷的一块高性能块存储系统,双活架构,5个9的可靠性,还有颇具行业突破性的硬盘故障自愈技术。

4U的空间,装硬盘之前,空荡荡的跟被打劫了一样。说一个人腿长,脖子以下全是腿。说一个存储系统容量大,除了风扇全是硬盘。

一个人想插满硬盘,得需要大概两个小时,塞硬盘的人嫌时间过的慢,旁边围观的,总忍不住想来帮忙。但凡多一个人,装盘的过程都会快得多。

插满之后,2.12PB,容量高到吓人。106块的20TB的大容量磁盘满满当当挤在一起,壮观,我是头一次见到。

这这这,全都是硬盘,这么多磁盘这么高的密度放在一起没问题吧。

嗯,好问题。

防止因为硬盘发热,硬盘转动振动对性能以及稳定性的影响,Exos CORVAUL从控制器到机箱都进行了特别的设计。

硬盘怕噪音的震动,特别是噪音大户的风扇,这次也被特别针对,希捷开发了一种叫Acoustic Shield的技术,给硬盘提供了非常安心的工作环境。

106块硬盘老老实实的摆在这里,满满的,强迫症朋友说了,那个角上的是啥?

是控制器啊,本以为这又是基于英特尔至强的控制器。

仔细一看,原来是希捷自己搞的ASIC芯片,ASIC芯片的成本低,性能呢,做的好的话,性能也挺高的。

上图显示,顺序读性能是14GB/s,顺序写性能是12GB/s,额外查了一下资料,最高IOPS为17680,磁盘存储的重点不是IOPS。

今天,性能不是重点,控制器配合ADAPT和ADR缩短磁盘构建时间才是重点。接下来简单介绍一下。

如图所示,左面是一张图片,代表用户要存的数据。右边是一堆磁盘,代表CORVAULT存储系统。

在计算机的视角里,图片被切成了很多个碎片Shards。右侧的硬盘会组成ADAPT池,什么是ADAPT?

ADAPT全称叫Advanced Distributed Autonomic Protection Technology (ADAPT),直译为自动分布式分配保护技术,一种希捷专有的替代传统Raid的技术。

ADAPT池里有一堆硬盘,负责存数据,存什么数据呢?

一种是用户的碎片Shards数据,一种是CORVAULT的ASIC控制器为用户数据生成的奇偶校验(Parity)。

奇偶校验是干啥的?保护数据用的,硬盘坏了,数据丢了靠它就能找回来。

正在分布数据
数据分布完成

系统中,奇偶校验会和数据碎片一起均匀地散布到ADAPT池中的硬盘里。

值得注意的是,数据均匀散布到ADAPT池中的硬盘里的操作,其实就是ADAPT技术(分布式自动保护技术)得名的由来。

坏盘出现了

众所周知,磁盘出问题,一般都是划痕什么的,伤到磁头或者盘片,出问题时,CORVAULT的控制器能分析磁盘产生的日志,根据日志找出是哪个磁盘的哪个盘片出了问题。

CORVAULT控制器发现问题后,先把坏掉的硬盘放一边,依靠奇偶校验数据从其他硬盘中,很快就恢复一份Rebuild Data,也就是坏了的硬盘里的数据。

坏盘中的数据已被恢复

这些刚恢复来的数据存放在哪呢?也继续散布到其他硬盘里。

ADR(Autonomous Driver Regeneration)

接下来,就轮到ADR上场了。

刚才不是找出了出问题的盘片或者磁头了吗,CORVAULT控制器就跟硬盘配合,屏蔽掉出问题的盘片或者盘片对应的磁头,此时的硬盘容量会缩减。

现在一块磁盘最多有20个磁头和对应的盘片,坏了一个之后,就剩下95%了。

磁盘重生后,控制器就跟别的磁盘打声招呼说,这块盘又活过来了,把他该存的数据扔给他吧。

于是,一声令下,一群硬盘都快速把数据还给了它。最后,它又把原来属于它的数据存起来了,一切又恢复了事故之前的状况。

问题来了,为什么它的恢复速度快95%那么多呢?

因为,ADAPT技术把奇偶校验和数据碎片散布到其他硬盘里,恢复的时候,实际是由多个硬盘共同完成操作,而不是靠原来一块盘干活。

换句话说,一个ADAPT池里的磁盘越多,恢复速度就越快。

颇有韩信点兵,多多益善的意思。

结束语

如此一番操作,地球上就少了一块坏的硬盘,少了一块电子垃圾,用户少买一些硬盘,存储管理员少开一次机箱盖子,少拔出来一块硬盘。

对了,不知道大家注意到了没有,这场硬盘故障前后,所有操作都是在一台CORVAULT里完成的,完全不需要外部网络。

如上图所示,希捷CORVAULT的集群里,完全没有因为系统重建时的流量造成网络的拥堵,系统的性能表现会更高和更稳定。

以上就是存储厂商在大容量磁盘使用方面的技术挑战,而希捷能让存储系统用上大硬盘这一话题的全部内容。

相关阅读:

为什么说,希捷的磁盘是“绿色”的?