分享

垃圾硬盘制造手册,与SLC算法的过去、现在、将来 来自 zu

 瓜爷耶 2023-02-19 发布于湖北

1 垃圾硬盘到底垃圾在哪里?

1.1正确的结论,错误的推导

有一种说法,在正是为了弥补tlc nand的羸弱性能才产生了slc cache,基于这种观点,他们一厢情愿的认为缓外seq直写性能(准确来说是bandwidth)才能代表ssd的真实水平.而自然,缓外性能差劲的西数绿盘自然也是垃圾.
那么显而易见的,在同代同架构同等级的前提下,slc nand的写入速度是远远好于mlc nand,更好于tlc与qlc nand,要提升SSD性能,早知道还是SLC!

以上是某些大聪明的认知,这种说法不能说完全错误,但距离实际情况也隔了十万八千里.他们往往对于SSD的实际组成与运行模式毫不理解,认为SSD就是一个高端版本的磁带。各种网上的“科普”也加深了这一偏见,他们往往喜欢腔调老生常谈的SLC/MLC/TLC等nand mode,把真正需要关注的东西:controller(主控)与固件给忽略了。

在我眼中,与其说SSD本身是一个传统意义上的硬盘,他更像是一个微缩起来的存储系统。在此为了方便理解,我们假想出一个拥有无穷大dram、2channel(CH)、2CPU的SSD存储对象。[CH可以理解为pc系统上的内存通道数量,在一个理想系统中随着ch数量或者imc phy的提升,并发性能会越来越高] 

假如我使用FIO进行bs=4k、QD=1的4k纯写入操作,那么host向SSD下达操作指令的首先经过CPU进行转译与处理,让NAND获知他需要进行写入的操作。在完全的空盘状态下,数据的写入是相对简单的,大量的数据首先会被安排在SSD内建的dram中,等到他们集合成128k的块(这个数据是我瞎说的,懒得翻Datasheet了),再一次性的下发到不同的channel(CH),每个CH都挂载着数块die,这使得对于同一个CH可以同时对多个ce进行读写操作,在此过程中数据是随机分散在page/cell中的,并没有什么规律可言。而在写入完成后,CPU会对dram与nand上的ftl表进行更改。(事实上ftl表会存储在多个地方,除了在进行长期存储的nand上外,不仅仅是在dram存储着,controller里面的sram依然会存有一份较小的表格,这类似于L2/L3这种结构)。这个过程很类似raid0这种存储阵列,这便是为什么我觉得不能用传统机械硬盘的逻辑去看待SSD的原因。

一般一个或者多个nand对应一个CH通道,那么主控如何快速的选择对应的读写die而不需要一次次的针对block/page进行历遍呢?答案就是选通信号CE#.CE:CHIP ENABLE,一个nand封装有多个die,一个die含有无数个block,一个block又有无数个page,page中有无数个cell,这些构成了闪存的基本单元.对于单个控制器phy来说,如果一个CH下只有一个die,那么性能是富裕的,从密度上也极其不划算,因此在实际中一个CH往往对应着多个die,也就是所谓的ce数量。

如果是脏盘状态,那么问题会更加复杂一点,举一个极端的例子:一个die有2个block,每个block有2个page,在这个例子中page1有64k的无效数据可以删除、page2中有64k的,如果我要写一个block size=128KB的文件,那么他是否可以均匀分布在这两个page里面呢?damedesu(悲),答案是不行的,因为nand的特性决定了他不能够覆盖已有数据写入。这时候就需要把page 1上的64k垃圾数据删除,总共腾出128k的空间去写入数据。但nand的特性同时决定了他只能对page写入、对于block删除,因此为了给数据腾出足够多的空间我们必须要把一个block下两个page的数据全部读出来,存储在另一个地方,对整个block的数据进行擦除,再把之前本来有的数据与待写入的128k一起写入已经打扫完毕的block中,这一过程便是GC回收。

对此我们可以抽象的理解为:CPU收到写入128k文件的通知→CPU翻译查找ftl表看看有没有剩余空间→CPU发现没有,于是决定进行GC回收→block里面数据全部读取出来,写入到其他的地方→block进行擦除→CPU发送数据给nand,对block下的page进行写入。
需要注意的是文件必须要分布在一个相对完整的抽象逻辑空间内(注意是抽象逻辑空间,至于他是否分布在连续的cell上是不必要的)

当然,以上还是比较简单的情况,忽略了很多技术细节,并且实际的负载是混合的:比如在一个短暂时间内4k write、64k read、8k read等负载同时存在,这样复杂的场景对主控性能与固件要求很高。  

事实上,NAND在这其中的指标可以抽象为只有俩个:读写的延迟与速率。但是controller的CPU性能、查询ftl表的效率、在面对多个负载之时应该采取怎样的优先级以及写入方式,这些的重要性甚至高于nand本身的性能。

在理解了这些之后,我们便知道为什么nand决定论、mlc神论、垃圾固态全赖nand论如此扯淡:如此重要的controller与固件被完全的忽视,想当然的便以为SSD和磁带一样就是一个你往上物理的写入数据他就万事大吉的东西。魔怔人跑raid0还知道CPU与raid卡对io性能的重要性,到SSD这就成了转得越快写得越快就好的神奇东西。

口说无凭,在下一章节我将会用SSD耻辱界的代表WD GREEN SATA去证明我的观点,顺便展示一下原厂SATA产品可以达到一个怎样的下限。

1.2 实际分析,WD GREEN到底差在哪里

WD Green SATA,传说中是大号U盘,被人称作tf卡都不如的垃圾。我在这里严肃声明:他的确是垃圾,也是大号U盘,但他还是比tf卡强一些的。

首先是主控,sandisk标识的20-82-00469-2,目前已知的是他并非群练PS3111以及SMI 2258XT,无论从封装还是die size角度来看都不对,至于是否是maverll或者其他厂商的产品,这就不得而知了。我们在这里先假定他是一个2ch的产品,尽管目前的确存在4CH甚至更多通道的SATA主控,但是他们的价格与成本都更高(况且channel数量和性能并不是绝对的关系,例如2258XT),而wd在green上用inhouse主控的唯一目的只可能是省钱。基于这一点去判断,他的arm内核顶多有两个甚至一个,最新的arm cortex R5是别想了:成本和授权费都太高,也许老旧的arm9/arm8比较可能,甚至说为了省钱,他可能使用mips架构去设计CPU内核。无论如何,2CH+单核CPU的主控组合显然是一个怎么看都没有性能的方案,接下来的测试中也可以证明这一点。不过讽刺的是,这块SSD表现如此之差的第一责任人并非主控,而是固件。

然后是NAND,sandisk标60333 256G,我认为这基于BISC4 96L,毕竟64l高密度方案成本上可不便宜,96l硅渣正好适合这种定位的产品。其他数据未知、网络上也没有任何关于这个nand的数据,唯一值得庆幸的是他比较凉快,这比其他kioxia或者WD产品上的兄弟姐妹强多了。

dramless设计+没有任何断电保护,也算是低端硬盘的标配了,如果说nvme的dramless还可以靠着HBM功能跑出不错的性能与耐久度,那么SATA上则毫无周转的余地。另外这块硬盘上的主控与CZ880 U盘上的十分接近,无论是封装还是大小都很相似,但U盘上的编号为20 82 00381 A0,与绿盘上的有差异,至于他们是不是一个玩意,这我就不得而知了。

简简单单开个盒,象征性的跑一下pcmark 10快速基准盘测试。

与他388的尴尬成绩作为对比的tf卡的分数是194,M6S的分数是910,的确是极其耻辱了.而分析具体成绩可以看出他在读取项目上并不差,问题出在写入上.

当然,他烂是一个人尽皆知的事情,重点在于为什么他这样烂。如果是一些水平差的媒体可能就会大谈以下观点:
卖了就违法,TLC是垃圾的证明!
震惊!WD竟然在自己的硬盘上用垃圾颗粒!
不如国产!WD再一次表现带资本的邪恶!

但作为no body know ssd better than me的homolab rd,我自然不会说这种没水平的垃圾话,要是将来报道出了偏差,相当于我也有责任吧。
为了告诉你他烂在哪里、为什么他烂,我将用FIO脚本进行多个测试,通过分析lat、iops以得到一个相对靠谱的结果。

在空盘状态下进行fio写入测试, Fio进行4K T1的测试,QD分别为1、2、4.

*注:对于fio来说,slat可以视为指令从cpu下发到ssd的执行时间,clat可以视为nand的读写延迟.*

在iops上,qd1到qd2的提升几乎没有,到qd4则是直接大跌,这说明了主控处理表现并不好,但salt正常的延迟表示了他并没有发生太多拥堵.而clat 的nand端延迟尽管很高,但考虑到他作为dramless盘体与失败的slc cahce策略,这一结果尚且能够理解.极差的iops、尚且正常的slat与clat表现都证明了他的团队有尝试过挣扎:用iops并发换取可接受的延迟.但在事实上极其差劲的iops已经预示了这块主控以及固件的极其失败.

而比主控更糟糕的是固件,转向1m的成绩,clat 的nand端延迟达到了恐怖的211ms!难道真的是nand太垃圾吗?显然不是,如此夸张的延迟只可能是失败的ftl表格加上错误的固件GC回收策略导致的.如此夸张的clat,即使是64l qlc的最差成绩也不应该如此,而观察最小clat:9ms,这也证明了我的猜想,这块盘的GC回收策略极其失败,以至于在多次负载中他不堪重负.事实上这块盘在我早前测试中出现了迥然不同的成绩,那时slat已经达到了200ms之多,即使存在sata协议上限的影响也不至于那么夸张,对此我只能理解为固件在不停的进行GC回收,并且这一回收效率很差.同时这块盘对于1m的block size适配极差,以至于出现了如此夸张的结果.至于其他的测试我已经懒得做了,再加上这一盘的数据以及分析极少,到底是不是如此,也只有天知道.

由此见得这块垃圾硬盘问题压根不在所谓的缓外速度,从绝对论的角度来说这块bisc3 96l的直写速度肯定不差,如此失败的根源在于上述我说的:错误的固件与失败的主控设计,再加上dram的缺失使得他们共同造就了一个性能灾难.
假设他拥有完整的dram、假如他的主控性能可以升级一点、如果他的..可惜没有如果,正如同各种垃圾硬盘一般,他成为了真正的耻辱.

1.3 都什么年代了,还在使用传统硬盘?

那么WD Green是最烂的吗?显然不是,最起码他还能勉强够用。真正突破底线的还得是某些打着国货旗号的固态,他们往往是用最难的物料,不是划线片就是黑片、垃圾自封白片,没有任何固件验证与测试的能力,天天只会买水军吹捧所谓的国人骄傲与国货热情。

这些垃圾硬盘最大的问题不是性能,而是稳定性.固态硬盘的设计从来不是某些乱七八糟的DIYer臆想出来的网上找个fw刷上去就ok,同一个controller对于不同nand,时序、频率、slc cache策略、磨损平衡算法以及健康度预估曲线都需要重做,即使是YMTC主导的zhitai系列,tiplus5000、tipro700都出现了不同程度的翻车问题,更别说那些乱七八糟的方案.固件写不好也不只是性能差那么简单,更是直接的寿命大跌、无法识别、经常掉盘、莫名其妙的卡顿,甚至是数据完全丢失.就连行业中拥有优秀团队的SAMSUNG都在9A1、990pro接连翻车,为什么有人觉得一些连系统性能与稳定性验证都没办法做的小厂可以捣鼓出什么靠谱的产品?

其中最臭名昭著的应该是凄惨红牌会员制SATA盘,2258XT本来就烂,全盘SLC算法+非常懒惰的GC回收+堪称莫名其妙的爆缓惩罚,直接导致了灾难性的结果,和他一比WD Green都算是性能高超的.最骚的还属这块固态使用了凄惨红自称的intel原装nand,但intel直接对此表示他们从未对该企业出售过wafer或者成品nand,那么这堆nand哪来的?我想各位应该有了答案.最搞笑的是,当年PCEVA把这个事情曝光之后,凄惨红发挥出了他们的传统艺能:直接把pceva网站给黑了,可谓是真正的民族之胱.

即使放到现在,凄惨红、鱼竿牌、铭瑄等所谓国货依然狗改不了那啥,什么乱七八糟的方案都给你卖.例如下图中这块神奇的凄惨红固态,充分发扬国际主义精神,各种奇葩方案都存在.

那些天天觉得qlc多烂、原厂有多烂的人,应该看看你们
我看着你们 满怀羡慕
你们拥有了 我们曾经梦寐以求的权利
选择垃圾黑片与买水军的权利
你所热爱的国货 就是你的灵车

2slc cache算法的进化,过去 现在 将来

注:本文中slc cache并不包括跨设备与跨对象的cache(例如SZ1745)

2.1slc cache是tlc时代的产物吗?

这一说法正确的地方在于slc cache算法的初衷的确是为了在中低成本产品上实现更好的性能,其大放光彩的时间段也正好是业界从2D NAND到3D NAND、MLC到TLC的转型期;错误的地方在于他并非伴随tlc而产生的,而是在mlc出现之时就已经产生.

早在消费级SSD出现之前,SLC cache便已经出现了.在2008年的flash memory summit中,SMI以SLC & MLC Hybrid为题作为演讲,针对MLC在性能与耐久度上与SLC的巨大差距,smi提出了一个极其有趣的反问: Why not combine SLC & MLC chips in SSD?

说干就干,SMI做出了一个原型:使用FPGA模拟出的2240原型主控+两块SLC nand+两块mlc nand组成的原型.尽管他们的测试结果只对外公布了一个让人摸不着头脑的erase count,但无论如何,他的确是跑起来了.SMI在最后十分臭屁的自吹自擂,给这玩意凑足了不少优点.

受限于当年的技术,事实上MLC与SLC nand是有些许差异的, Nand无法在SLC与MLC mode间自由切换,因而他并非采用了后世经典的PSLC模式,而是极其尴尬的配置了不同的nand. 但他的策略已经很类似后面的SLC cache:使用高速的slc模式进行热数据的读写,使用主控对数据的优先级进行排序从而实现存储对象的高效利用.四舍五入,这不就是一开始的固定slc cache模式吗?

而令人感慨的是,被SMI当年作为一种低端的存储模式的MLC,如今摇身一变成为了某些人口中的信仰与希望,甚至有人将闪存业界评价为倒退式发展.

这不仅仅是我能找到的最早关于slc cache的详细信息,其还在很大程度上决定了今后的SSD发展的方向,吗?

2.2 没有slc cache的中端SSD,以Plextor M6S为例

为什么这一早在2008年就提出的美妙设想没有引领业界潮流,带领SMI稳坐主控方案第一宝座、收购marvell与fusion走向人生巅峰?我想接下来的两个例子可以说明一些事实.

浦科特M6S,在当年定位是中高端盘体,mavrell 88SS9188 controller,2CH 2 arm core;toshiba的2D 19nm mlc nand;dram 为SK的256m ddr3.他上面有个M6P,除了使用更高级的拥有4CH的88SS9187主控外并没有什么本质区别.鉴于plextor团队一向优秀的固件优化能力以及与toshiba的良好关系,他能代表在2014年这个转型时间点上原厂以及高性能SKU的无缓固态性能.

随便跑一个pcmark10成绩,看起来还行.

Fio进行4K T1的测试,QD分别为1、2、4,成绩分为空盘状态与稳态(完全脏盘状态),对于后者使用fio在此进行两次全盘1m写入预处理以达到steady state,这一做法基于SNIA PTS的规范(有兴趣的同学可以参照SNIA-SSS-PTS-2.0.1进行操作),在进行全盘写入后不间断的开始测试项目.在上文中我们提到了在脏盘状态下会增加一个实时GC回收的操作,而稳态这种对于消费级几乎不可能出现的情况是对于SSD固件调整与主控性能的一个综合考验,属于加分项.

令人惊叹的是, 即使是4K QD4T1也未增加太多延迟,它如同DC SSD一般保持了足够优秀的稳态结果,这不只是mlc nand的功劳,毕竟同为mlc的sandisk eco与Q200ex的表现都不算好,显然plextor的固件优化功底与maverll的controller在这方面做了针对性优化.由于消费级鲜少遇到QD大于4的情况,考虑到他的定位与SATA协议的上限,更多的测试我并没有进行.
经过测试,我们大致了解了2014那个时代中高端SATA固态的水平,即使是我手上这块128g的上古产品,都已经接近了sata协议的上限,就算是m600、q200ex这种mlc中拥有全盘slc模拟算法的存在,在不少地方也表现出了足够的性能,既然本身的性能就足够达到sata的上限,又何必去使用slc cache徒增烦恼呢?在当时slc cache作为一个新东西,不仅仅业界缺乏理论数据与正确的验证,在没有增加性能的前提下还未必能带来成本的降低.故事似乎到这里也就结束了.

2.3 2258XT与2263XT,到底是什么造就了slc cache的差名

在上文中我们提及了SSD在空盘与脏盘状态下理想的write模型,我特意提到了为什么要假设没有slc cache的情况,因为引入slc cache后他带来的不仅仅是write back问题。尤其是爆缓存后,如果方案奇葩点,你就能够见到真正的灾难性后果。

早期SMI公版固件的slc cache算法极其奇葩,它采用了一种非常奇怪的算法,在out of slc cache之后,他并不会和业界主流方案一样将数据直接往tlc里写入,而是继续把数据填充到slc cache中,一边写向slc cache写入一边向tlc释放,这个策略咋看之下没啥问题,但实际造成了灾难性的后果。首先是SMI公办方案的ftl表优化极差,加上dramless的设计,主控不得不大跨度的反复申请查ftl表;其次是这样的做法会严重的增加写放大;最后,对于性能影响最严重的:频繁的拆东墙补西墙与过小的整体容量使得实时GC回收任务量多次翻倍,这更加造就了灾难性的结果。

市面上的2258H方案,针对2258XT与2263XT的灾难性表现基本都进行了优化,首先是增加dram去存储ftl表,使得整体压力大大降低,其次是改变了这个极其失败的、愚蠢的slc cache模式,又回归了传统的爆缓直写。在这些努力下,2258H/2259H方案的mx500才算是正常了起来。

看起来,业界的几次尝试都并不好,mlc的直写性能已经足够优秀,而slc cache实例的表现又如此之差劲,这条路未必能走好.更何况,上次用slc cache的tlc固态叫做840/840evo,他们的表现都并不理想,除非有更大的驱动力去迫使业界转型,否则在这个if世界线中slc cache将不会掀起波澜.

Was vernünftig ist, das ist wirklich, und was wirklich ist, das ist vernünftig.现实是:拥有slc cache的tlc固态大放异彩、即使在DC/HPC市场也没有人再认可mlc这种高不成低不就的东西.既然理论看起来很好,那么问题出在哪里呢?答案就藏在业界为什么要转向tlc上:业界不可避免的追求密度与成本的降低,高成本的mlc闪存已经没有足够的密度去满足越来越夸张的需要,而在3D1 32L/48L上拥有足够多的op冗余的TLC DC SSD已经能在密度、性能甚至耐久度上击败之前的DC SSD旗舰.
而观察client/oem市场,面对越来越高的容量需求,mlc在3d1时代的密度也没高到哪去,强行堆叠nand成本又会爆炸;而在成本上,mlc显然需要掏出更多的价格,无论是消费者还是oem厂商都对此不太能接受。

于是后面的事情大家都知道了,那个源于2008年的想法,在2015年生根发芽,在今天大放异彩.这不是所谓资本家的阴谋、更不是所谓的良心与否,这纯粹是一个理性市场的正确选择.无论是积极推动qlc技术与几次悲情冲击cache市场的intel,还是用开放的bisc推动业界共享的kioxia,亦或是消费级当之无愧的销量王Samsung,他们的创新与尝试才是如今闪存业界如此繁荣与稳定的理由.

从马后炮的角度来说,slc cache技术与tlc固态在初期受挫的原因是高度一致的:新的产品需要更多的尝试与验证,这无形之中增加了产品的成本;要达到足够性能那么所需要的主控和dram可不便宜,2258XT与2263XT本来slc cache的处理机制与gc回收策略就已经足够失败,SMI一向垃圾的FTL表与固件优化能力、国产低价位产品对黑片白片划线片的使用更是加剧了性能与寿命上的失败. 反观正常使用2258H/2258H+dram+原厂tlc正片的MX500则压根没有这个问题,他们的表现好得很,这也间接说明了slc cache与tlc mode nand并非是SSD性能失败的直接推手,而是其他.甚至我有段时间激进的认为:正是SMI以及某些厂商的失败使得slc cache这个技术与tlc mode长期遭受各种污名化.

2.4 全盘模拟、固定slc cache、dynamic cache

对于SLC cache,有三种不同的思考方向,也对应着三种不同的方案:SN550的固定缓存方案,这是一个相对较老的算法,优点是性能一致性较好,缺点是爆发性能不足,这点可以从测试看出;一种方案是Micron P5为代表的全盘SLC模拟,可以用较低的成本获得极高的性能回报与爆发性能,缺点是write back惩罚相对严重,并且稳态性能较差.这属于一个较为极端的路子;一种方案是P41Plus为代表的动态SLC 算法,670p其实也算是这种,是前两者的中间态,如果玩的好那么就是P41Plus这种成本、爆发性能、稳态性能都得到平衡的优秀产品,玩得差点就是670p这种虽然dram+8CH高端主控但是经常翻车的耻辱. 这三种方案并没有谁更好谁更差之说,胡罗卜白菜各有所爱,这取决于你应用所对应的io负载与预算.

在搜索资料时,我发现IBM的 Zurich研究所于2019年在Flash Memory Summit 上发表了名为Enabling 3D QLC NAND flash的演讲,他们将固定大小的slc cache称之为第一代slc cache技术,而动态slc cache则为第二代.

他们的观点和我类似:对于固定缓存方案,优点是爆发吞吐更高,而问题在于slc cache写满是速度下降严重,尤其是对于cache较小的方案、block的静态分配不均导致磨损平衡难做、成本增加;对于动态slc算法,在突发负载上表现出更好的iops性能与延迟表现、不减少用户容量,缺点是write back带来的惩罚更严重、整体寿命更差、缓存用尽后的性能表现高度依赖固件优化、GC回收更加频繁.

他们甚至还探讨了在不同slc cache size对不同workload性能与寿命的影响,这篇文章非常的有价值,不亚于我看到的某些NDA内部资料,有兴趣的同学可以去学习下.

任何人都有自己的理解与技术倾向性,我也不例外.在1t以上ssd已经成为未来趋势的现在,全盘slc模拟这种算法即可以让中高端固态获得以往旗舰级别的体验、让旗舰的成本下降(绝大部分用户都不会爆出全盘模拟slc所设下的最低cache空间,这部分看厂商与产品的设计,一般是40g以上),同时又避免了越来越高的存储密度所带来的低容量ssd ce不足,导致原先固定slc算法盘在频繁的写入和读取中带来的性能不足问题。例如姿态 pc005,5g过小的slc cache是其在大部分场景中(尤其是轻载)性能不足的原因,即使他的Steady State稳定态性能区间足够优秀,但是大部分场景下体验并不尽如人意。4.0和5.0时代,面对越来越大的数据吞吐以及读取需求,原先固定容量的slc算法无疑显得有些不够用,而增加tlc直写以及主控性能带来的cost up最终还是要消费者买单。

并且事实上p41plus、micron p5等全盘模拟slc盘,本质上是在部分情况下可以将SLC CACHE用满可用容量的动态slc算法,例如p41plus 1T在剩下50g时依然又接近10g的slc cache,这种算法也避免了早前全盘模拟于低容量下可预见的性能大跌与频繁卡顿.

2.5 slc cache真的不好吗?谈谈网络上的争论以及稳态性能。

很多人喜欢扯缓外速度的一点在于他们认为硬盘slc cache总有用完的一天,这时候速度就会很差。那么slc cache真的会用完吗?
显然不会,因为如今的动态slc cache算法在最差的情况下也有10G+的富余,怎么想也不会有人在消费级上给一个只剩下50g不到的硬盘一次写入10g文件。对于75%满盘的1T固态来说,动态slc cache在40G以上的不是少数,而且一次写入少量文件也会进行自动的slc cache释放与GC回收(Samsung除外),与其担心所谓的缓外性能,倒不如多搬砖看看自己能买得起什么盘。  

况且某些门外汉大谈特谈缓外性能,却连缓外速度指什么,bs多大、qd多少、谈论的是iops还是lat都无法回答,把自己的一己之见代替业界的整体发展,实在是看着都尴尬。垃圾硬盘之所以垃圾,缓外速度差只是表面现象,不是原因,根本问题在于失败的固件策略、劣质的黑片nand以及垃圾的主控,搞清楚这点才能够有效分析问题。

在今天,基于144l qlc的p41plus击败了9A1、sn550在成本与性能之间得到了充分的平衡、sn850x稳定性能宝座,这些都说明了slc cache的必要性.倘若业界还只会死命堆叠ch数量与mt速率,那么低容量硬盘性能会有多差、高容量硬盘价格会增加多少? 那些云吹买得起吗?

目前的QLC争论在我眼里多少属于一种历史的轮回:在2010年前后,MLC备受质疑、不少人直言看不上MLC固态;在2017年,TLC备受质疑,一堆人觉得这是历史的倒退;来到2022年,依然一堆人在质疑QLC,认为这是业界的倒退式发展.    
事实上我对业界发展与QLC技术足够乐观,即使闪存本身没有太大发展,同代闪存通过主控与算法的进化依然可以实现更高的性能、更低的成本.更何况从64L到96L,再到128/144/176L,直至现在的232L 3D5超高堆叠,闪存的寿命越来越高、性能越来越强、延迟越来越低,很可能在3D5时代,2T的QLC SSD就可以拥有500MB/s以上的闪存直写速度.

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多