芯片低压SRAM为何先翻位?读扰动怎么压住?
扫描二维码
随时随地手机看文章
芯片一旦把供电继续往下压,最先紧张的往往不是算术单元,而是密度最高的SRAM阵列。低压稳定性问题如果只盯平均功耗,读写窗口会比预期更早塌下来。
SRAM在低压下先翻位,本质上是六管单元的静态噪声容限被器件失配和泄漏电流一起挤薄了。供电下降后,反相器对内部节点的恢复能力减弱,阈值电压、沟道长度和迁移率的局部波动就更容易决定哪一侧先失守。实验室里看起来还能保持的数据,到了大阵列里未必成立,因为最差单元数量会随着容量上升而增加,边缘角落、热点区域和邻近电源薄弱区更容易冒出尾部失效。若设计时只按典型单元优化面积,把负载扰动、老化偏移和写后残余电荷都排除在外,低压工作点会在硅后迅速变窄。很多项目发现待机省下来的毫瓦并没有转成可用电压余量,就是因为单元稳定性比逻辑门更早碰到统计边界,阵列不是被平均值打败,而是被最差那一批位单元先拖垮。因此阵列级验证必须看尾部失效分布,而不是只看典型位单元的蝴蝶曲线。容量一大、版图一长,最差单元出现的概率会比设计者的直觉高得多。
读扰动则是另一条更隐蔽的失效路径。读操作开始时,预充到高电平的位线会通过存取管去拉扯内部存储节点,若下拉管强度不够,或位线电容太大导致抽取电荷持续时间变长,本来存着零的节点就可能被抬过翻转门槛。低压下这个问题更重,因为存取管和下拉管的强弱比变得更敏感,半选单元还会在字线邻近耦合和位线残余摆幅下承受额外应力。工程上不能简单靠加大晶体管尺寸解决,尺寸一增,密度、泄漏和位线负载都会反噬。真正稳妥的做法通常是把读扰动分层处理:在架构上缩短位线、控制一次激活的列高度,在电路上引入读辅助或负位线技术,在编译器层面把最激进的低压档位与特定宏单元解绑。若没有区分保持失败和读扰动,调了半天版图,最后可能只是把一种失效换成另一种。如果编译器仍把所有宏按同一最低电压档发布,现场偶发翻位就很难定位,因为真正越界的通常只是某类长位线或大容量实例。最低电压能力本来就不该被写成一刀切数字。量产分档时若不把宏单元按位线长度、容量规模和失配等级区分开,低压收益最终会被保守电压回退全部吃掉,省下的功耗也守不住。低压策略若不分宏单元分档推进,最终只会把阵列短板放大成整机短板。分档验证这一步不能省。
低压SRAM不是单靠“再降一点电压”就能赚钱的模块,最先要守的是最差单元和最坏读路径。把静态容限和读扰动拆开治理,芯片低功耗才不会变成低良率。





