作为创新内存解决方案
CUBE 通过创新的架构设计,克服了传统内存 IC 和模块解决方案的局限性。其核心优势包括增加 I/O 数量,提高数据传输速度,支持硅通孔(Through-Silicon Via, TSV)技术(可选),以及采用 3D 架构,有效降低散热问题。
作为创新且获得专利的高带宽内存接口技术,CUBE 使内存模块能够在运行大规模 AI 模型时保持无缝、高效的性能,满足传统内存模块无法提供的带宽需求。同时,CUBE 不仅提升了带宽,还有效降低功耗。
CUBE 进一步增强了前端 3D 结构(如晶圆级封装 CoW(Chip on Wafer)和 WoW(Wafer on Wafer)),以及后端 2.5D/3D 封装技术(包括硅中介层(Si-Interposer)封装及 Fan-out 解决方案)。同时,CUBE 易于集成到新产品设计中,尤其适用于高带宽、低功耗的 AI 终端设备,充分结合云端计算与边缘计算的优势。这些技术将推动下一代 AI 应用的普及,有效解决安全性及成本问题,加速 AI 发展进程。
CUBE 适用于低功耗设计,可在不同平台和应用场景(包括边缘设备和智能监控)中,实现无缝、高效的 AI 模型部署。
CUBE产品特色:
CUBE通过提供高带宽内存解决方案来提高整体系统性能,解决现有方案的局限性。产品特性如下:
1. 卓越的性能:
凭借32GB/s 至 256GB/s 的带宽,CUBE 可提供远高于行业标准的性能提升。
2. 较小尺寸:
CUBE拥有更小的外形尺寸。目前基于20nm标准,可以提供每颗芯片256Mb-8Gb容量,2025年将有16nm标准。引入硅通孔(TSV) 可进一步增强性能,改善信号完整性、电源稳定性、以9um pitch 缩小IO的面积 和 较佳的散热(当CUBE置下、SoC置上时)。
3. 高经济效益、高带宽的解决方案:
CUBE 的IO速度于1K IO可高达2Gbps ,当与28nm和22nm等成熟工艺的SoC 整合时,CUBE 则可达到16GB/s至256GB/s带宽,相当于HBM2带宽, 也相当于4至32个LP-DDR4x 4266Mbps x16 IO带宽。
4. SoC 芯片尺寸减小:
当SoC(上Die, 无TSV)堆栈在 CUBE(下Die, 有TSV)上时,则有机会最小化SoC芯片尺寸, 从而省下TSV面积损失,能够为边缘AI设备带来更明显的成本优势。
CUBE 另一大优势在于其高度灵活的设计,可根据不同应用的需求进行定制,为客户提供最优的个性化解决方案。此外,CUBE 通过集成硅通孔(TSV)技术,实现更高效的电源传输、优化信号完整性,并提升整体系统效率。CUBE 具备灵活的芯片面积配置能力,可针对不同客户的 SoC 规格进行优化,以实现最佳性能匹配。