随着ChatGPT,DeepSeek等AI模型的火热,AI的应用硬件也发展迅速。很多厂商针对特定市场推出了AI产品。在研发这些产品的时候,有不少客户选择了CS
SD NAND作为AI产品的存储芯片。今天跟大家聊聊这个,以及在实际应用有哪些注意事项。
1,为什么会选择CS SD NAND?
首先是容量适中,覆盖多种需求,传统 NOR Flash 容量较小,而 eMMC 容量又偏大且成本较高。相比之下,CS SD NAND 提供了从 128MB 到 8GB 的灵活容量选择(未来还将推出 32GB 和 64GB 大容量版本),正好适配 AI 产品对存储操作系统、程序代码、GUI 资源以及缓存音视频数据的需求。
其次是驱动问题,许多 AI 产品采用的是偏重云端推理的轻量型处理器,这类处理器可能并不支持 eMMC 接口,这个时候又需要大容量存储,选择自带NAND Flash管理算法的SD NAND就很适合;而CS SD NAND 采用通用的 SDIO 接口,大多数处理器原生支持,无需额外驱动即可接入,极大简化了开发流程。
第三就是尺寸和焊接问题。CS SD NAND 最小尺寸6*8mm,LGA-8 的封装,方便焊接。适合做出体积精致、结构紧凑的终端设备,满足 AI 产品对轻薄化的需求。
2,AI产品对存储芯片的读取场景有什么特点?CS SD NAND如何满足这种需求?
大部分的AI产品,一般会配备一个外部显示设备用来互动,大部分是用屏幕,有些甚至用上了LED风扇屏。而AI产品的交互信息有几个特点:1)显示内容很随机,因为没办法预测云端下发来的显示内容是什么。这点不像播放视频,基本上视频流的数据是放在哪里的,给一个时间点就能知道要显示的内容。而AI产品,用户的交互信息完全随机;2)最终显示的GUI界面,也是由多个显示元素组成。由于硬件条件限制,而AI产品又需要做出更丰富的交互效果,通过不同显示元素组合成一个最终的显示画面是一个性价比高的方案。3)画面响应速度快。实际使用
1,为什么会选择CS SD NAND?
首先是容量适中,覆盖多种需求,传统 NOR Flash 容量较小,而 eMMC 容量又偏大且成本较高。相比之下,CS SD NAND 提供了从 128MB 到 8GB 的灵活容量选择(未来还将推出 32GB 和 64GB 大容量版本),正好适配 AI 产品对存储操作系统、程序代码、GUI 资源以及缓存音视频数据的需求。
其次是驱动问题,许多 AI 产品采用的是偏重云端推理的轻量型处理器,这类处理器可能并不支持 eMMC 接口,这个时候又需要大容量存储,选择自带NAND Flash管理算法的SD NAND就很适合;而CS SD NAND 采用通用的 SDIO 接口,大多数处理器原生支持,无需额外驱动即可接入,极大简化了开发流程。
第三就是尺寸和焊接问题。CS SD NAND 最小尺寸6*8mm,LGA-8 的封装,方便焊接。适合做出体积精致、结构紧凑的终端设备,满足 AI 产品对轻薄化的需求。
2,AI产品对存储芯片的读取场景有什么特点?CS SD NAND如何满足这种需求?
大部分的AI产品,一般会配备一个外部显示设备用来互动,大部分是用屏幕,有些甚至用上了LED风扇屏。而AI产品的交互信息有几个特点:1)显示内容很随机,因为没办法预测云端下发来的显示内容是什么。这点不像播放视频,基本上视频流的数据是放在哪里的,给一个时间点就能知道要显示的内容。而AI产品,用户的交互信息完全随机;2)最终显示的GUI界面,也是由多个显示元素组成。由于硬件条件限制,而AI产品又需要做出更丰富的交互效果,通过不同显示元素组合成一个最终的显示画面是一个性价比高的方案。3)画面响应速度快。实际使用
