作为当下最热的议题之一,人工智能(AI)总被许多电子产品制造商提起。最为技术领域的一个重大事件,其有望渗透从网络、到家庭、以及移动设备的各个方面。然而受技术的限制,当前大部分商业人工智能应用仍依赖于云端后台,对安全、隐私和性能都有一定的影响。有鉴于此,一些移动设备制造商有意为自家产品配备强大的 NPU 计算单元,以提升 AI 的本地体验,比如三星。

(题图 via SlashGear)

据悉,该公司最新的工作重点,就是通过较低功耗的神经网络处理器(NPU),实现设备上的 AI 处理。与传统深度学习模型相比,其通常需要缩小数据的分组。

三星表示,深度学习的数据分组为 32 位,能够反映传统的计算模型。对于芯片制造商来说,这显然需要堆砌更多的晶体管硬件,反之又加大了移动设备的能源消耗。

对于标配大容量电池的移动设备来说,这似乎不是一个大问题。但要让 AI 普及开来,就必须削减不必要的功耗,以减轻对更重要的应用的影响。

最终,三星得出的结论是,通过简单地将数据分组为 4 位、同时保持数据的准确性,以降低深度学习的硬件和功耗要求。

这种“量化间隔学习”的方法,有时甚至能够取得比服务器传输更准确的数据结果。根据该公司的数据,其能够晶体管的数量需求减少到 1/40 至 1/120 。

这意味着在手机等移动设备上进行 AI 处理将变得更为可行,而无需将负载转移到远程服务器上。其不仅减少了响应延迟,还降低了被窃听的风险。

遗憾的是,目前三星只宣布了 NPU 背后的技术,而不是 NPU 本身。预计新技术会嵌入到今年晚些时候宣布的下一款 Exynos 芯片中。