怎样将卷积算子移植到 OP-TEE 内部:详解浮点运算在可信环境下的缺失与替代方案
如何在 OP-TEE 内部实现卷积算子:解决浮点运算缺失的定点化替代方案 在安全领域,将深度学习模型部署到 OP-TEE (Open Portable Trusted Execution Environment) 是保护隐私数据的常见需求。...
如何在 OP-TEE 内部实现卷积算子:解决浮点运算缺失的定点化替代方案 在安全领域,将深度学习模型部署到 OP-TEE (Open Portable Trusted Execution Environment) 是保护隐私数据的常见需求。...
如何通过 OP-TEE 的 TA 与 CA 通信机制实现 AI 推理请求的安全转发与身份验核 在端侧 AI 部署中,保护模型权重和推理请求不被恶意劫持至关重要。传统的 Linux 环境(REE)容易受到 Root 提权攻击。通过 ARM T...
背景 在深度学习模型部署过程中,我们经常会遇到由于推理框架(如 MNN、NCNN、TNN)更新较慢,导致某些新出的激活函数(如 Swish、HardSwish)或者自定义算子不被支持的情况。这时,开发者通常面临两个选择:一是修改模型结构,用...