如何为Agent的工具调用(Tool Use)实现严格的输入验证和权限控制?
引言 在构建基于大语言模型(LLM)的 Agent 时,工具调用(Tool Use)是实现模型与外部系统交互的核心。然而,LLM 输出的不确定性极易引发安全风险,例如模型可能会生成超出范围的参数,或者尝试调用超出其权限的操作。本文将介绍如何...
引言 在构建基于大语言模型(LLM)的 Agent 时,工具调用(Tool Use)是实现模型与外部系统交互的核心。然而,LLM 输出的不确定性极易引发安全风险,例如模型可能会生成超出范围的参数,或者尝试调用超出其权限的操作。本文将介绍如何...
如何使用 Marabou 对小型神经网络进行端到端鲁棒性形式化验证 在 AI 基础设施的生产实践中,传统的测试(Testing)只能证明错误的存在,而不能证明模型在特定扰动下的绝对安全性。对于自动驾驶、医疗诊断等高风险领域,形式化验证(Fo...
引言:为什么形式化验证对AI基础设施至关重要 随着AI模型被部署到自动驾驶、医疗诊断和关键基础设施管理等安全敏感领域,仅依靠传统的测试集准确率已远远不够。我们必须能够证明模型在面对预期外的输入或对抗性扰动时,仍然能够保持预期的安全属性(例如...
随着AI生成内容(AIGC)的泛滥,识别内容的真实性和来源变得至关重要。C2PA(Coalition for Content Provenance and Authenticity)标准和数字水印是当前解决这一问题的两大主要技术手段。作为A...