欢迎光临
我们一直在努力

人工智能和大数据

第48页

怎样为云端AI训练配置和优化S3/OSS存储的读写性能?

andy阅读(200)评论(0)

在现代AI训练工作流中,数据通常存储在对象存储服务(如AWS S3、阿里云OSS)中。然而,由于模型规模和数据集大小的爆炸式增长,存储I/O往往成为训练过程中的首要瓶颈,尤其是在涉及数百万个小文件(例如图像、文本片段)的情况下。对象存储的高...

实践高可用(HA)存储与故障转移?

andy阅读(165)评论(0)

在AI模型部署和基础设施管理中,高可用性(HA)存储至关重要。这不仅包括存储模型二进制文件,更重要的是存储关键的元数据,如模型版本控制、A/B测试配置、推理请求日志以及分布式训练的检查点(Checkpoints)。如果存储层发生故障,整个服...

semgrep的severity都有哪些?哪个算是真的漏洞

andy阅读(234)评论(0)

在AI基础设施和模型部署的流程中,代码安全审计是不可或缺的一环。静态分析工具Semgrep因其强大的模式匹配能力和灵活的规则定义,成为保障MLOps代码安全的首选工具之一。然而,对于初次使用者来说,理解Semgrep输出结果中不同的seve...

nvidia tritonserver 几个样例 model

andy阅读(194)评论(0)

NVIDIA Triton Inference Server是高性能AI模型部署的核心工具。对于初学者和希望快速验证部署环境的工程师来说,理解并运行官方提供的样例模型是至关重要的第一步。本文将指导您如何获取官方模型仓库,并部署运行最基础的i...

如何利用qwen3-guard-stream构建支持流式的大模型护栏防火墙

andy阅读(284)评论(0)

在部署大型语言模型(LLM)时,特别是面向公众的服务,内容安全是至关重要的。传统的安全护栏(Guardrail)通常在用户输入端进行检查(Pre-Filter),但这无法应对模型在生成过程中可能出现的幻觉或有害内容(如仇恨言论、恶意指令)。...

nvidia nemo guardrails大模型护栏技术原理简介

andy阅读(231)评论(0)

为什么大模型需要护栏? 大语言模型(LLMs)的强大能力在商业应用中带来了革命性的变革,但同时也引入了风险:模型幻觉(hallucination)、安全漏洞、恶意提示注入(prompt injection)以及偏离业务逻辑。在生产环境中部署...