欢迎光临
我们一直在努力

人工智能和大数据

第57页

AI安全评测数据集Aegis2.0 dataset

andy阅读(258)评论(0)

引言:为何需要自动化LLM安全门控 随着大型语言模型(LLM)在生产环境中的广泛应用,模型的安全性和对齐性已成为部署流程中的关键环节。传统的手动评估效率低下且覆盖面不足。Aegis 2.0数据集,作为BAAI等机构推出的综合性安全评测基准,...

如何使用GPU容器技术(如NVIDIA Enroot)封装训练环境?

andy阅读(301)评论(0)

在高性能计算(HPC)集群或多租户的AI基础设施中,数据科学家通常面临两大挑战:一是确保训练环境的完全可复现性;二是如何在不具备Root权限的情况下,高效、安全地访问NVIDIA GPU资源。Docker和Singularity是常用的解决...

京东FATE框架技术原理与应用

andy阅读(189)评论(0)

深入理解FATE:联邦学习基础设施的核心实践 FATE (Federated AI Technology Enabler) 是由京东/微众银行开源的一套联邦学习框架,旨在实现数据隐私保护下的多方联合建模。对于AI基础设施工程师而言,理解如何...

hf的picklescan技术原理与应用

andy阅读(241)评论(0)

导语:模型部署中的“隐形炸弹”——Python Pickle 在AI模型的生态系统中,特别是PyTorch模型,通常使用Python内置的pickle模块进行序列化和反序列化。尽管其使用方便,但pickle长期以来都是一个巨大的安全隐患。p...

ollama如何运行safetensor

andy阅读(262)评论(0)

简介:Ollama与SafeTensors的兼容性挑战 Ollama是一个强大的本地化LLM运行环境,极大地简化了模型部署。然而,Ollama主要依赖于GGUF (GPT-GEnerated Unified Format) 格式的模型,该格...

如何利用XLA或TVM将PyTorch模型编译加速到极致?

andy阅读(208)评论(0)

在AI模型部署领域,性能是决定服务质量的关键因素。尽管PyTorch提供了灵活的Eager模式和JIT(TorchScript),但其运行时仍可能存在解释器开销和次优的计算图融合。为了将PyTorch模型的推理速度推向极致,我们需要引入专业...

怎样使用Distiller或Sparsity工具包进行模型剪枝和量化?

andy阅读(243)评论(0)

模型剪枝(Pruning)和量化(Quantization)是AI基础设施优化的两大核心手段。它们能显著减少模型的内存占用和计算复杂度,尤其对于边缘设备和高并发推理服务至关重要。虽然早期有像Distiller这样的专用工具包,但在现代PyT...

类似cobra的开源代码安全扫描软件还有哪些

andy阅读(213)评论(0)

在AI模型部署的后端服务中,代码安全是至关重要的一环。许多AI服务使用Python(如Flask/FastAPI)和Go等语言编写,它们往往需要处理用户输入、加载模型文件,这些操作如果不加注意,很容易引入如不安全的反序列化(例如著名的“Pi...