欢迎光临
我们一直在努力

人工智能和大数据

第24页

微调LoRA时,如何防止有毒数据污染基础模型?

andy阅读(68)评论(0)

引言:LoRA微调中的数据安全挑战 参数高效微调(PEFT),尤其是低秩适配(LoRA),已成为部署大型语言模型(LLM)的主流技术。LoRA通过训练少量新增的适配器(Adapter)权重,在保持基础模型(Base Model)权重不变的前...

怎样使用AdvBench或HELM工具量化评估您的LLM安全水平?

andy阅读(69)评论(0)

引言:生产级LLM部署中的安全挑战 在将大型语言模型(LLM)投入生产环境时,模型的性能指标(如准确率、推理速度)固然重要,但模型的安全对齐性(Safety Alignment)往往决定了部署的成败。评估LLM是否会生成有毒内容、是否带有系...

如何利用数字水印技术来追踪LLM生成内容的来源与滥用?

andy阅读(87)评论(0)

在大型语言模型(LLM)日益普及的今天,内容溯源和知识产权保护成为了AI基础设施面临的关键挑战。当模型生成的内容被用于恶意用途(如假信息传播)或未经授权的商业活动时,我们急需一种可靠的技术手段来追踪内容的来源。 数字水印技术,尤其是基于Lo...

怎样在LLM推理阶段通过事实核查API降低幻觉风险?

andy阅读(69)评论(0)

引言:为什么需要推理阶段的事实核查? 大型语言模型(LLM)在生成流畅且语义连贯的文本方面表现出色,但其核心缺陷在于缺乏对事实的绝对保证。这种现象被称为“幻觉”(Hallucination)。在企业级应用,尤其是在金融、医疗或新闻摘要等对准...

vite如何设置node –max_old_space_size

andy阅读(81)评论(0)

在使用Vite进行大型前端项目构建时,尤其是当项目中包含大量依赖、复杂的代码转换或大型静态资源时,开发者可能会遇到Node.js内存溢出(Out of Memory, OOM)的错误。这是因为Node.js V8引擎默认分配给堆内存(Old...

docker部署的minio如何迁移到另外一台机器

andy阅读(88)评论(0)

在AI基础设施的运维中,数据存储层的稳定性和可迁移性至关重要。MinIO作为高性能的对象存储解决方案,常用于存储训练数据集、模型权重和推理日志。当需要进行硬件升级、集群扩容或主机维护时,我们必须将运行在Docker中的MinIO实例及其所有...