欢迎光临
我们一直在努力

人工智能和大数据

第51页

怎么从 xxxJni.java生成native-lib.c

andy阅读(245)评论(0)

在AI模型部署和高性能计算领域,我们经常需要将Java(例如Android应用或基于JVM的推理服务)的高级逻辑层与底层高度优化的C/C++库(如CUDA内核、ONNX Runtime或自定义加速库)连接起来。Java Native Int...

微调LoRA时,如何防止有毒数据污染基础模型?

andy阅读(206)评论(0)

引言:LoRA微调中的数据安全挑战 参数高效微调(PEFT),尤其是低秩适配(LoRA),已成为部署大型语言模型(LLM)的主流技术。LoRA通过训练少量新增的适配器(Adapter)权重,在保持基础模型(Base Model)权重不变的前...

如何利用vLLM或FasterTransformer加速LLM的低延迟推理部署?

andy阅读(210)评论(0)

引言:为什么传统部署方法无法应对LLM的流量高峰? 大型语言模型(LLM)的部署面临两大核心挑战:低延迟(用户响应时间)和高吞吐量(每秒处理的总请求数)。传统的推理框架,如基于标准的Hugging Face Transformers,在处理...

怎样使用AdvBench或HELM工具量化评估您的LLM安全水平?

andy阅读(251)评论(0)

引言:生产级LLM部署中的安全挑战 在将大型语言模型(LLM)投入生产环境时,模型的性能指标(如准确率、推理速度)固然重要,但模型的安全对齐性(Safety Alignment)往往决定了部署的成败。评估LLM是否会生成有毒内容、是否带有系...

如何利用数字水印技术来追踪LLM生成内容的来源与滥用?

andy阅读(255)评论(0)

在大型语言模型(LLM)日益普及的今天,内容溯源和知识产权保护成为了AI基础设施面临的关键挑战。当模型生成的内容被用于恶意用途(如假信息传播)或未经授权的商业活动时,我们急需一种可靠的技术手段来追踪内容的来源。 数字水印技术,尤其是基于Lo...

怎样在LLM推理阶段通过事实核查API降低幻觉风险?

andy阅读(184)评论(0)

引言:为什么需要推理阶段的事实核查? 大型语言模型(LLM)在生成流畅且语义连贯的文本方面表现出色,但其核心缺陷在于缺乏对事实的绝对保证。这种现象被称为“幻觉”(Hallucination)。在企业级应用,尤其是在金融、医疗或新闻摘要等对准...