英特尔Day0完成文心大模型4.5系列开源模型的端侧部署

今天,百度正式发布文心大模型4.5系列开源模型。英特尔OpenVINOTM与百度飞桨多年来一直保持着紧密的合作。在此次文心系列模型的发布过程中,英特尔借助OpenVINOTM在模型发布的第零日即实现对文心端侧模型的适配和在英特尔酷睿Ultra平台上的端侧部署。

英特尔Day0完成文心大模型4.5系列开源模型的端侧部署
(图片来源网络,侵删)

OpenVINOTM工具套件是由英特尔开发的开源工具套件,旨在优化和加速深度学习模型的推理性能,支持跨平台部署并充分利用英特尔硬件资源。OpenVINOTM助力行业中广泛的先进模型在英特尔人工智能产品和解决方案中的性能,应用在AI PC、边缘AI和更多人工智能的使用场景当中。

2021年开始,百度飞桨和英特尔OpenVINOTM进行深入合作,双方进行深度适配,为开发者提供了更有效更便捷的AI开发工具链。经过双方适配的众多模型,如PaddleOCRPaddleSegPaddleDection等,在金融、医疗、智能智造等领域被广泛应用,开发者可以直接将飞桨模型用OpenVINOTM推理和部署,或通过OpenVINOTM的模型优化器转化为IR格式,进一步部署和推理。

英特尔Day0完成文心大模型4.5系列开源模型的端侧部署
(图片来源网络,侵删)

今天,百度基于多年积累的雄厚的AI技术实力,为业界带来了开源的文心4.5系列大模型。英特尔宣布OpenVINOTM已经对0.3B参数量的稠密模型成功适配,并在英特尔酷睿Ultra平台上成功部署且获得了优异的推理性能。

英特尔助力百度文心大模型的首次亮相,共同为行业带来全新的人工智能体验。接下来,英特尔将持续与百度保持紧密合作,适配更多的文心系列模型,携手拓宽AI技术的新边界。

 

快速上手指南 (Get Started)

 

第一步,环境准备

基于以下命令可以完成模型部署任务在Python上的环境安装。

 

第二步,模型下载和转换

在部署模型之前,我们首先需要将原始的PyTorch模型转换为OpenVINOTMIR静态图格式,并对其进行压缩,以实现更轻量化的部署和最佳的性能表现。通过Optimum提供的命令行工具optimum-cli,我们可以一键完成模型的格式转换和权重量化任务:

开发者可以根据模型的输出结果,调整其中的量化参数,包括:

第三步,模型部署

针对ERNIE-4.5系列的文本生成类模型,我们可以使用Optimum-Intel进行任务部署和加速。Optimum-Intel可以通过调用OpenVINOTM  runtime后端,以实现在Intel CPUGPU平台上的性能优化,同时由于其兼容Transformers库,因此我们可以直接参考官方示例,将其迁移至Optimum-Intel执行。

from transformers import AutoTokenizer

from optimum.intel import OVModelForCausalLM

 

model_path = ERNIE-4.5-0.3B-PT-OV

# load the tokenizer and the model

tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)

model = OVModelForCausalLM.from_pretrained(model_path, trust_remote_code=True)

 

# prepare the model input

prompt = Give me a short introduction to large language model.

messages = [

    {role: user, content: prompt}

]

text = tokenizer.apply_chat_template(

    messages,

    tokenize=False,

    add_generation_prompt=True

)

model_inputs = tokenizer([text], add_special_tokens=False, return_tensors=pt).to(model.device)

 

# conduct text completion

generated_ids = model.generate(

    model_inputs.input_ids,

    max_new_tokens=1024

)

output_ids = generated_ids[0][len(model_inputs.input_ids[0]):].tolist()

 

# decode the generated ids

generate_text = tokenizer.decode(output_ids, skip_special_tokens=True).strip( )

print(generate_text:, generate_text)

 

输入结果参考:

 

发表评论

评论列表
沧澜听雨 2025-08-17 1# 回复
23年9月入的坑 今年5月就没玩了 rks15.19(但是听说削了好多我的b20) 虽然好久没玩了 但还是来夸一夸🎵曲库:作为一个免费的音游 phi的曲库其实还算可以了 而且每几个星期的更新会给玩家带来新的体验 歌曲也还算耐听 像各魔王曲我都感觉蛮好听的🎮可玩性:好玩!但是个人感觉容易玩腻 不是一个很适合常玩的游戏 而且受场地限制(除了拇指党) but有一说一 phi的谱面做的还是相当不错的 每一次更新的新谱面都是未知的惊喜 推分的过程也许很艰辛 但是rks上涨的那一刻会使我们很有成就感✍🏻建议:鸽游可以在phi里面尝试一些新的玩法 比如好友系统 排行系统之类的 另外就是美化一下老谱海报(虽然但是这个其实不重要) 其他的phi已经做的很好了!!最后 祝鸽游越来越好!!