1.查看当前GPU对应的驱动版本号

命令为 mx-smi

2.去沐曦官方网站,找镜像

https://developer.metax-tech.com/softnova/docker?chip_name=%E6%9B%A6%E4%BA%91C500%E7%B3%BB%E5%88%97&package_kind=AI&dimension=docker&deliver_type=%E5%88%86%E5%B1%82%E5%8C%85&ai_frame=vllm-metax

需要注意下镜像中的maca版本,跟服务器GPU的驱动版本尽量保持一致或相近。可以通过升级GPU驱动的方式,解决版本不一致问题。

3.一般情况,就找最新发布的镜像,点击 镜像复制命令

复制后,到自己服务器上执行,就会下载这个镜像。

4.下载和启动模型

参考沐曦提供的模型部署教程,启动容器,在容器内部下载和启动模型

https://developer.metax-tech.com/doc/242

哪些模型可以部署在沐曦GPU上?

1.魔塔社区中,沐曦做了适配的模型

https://www.modelscope.cn/organization/metax-tech?tab=model

2.vllm版本支持的模型架构

根据下载的镜像的vllm版本,在vllm官方网站中,看该模型的架构是否支持。

先看镜像的vllm版本

如上图,镜像的vllm版本是0.17

然后去vllm官网,看0.17版本支持哪些模型架构

https://docs.vllm.ai/en/v0.17.0/models/supported_models/#pooling-models

假如想安装某个模型,打开这个模型的配置文件,找到模型架构

在vllm官网中,搜索该模型架构

这就说明vllm 0.17版本,支持该模型架构,是可以安装的。

3.看模型精度是否支持bfloat16

Logo

腾讯云面向开发者汇聚海量精品云计算使用和开发经验,营造开放的云计算技术生态圈。

更多推荐