小白windows系统从零开始本地部署大模型全记录
大家好,最近两年大语言模型风靡全球,最近,不少开源大模型,将模型部署到自己的电脑上,用个性化的数据微调想必是不少人的愿望,这次,让我来分享从hugging face上下载部署chatglm3-6b中的经验。
大家好,最近两年大语言模型风靡全球,最近,不少开源大模型,将模型部署到自己的电脑上,用个性化的数据微调想必是不少人的愿望,这次,让我来分享从hugging face上下载部署chatglm3-6b中的经验。
1.硬件准备
具体参考这条帖子: https://zhuanlan.zhihu.com/p/655948272
结论:一般RTX 3060 6GB显卡是最小模型的门槛
补充“7B”指的是7亿参数。大语言模型参数量是指模型中可调整的参数的数量,通常用来衡量模型的大小和复杂程度,一般参数量越大的模型性能越强。商业化的模型一般在10B-100B之间,chatgpt4 13.3B。
我的配置:(查看方法:联想电脑管家,鲁大师)
很勉强,为了照顾显卡不行的小伙伴,这个帖子先用CPU进行部署
2.运算环境准备
2.1 安装anaconda
什么?你还不知道anaconda是啥?Conda是一个开源的包、环境管理器,可以用于在同一个机器上安装不同版本的软件包及其依赖,并能够在不同的环境之间切换。
网上已经有很多下载安装教程,比如:https://blog.csdn.net/ABV09876543210/article/details/101194476
https://zhuanlan.zhihu.com/p/647523947
备注:现在最好python版本安装到3.8或者3.9,版本过低后面安装库的时候库的版本会过低。
我的报错解析:
- 如果你已经安装,但在cmd使用conda 却报没有此命令,可以看看是不是没加入你的环境变量
如何配置环境变量?Win11方法在此: https://blog.csdn.net/weixin_46483785/article/details/131163456
2.2 配置软件环境
用conda create -n env python==3.8 命令创建名为“env”的新虚拟环境,用activate env或者conda activate env进入新建的虚拟环境(前面会出现新环境的名字)
并在新虚拟环境中使用conda下载(下载方法在刚刚conda教程中有)transformers>=4.38.2(为啥是这个或者以上的版本?后面会考!),tensorflow和pytorch。Pytorch安装比较麻烦,分为CPU版本和GPU版,具体教程看这里:https://www.jb51.net/python/302744e4p.htm
我是使用这个命令安装CPU版的 #安装pytorch conda install pytorch torchvision torchaudio cpuonly -c pytorch。使用conda list可以看见所有下载了的库:
然后虚拟环境导入到jupyter中(这时要保证自己在新的环境中!) https://blog.csdn.net/m0_56075892/article/details/130005168 首先要确保环境中有ipykernel ipython 库,没有的话进行安装
安装ipykernel ipython
pip install ipykernel ipython
查看jupyter下面有多少个kernels
jupyter kernelspec list
ipython kernel install --user --name pytorch1.6(虚拟环境名字)
最后,进入jupyter notebook,将kernel 调整成对应的虚拟环境将验证安装好了的包
新建一个notebook文档,然后输入 import torch import transformers 如果没有报错说明你已经安装好了。
3.下载大模型:
Hugging face官网是要科学上网滴:https://huggingface.co/ 在网站上chatglm3的官方下载方式是:from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained(“THUDM/chatglm3-6b”, trust_remote_code=True) model = AutoModel.from_pretrained(“THUDM/chatglm3-6b”, trust_remote_code=True).half().cuda()
按照它的代码输入,你就会报这个错:
意思是:被墙了
这咋办?解决方法:国内镜像!https://hf-mirror.com/ https://aliendao.cn/#/ #我用的是这个
将所有文件下载到本地后,新建文件夹,命名,在本地加载 https://hf-mirror.com/
https://aliendao.cn/#/
例如,我将其放在这个文件夹下:
然后通过cd函数将工作路径调整到models文件夹后,就可以导入模型了:
from transformers import AutoTokenizer, AutoModel tokenizer = AutoTokenizer.from_pretrained(“THUDM/chatglm3-6b”, trust_remote_code=True) model = AutoModel.from_pretrained(“THUDM/chatglm3-6b”, trust_remote_code=True).half() model = model.eval()
response, history = model.chat(tokenizer, “你好”, history=[]) print(response) 出现这样一句话说明你成功啦!你好!我是人工智能助手 ChatGLM-6B,很高兴见到你,欢迎问我任何问题。
如果报错:DLL load failed while importing _imaging: 找不到指定的模块的解决方法 是你安装的库的版本有问题,解决方法可以详见这个帖子:https://blog.csdn.net/qq_45510888/article/details/121446878
4.更简单,更快的部署方法:
一键下载安装!一键本地部署!
教程:https://zhuanlan.zhihu.com/p/672400265
支持以下模型,缺点:没有中文模型!:
这期到这里结束了,读到这里你也发现,这个不是一个纯粹的原创帖,更多是前人经验的总结归纳和我在走前人教程中遇到的问题,希望对大家有帮助。
如何系统的去学习大模型LLM ?
作为一名热心肠的互联网老兵,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。
但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的 AI大模型资料
包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
所有资料 ⚡️ ,朋友们如果有需要全套 《LLM大模型入门+进阶学习资源包》,扫码获取~
一、全套AGI大模型学习路线
AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!
二、640套AI大模型报告合集
这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。
三、AI大模型经典PDF籍
随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。
四、AI大模型商业化落地方案
阶段1:AI大模型时代的基础理解
- 目标:了解AI大模型的基本概念、发展历程和核心原理。
- 内容:
- L1.1 人工智能简述与大模型起源
- L1.2 大模型与通用人工智能
- L1.3 GPT模型的发展历程
- L1.4 模型工程
- L1.4.1 知识大模型
- L1.4.2 生产大模型
- L1.4.3 模型工程方法论
- L1.4.4 模型工程实践 - L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
- 目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
- 内容:
- L2.1 API接口
- L2.1.1 OpenAI API接口
- L2.1.2 Python接口接入
- L2.1.3 BOT工具类框架
- L2.1.4 代码示例 - L2.2 Prompt框架
- L2.2.1 什么是Prompt
- L2.2.2 Prompt框架应用现状
- L2.2.3 基于GPTAS的Prompt框架
- L2.2.4 Prompt框架与Thought
- L2.2.5 Prompt框架与提示词 - L2.3 流水线工程
- L2.3.1 流水线工程的概念
- L2.3.2 流水线工程的优点
- L2.3.3 流水线工程的应用 - L2.4 总结与展望
- L2.1 API接口
阶段3:AI大模型应用架构实践
- 目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
- 内容:
- L3.1 Agent模型框架
- L3.1.1 Agent模型框架的设计理念
- L3.1.2 Agent模型框架的核心组件
- L3.1.3 Agent模型框架的实现细节 - L3.2 MetaGPT
- L3.2.1 MetaGPT的基本概念
- L3.2.2 MetaGPT的工作原理
- L3.2.3 MetaGPT的应用场景 - L3.3 ChatGLM
- L3.3.1 ChatGLM的特点
- L3.3.2 ChatGLM的开发环境
- L3.3.3 ChatGLM的使用示例 - L3.4 LLAMA
- L3.4.1 LLAMA的特点
- L3.4.2 LLAMA的开发环境
- L3.4.3 LLAMA的使用示例 - L3.5 其他大模型介绍
- L3.1 Agent模型框架
阶段4:AI大模型私有化部署
- 目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
- 内容:
- L4.1 模型私有化部署概述
- L4.2 模型私有化部署的关键技术
- L4.3 模型私有化部署的实施步骤
- L4.4 模型私有化部署的应用场景
学习计划:
- 阶段1:1-2个月,建立AI大模型的基础知识体系。
- 阶段2:2-3个月,专注于API应用开发能力的提升。
- 阶段3:3-4个月,深入实践AI大模型的应用架构和私有化部署。
- 阶段4:4-5个月,专注于高级模型的应用和部署。
这份完整版的所有 ⚡️ 大模型 LLM 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
全套 《LLM大模型入门+进阶学习资源包》↓↓↓ 获取~
更多推荐
所有评论(0)