本地部署模型(ollama为例)
👏 学习本地部署
✍️ 断网吃硬件,连接不随缘
前言 :这个方法是部署模型最简单的方法,但不一定是最好的 (取决于你的电脑系统 or 配置) 大家酌情考虑
为什么需要本地部署?
相信你之前也遇到过类似的情况:
- 在外面没有网络,依靠百度战神查资料是不可能了,十分不便
- 想玩一些开源大模型【如:ollama GML gemma 等】,访问这类网站在国内是要被墙的,挂VPN又《可刑可铐》,或者是找一个镜像站既不安全,又不稳定,令人苦恼
- 没有浏览器(虽然大多数都有)
如果你是大陆用户,或者是恰恰有遇到以上的这些问题,那这个方法就很适合你!
访问官网/下载环境
链接【以ollama为例】
点击 Download
选择适合你的系统下载版本(Windows & MacOs & Linux)
这里以 Windows 为例:
运行下载好的安装程序 Ollama Setup.exe 这里点击Install
即可
搜索/部署模型
Ollama Setup.exe 安装好以后就可以搜索并部署模型了(~ ̄▽ ̄)~
方法也是肥肠
的简单啊~
子标题:搜索
- 回到 ollama 官网 点击跳转 ,并点击上方的搜索栏,在搜索栏中搜索你想要的模型编号即可【如:ollama GML gemma 等】
- 点击你想要的模型后 (以 llama 3.1 模型为例) 点击示例 在此界面中你可以选择模型的型号 【如:8b 70b 405b】 左侧即是安装命令了
Up 自己整理理了一些常用的开源模型,如下:
-
Ollama 3.1 (8b 70b 405b 同理)
-
gemma 2 (2b 9b 27b)
-
phi 3.5 (3.8b模型)
子标题:部署
- 打开
PowerShell
,为了万无一失建议先输入ollama,查看一下当前运行情况如果有输出则没问题 - 输入模型对应的安装命令【如ollama的模型部署命令就是 {ollama run llama3.1:8b}】即可
模型要求
Windows:3060以上显卡+8G以上显存+16G内存,硬盘空间至少20G
Mac:M1或M2芯片 16G内存,20G以上硬盘空间