微信扫码
添加专属顾问
我要投稿
周末在笔记本部署本地大模型,过程详细分享,快来! 核心内容: 1. 部署本地大模型的步骤 2. 相关命令扩展介绍 3. 不同模型的参数与大小
利用周末的时间,在自己的笔记本电脑上部署一个本地大模型,过程也记录下来分享给对此有兴趣的朋友们。
【步骤】
模型相关的基础概念这里不多赘述了,直接进入实战。
整个部署过程分为三个步骤:
步骤一:下载ollama大模型工具
步骤二:在ollama工具中,下载通义千问大模型
步骤三:下载AnythingLLM并配置选择ollama的通义千问模型,直接在窗口对话
※文末打包了本次部署的所有安装文件
【逐步骤讲解】
官网下载ollama
https://ollama.com/download
安装后启动ollama
命令行窗口,敲入命令ollama list,此时显示没有任何大模型,开始去下载
下载大模型,阿里千问 0.5b (5亿参数)
ollama run qwen:0.5b
特意一早爬起来,网速快得飞起。小400M不到一分钟下载完成。
下载完成后,简单问一个小问题,看看反应如何?
0.5b是通义千问最小的一个模型,安装在普通笔记本上,反应速度还可以。返回的内容也还行,自己做练习搞点小研究足够了。
命令扩展:命令行窗口可以查看模型相关的信息
lollama list:显示模型列表。
lollama show:显示模型的信息
lollama pull:拉取模型
lollama push:推送模型
lollama cp:拷贝一个模型
lollama rm:删除一个模型
lollama run:运行一个模型
有条件的话,机器配置也能跟得上,可以下载更大的模型,如下表:
模型 |
参数 |
大小 |
下载 |
Llama 2 |
7B |
3.8GB |
ollama run llama2 |
Mistral |
7B |
4.1GB |
ollama run mistral |
Dolphin Phi |
2.7B |
1.6GB |
ollama run dolphin-phi |
Phi-2 |
2.7B |
1.7GB |
ollama run phi |
Neural Chat |
7B |
4.1GB |
ollama run neural-chat |
Starling |
7B |
4.1GB |
ollama run starling-lm |
Code Llama |
7B |
3.8GB |
ollama run codellama |
Llama 2 Uncensored |
7B |
3.8GB |
ollama run llama2-uncensored |
Llama 2 13B |
13B |
7.3GB |
ollama run llama2:13b |
Llama 2 70B |
70B |
39GB |
ollama run llama2:70b |
Orca Mini |
3B |
1.9GB |
ollama run orca-mini |
Vicuna |
7B |
3.8GB |
ollama run vicuna |
LLaVA |
7B |
4.5GB |
ollama run llava |
Gemma |
2B |
1.4GB |
ollama run gemma:2b |
Gemma |
7B |
4.8GB |
ollama run gemma:7b |
Ollama服务默认地址和端口是http://127.0.0.1:11434/
服务开启时,访问该地址会返回 Ollama is running
不过只能在命令行中玩耍还是不太方便,想个办法弄个网页版的,像chatgpt页面一样。
下载Anythingllm结合ollama使用。(这个文件有点大,干掉6个多G)
Anything下载地址https://anythingllm.com/desktop
安装后直接打开,创建新工作区
下面小扳手是设置,打开之后,
LLM提供商选择上面步骤安装的ollama,模型选择上面安装的qwen0.5b大模型。其他的默认不需修改
保存后,返回到我的工作区,聊天窗口可以愉快地体验自己部署的本地大模型啦。
到此为止,一个AnythingLLM+Ollama+qwen0.5b的本地大模型就部署好了。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-26
DeepSeek V3 0526更新?实测代码能力已经提升,附实测案例。
2025-05-26
从MCP实践到开发简单的MCP服务
2025-05-26
MCP Server的五种主流架构与Nacos的选择
2025-05-26
聊聊Cherry Studio如何接入vLLM部署的本地大模型
2025-05-25
一文搞懂大模型的预训练(Pre-training)
2025-05-24
颠覆认知!大模型自检自改新范式,彻底告别人工标注
2025-05-23
Reasoning模型蒸馏实践:用大模型提升小模型能力
2025-05-23
OpenAI 重磅推出!核心API新增MCP功能,智能体开发迎来翻天覆地的变化
2025-04-30
2025-04-20
2025-04-20
2025-05-15
2025-04-27
2025-05-26
2025-05-10
2025-04-28
2025-05-07
2025-04-20