微信扫码
添加专属顾问
我要投稿
掌握Ollama,让你的AI模型运行更高效!
核心内容:
1. Ollama开源项目介绍及其优势
2. Ollama支持的LLMs和使用场景
3. 实用指南:自定义Ollama安装路径步骤详解
本地运行:支持在个人电脑或服务器上运行 LLMs,确保数据隐私和安全。
模型支持:兼容多种开源 LLMs,如 LLaMA、GPT-J 等。
易用性:提供简单接口,方便用户快速部署和使用模型。
跨平台:支持 macOS、Linux 和 Windows 等操作系统。
隐私保护:处理敏感数据时,本地运行避免数据外泄。
离线使用:在没有网络连接的环境中运行模型。
定制开发:开发者可基于 Ollama 构建定制化应用。
学习研究:学生和研究人员可用它进行实验和项目开发。
Ollama 的默认安装路径在C盘,而且exe安装时不能选择安装路径。接下来3步搞定Ollama自定义安装:C盘告急者的救命指南。
例如创建文件夹在 H:\Ollama
OllamaSetup.exe /DIR=H:\Ollama
创建系统环境变量 OLLAMA_MODELS,变量值设置成模型存放位置 eg. H:\Ollama\models
模型默认存放路径在用户主目录下的.ollama文件夹,例如我的存放在C:\Users\TAOjay\.ollama\models文件夹。将该文件夹下的内容复制到OLLAMA_MODELS 设置的文件夹内即可。
运行命令检查是否迁移成功:
> ollama list# 输出NAME ID SIZE MODIFIEDdeepseek-r1:7b 0a8c26691023 4.7 GB 13 hours agodeepseek-r1:1.5b a42b25d8c10a 1.1 GB 38 hours ago
比如下载DeepSeek-模型文件 DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf:
在该路径下创建名为Modelfile的文件,文件内容为:
FROM DeepSeek-R1-Distill-Qwen-7B-Q4_K_M.gguf
ollama create deepSeek-r1:7b -f H:/LLM_MODELS/Modelfile
ollama run deepSeek-r1:7b
要查看给定模型的Modelfile,使用ollama show --modelfile
命令。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-27
Dify工具插件开发和智能体开发全流程实战
2025-05-27
一个让工作效率翻倍的AI神器,Cherry Studio你值得拥有!
2025-05-27
Docext:无需 OCR,本地部署的文档提取神器,企业数据处理新选择
2025-05-26
太猛了,字节把GPT-4o级图像模型开源了!
2025-05-26
Qwen3硬核解析:从36万亿Token到“思考预算”
2025-05-26
蚂蚁集团开源antv的MCP服务:AI智能体与数据可视化的桥梁如何搭建?
2025-05-26
MinerU:高精度纸媒文档解析与数据提取一站式解决方案
2025-05-26
顶级开发者默默换掉了基础大模型
2025-04-29
2025-04-29
2025-05-08
2025-05-21
2025-05-12
2025-04-30
2025-05-12
2025-04-21
2025-04-15
2025-05-20
2025-05-26
2025-05-25
2025-05-23
2025-05-17
2025-05-17
2025-05-17
2025-05-16
2025-05-14