微信扫码
添加专属顾问
我要投稿
首先我们需要在 Windows PC 上安装 Phi-3 的环境。
要安装什么软件
Python
Python不是必需安装的,如果需要自己创建程序那么需要进行安装。
Ollama
运行Phi-3需要安装Ollama。
Phi-3
Phi-3 是一种在本地环境中运行的生成式AI。
安装Python
首先,安装Python。如果您是程序员并且已经安装了 Python,请继续安装 Ollama。如果您不是程序员也不想自己写程序来使用Phi-3那么可跳过安装。
安装Ollama
从Ollama 官方网站下载安装程序。具体可查看发布的另外一篇文章
ollama安装和使用指南
安装完成后,打开命令提示符以确认安装已完成,输入“ollama --version”并按Enter键,当显示“ollama version is 0.3.8”时,表示安装完成。
显示的版本可能会有所不同,具体取决于您下载的安装程序。
安装 Phi-3
最后,安装Phi-3。从命令提示符安装 Phi-3。
检查完Ollama的版本后,请输入
ollama pull phi3
请确认显示以下屏幕并显示“成功”。
输入命令以在 Python 中使用 Phi-3。
在命令提示符下键入
pip install requests。
当Python包下载完成并显示“成功安装...”消息时,该过程已完成。
现在环境搭建完成了,我们来检查一下Phi-3的运行情况。
启动命令提示符并输入以下命令。
ollama run phi3
如果出现此消息,则可以使用 Phi-3。输入一些消息看看大模型的回答如何,也许您会觉得大模型的回答不是太理想,那么这时候就需要去添加一些效果好一些的模型。
添加模型
Phi-3 有多种模型可供选择。您可以从这些模型中选择一款轻量且高性能的模型来使用它。
您可以通过输入以下命令来安装模型并尝试启动它。
ollama run phi3:3.8b-mini-128k-instruct-fp16
如果显示success,则说明安装成功。接下来,显示“发送消息”消息
到此我们就完成了本地AI的构建。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-05-26
DeepSeek V3 0526更新?实测代码能力已经提升,附实测案例。
2025-05-26
从MCP实践到开发简单的MCP服务
2025-05-26
MCP Server的五种主流架构与Nacos的选择
2025-05-26
聊聊Cherry Studio如何接入vLLM部署的本地大模型
2025-05-25
一文搞懂大模型的预训练(Pre-training)
2025-05-24
颠覆认知!大模型自检自改新范式,彻底告别人工标注
2025-05-23
Reasoning模型蒸馏实践:用大模型提升小模型能力
2025-05-23
OpenAI 重磅推出!核心API新增MCP功能,智能体开发迎来翻天覆地的变化
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-09
2024-07-11
2024-07-26
2025-02-05
2025-01-27
2025-02-01