|
DeepSeek 本地部署全攻略:保姆级教程DeepSeek 本地部署全攻略:保姆级教程 大家好,很久没有发文写一些技术相关或是知识普及的文章了,随着2024的结束,迎来全新的2025deepseek在春节期间爆火。我也想蹭着热度还在通过自己个人了解还有网络上一些现有的信息资源给大家说下自己本地怎么部署deepseek。 (注:因平台规范问题本文中所有www,http,https,com等全部用xxxx替代) 本文将详细介绍如何在本地部署 DeepSeek 模型,并以图文的形式把操作步骤展示出来,确保即使是初学者也能轻松上手。我们将从环境准备、安装依赖、模型下载到运行模型的每一步进行详细讲解。 一、本地部署的适用场景 ![]() 本地部署适合以下情况: 电脑配置较高,有独立显卡:本地部署需要较强的硬件支持,尤其是GPU需求。 有私密数据需要处理,担心泄密:本地部署可以避免数据上传到云端,确保数据安全。 需要与本地工作交流结合:处理高频任务或复杂任务时,本地部署可以提供更高的灵活性和效率。 日常使用量大,调用 API 需要收费:本地部署可以节省 API 调用的费用。 想要在开源模型基础上做个性化定制:本地部署允许你对模型进行二次开发和定制。 总结:有钱有技术 + 怕泄密 → 本地部署 没钱没技术 + 图省事 → 直接使用网页/APP 二、本地部署的基本步骤 1. 环境准备:确保你的系统满足以下要求 操作系统:Linux(推荐 Ubuntu 20.04 或更高版本)或 Windows。 Python:3.8 或更高版本。 GPU:支持 CUDA 的 NVIDIA GPU(推荐16GB 显存以上)。 CUDA:11.2 或更高版本。 CUDNN:8.1 或更高版本。 Linux择按照我编辑的跟着操作就行,Windows根据自己的电脑类型,选择不同版本。 苹果电脑选最左边(蓝色框),Windows系统选最右边(红色框),之后点击下载(绿色框)。 ![]() 2. 安装依赖 首先,安装必要的依赖项: sudo apt-get update sudo apt-get install -y python3-pip python3-dev python3-venv git 3. 创建虚拟环境 为了避免依赖冲突,建议在虚拟环境中操作: python3 -m venv deepseek-env source deepseek-env/bin/activate 4. 安装 PyTorch 根据你的 CUDA 版本安装 PyTorch。例如,CUDA 11.2 的安装命令如下: pip install torch torchvision torchaudio --extra-index-url xxx://download.pytorch.org/whl/cu112 5. 克隆 DeepSeek 仓库 从 GitHub 克隆 DeepSeek 的代码库: git clone xxxx://github.xxx/deepseek-ai/deepseek.git cd deepseek 6. 安装项目依赖 安装项目所需的 Python 依赖: pip install -r requirements.txt 7. 下载预训练模型 下载 DeepSeek 的预训练模型权重,并将其放置在 models/ 目录下。你可以从guan方提供的链接下载,或使用以下命令(假设模型权重已上传到某个服务器): wget xxxx://example.xxx/path/to/deepseek_model.pth -O models/deepseek_model.pth 8. 配置环境变量 设置必要的环境变量,例如模型路径和 GPU 设备号: export MODEL_PATH=models/deepseek_model.pth export CUDA_VISIBLE_DEVICES=0 9. 运行模型 使用以下命令启动模型推理或训练: python run.py --model_path $MODEL_PATH --input "你的输入文本" 10. 测试模型 你可以通过提供输入文本来测试模型的输出: python run.py --model_path $MODEL_PATH --input "你好,DeepSeek!" 11. 训练模型(可选) 如果你想从头训练或微调模型,可以使用以下命令: python train.py --model_path $MODEL_PATH --data_path path/to/your/data 12. 部署模型(可选) 你可以将模型部署为 API 服务,使用 Flask 或 FastAPI 等框架: pip install fastapi uvicorn uvicorn api:app --reload 13. 访问 API 如果部署成功,你可以通过 xxx://localhost:8000 访问 API,并通过 POST 请求发送输入文本。 使用 Ollama 进行本地部署(简化版)Windows系统 如果你觉得上述步骤过于复杂,可以使用 Ollama 来简化本地部署过程。Ollama 是一个用于管理 AI 模型的工具,特别适合初学者。 1. 安装 Ollama ![]() 打开浏览器,搜索 Ollama,进入guan网。 点击 Download,根据你的操作系统选择对应的版本(Windows、macOS 或 Linux)。 下载并安装 Ollama。安装完成后,桌面会出现一个羊驼图标。 ![]() 特别说明:最好安装在C盘,安装在其它盘,需要重新配置环境变量。 2. 选择并安装模型 打开 Ollama guan网,点击右上角的 Models。 选择 deepseek-r1 模型,并根据你的电脑性能选择合适的参数版本(如 1.5b、7b、14b 等)。 ![]() ![]() 复制安装命令,例如: ollama run deepseek-r1:1.5b 打开命令行(Windows 用户按 Win + R,输入 cmd),粘贴并运行上述命令。模型将自动下载并安装。 ![]() ![]() 点击键盘上的“Enter”键,模型会自动下载。 ![]() 3. 与模型对话 安装完成后,你可以直接在命令行中与模型对话: ollama run deepseek-r1:1.5b 输入你的问题,模型会立即给出回答。 ![]() 此时大模型安装在你的电脑上,就算断网也可以继续用,也不用担心数据泄露。 后续运行模型操作注意事项: 当你关闭电脑后,下次再打开ollama。会发现点击ollama的图标,电脑没反应。 因为你点击图标,只是启动了ollama,想要和大模型聊天,还是需要打开命令行。 继续通过命令行和大模型聊天: 同时按下键盘上的Win和R键,在弹出的窗口里输入cmd,点击确定打开命令行。在命令行界面,输入刚刚的命令“ollama run deepseek-r1:1.5b”。因为你之前已经下载过,这次无需下载,可以直接和模型聊天。 ![]() 四、安装 Open-WebUI(可选) Open-WebUI 可以为 Ollama 提供一个更友好的图形界面,但安装过程较为复杂,适合有一定技术基础的用户 (只是让交互界面更好看,可以不必安装) 这里就给大家简单的演示讲解下: 1. 安装 Docker 打开浏览器,搜索 Docker,进入guan网,根据你的电脑系统下载并安装 Docker 桌面版。 ![]() ![]() 安装完成后,需要重新启动电脑,才能正常使用docker。重新启动后,如果你的桌面上出现了docker的图标,就表示安装成功了。 ![]() 2. 安装 Open-WebUI 打开命令行,输入以下命令安装 Open-WebUI:(linux系统) docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main 安装完成后,打开浏览器,访问 xxx://localhost:3000,注册一个账号并登录。 在界面左上角选择你的模型,即可开始对话。 Windows:浏览器搜索Open-WebUI,进入guan网,并复制红框中的命令。 ![]() 按照上面提到的步骤,打开命令行,输入复制的命令,等待安装完成。 运行Open-WebUI 双击docker的桌面图标,打开软件。点击红框端口,即可运行Open-WebUI。 ![]() 初次访问时,需要注册一个账号。这些信息会储存在你的电脑里。 在界面左上角,选择你的模型,就可以开始对话啦。 ![]() 五、常见问题 1. 如何查看已安装的模型? 在命令行中输入以下命令: ollama list 2. 如何删除模型? 在命令行中输入以下命令: ollama rm deepseek-r1:1.5b 在命令行输入,ollama rm + 模型名称,例如:ollama rm deepseek-r1:1.5b,就会自动删除对应模型。
命令行输入ollama,展示出ollama的其它功能。 ![]() 比如:输入“ollama stop”是停止模型运行,“run + 模型名”是运行对应模型。 六、总结 通过以上步骤,你可以轻松在本地部署 DeepSeek 模型。无论是通过手动安装还是使用 Ollama,本地部署都能为你提供更高的灵活性和数据安全性。 |