is:ai:windows11部署deepseek

这是本文档旧的修订版!


在本地电脑上通过 Ollama 部署 DeepSeek 的步骤如下:

  1. 下载并安装 Ollama - 访问 Ollama 官网,下载适合你操作系统的 Ollama 安装包。 - 推荐使用命令行安装,以便指定安装目录。例如,将 Ollama 安装到 D 盘的 `Net_Ollama` 文件夹,可以使用以下命令: ```bash OllamaSetup.exe /DIR=“D:\Net_Program\Net_Ollama” ``` 安装完成后,建议退出 Ollama。 - 2. 修改模型存储路径 - 打开系统环境变量设置,新建一个系统变量: - 变量名:`OLLAMA_MODELS` - 变量值:指定模型存储路径,例如 `D:\Net_Program\Net_Ollama\Models`。 - 修改完成后,保存并关闭所有设置窗口。 - 3. 下载 DeepSeek 模型 - 打开命令行工具(Windows 的 CMD 或 PowerShell),输入以下命令下载 DeepSeek 模型: ```bash ollama pull deepseek-r1:7b ``` 如果需要其他版本(如 1.5b 或 8b),可以修改命令中的模型版本。 - 下载完成后,运行模型: ```bash ollama run deepseek-r1:7b ``` 此时,模型将开始运行,你可以通过命令行与模型进行交互。 - 4. 配置可视化界面(可选) - 为了更方便地与 DeepSeek 模型交互,可以使用可视化工具,如 AnythingLLM 或 Chatbox。 - 下载并安装 AnythingLLM 或 Chatbox。 - 打开工具后,选择 Ollama 作为模型提供方,并指定模型(如 DeepSeek R1)。 - 创建一个新的工作区,即可开始使用。 - 5. 验证与使用 - 在命令行中输入以下命令验证 Ollama 是否安装成功: ```bash ollama -v ``` - 如果显示版本信息,则说明安装成功。 - 通过命令行或可视化工具与 DeepSeek 模型进行对话,测试其功能。 - 注意事项**
    1. 如果下载过程中速度变慢,可以关闭命令行窗口,重新运行 `ollama pull` 命令,支持断点续传。
    2. 根据你的硬件配置选择合适的模型版本(如 1.5b、7b 或 8b),以确保最佳性能。
  • is/ai/windows11部署deepseek.1740968271.txt.gz
  • 最后更改: 2025/03/03 02:17
  • A.L