当前位置:主页 > 软件下载 > Ollama下载
Ollama

Ollama(本地LLM管理/WebUI对话) for Windows v0.5.7 安装免费版

这款工具让本地大语言模型的管理变得非常简单,安装和设置都很容易上手,支持多种模型,适合不同需求的用户,运行稳定,推荐给需要本地实验的开发者和研究者。

更新:2025-02-27版本:0.5.7语言:中文

大小:740MB软件官网:官方网站类别:编程工具

轻松管理本地大语言模型,快速部署和实验,适合开发者和爱好者!

软件介绍

Ollama 是一款专为简化本地大语言模型运行而设计的开源工具,适合开发者、研究人员和爱好者使用。它支持多种开源模型,如 DeepSeek R1、Llama3 等,帮助用户在本地快速实验和管理模型。无论是部署还是调试,Ollama 都提供了便捷的解决方案,极大降低了使用门槛。

Ollama 是什么?

Ollama 是一个开源工具,专门用于在本地运行和管理大型语言模型。它让开发者、研究人员和爱好者能够轻松实验和部署各种大语言模型,比如 DeepSeek R1、Qwen2、Llama3 等。通过简单的操作,用户可以在本地环境中快速上手,无需复杂的配置。

Ollama for Mac 版本:点击下载

Ollama 和 Llama 有什么联系?

Llama 是 Meta 公司推出的一款广受欢迎的大语言模型,和其他模型一样,它可以通过 Ollama 进行管理和部署。虽然名字相似,但 Ollama 是一个通用的管理工具,而 Llama 只是它支持的众多模型之一。

简单来说,Llama 是模型,Ollama 是管理模型的工具,名字相似纯属巧合!

Ollama 的安装与系统设置

安装 Ollama 就像安装普通软件一样简单,只需几步就能完成。

Ollama

安装完成后,建议设置以下系统环境变量:

OLLAMA_MODELS:模型文件的存储路径,默认在用户目录下。如果使用 Windows 系统,建议修改为其他盘符,比如 D:\OllamaModels,避免占用 C 盘空间。

OLLAMA_HOST:设置服务监听的网络地址,默认是 127.0.0.1。如果需要让局域网内的其他设备访问,可以改为 0.0.0.0。

OLLAMA_PORT:服务监听的端口号,默认是 11434。如果端口冲突,可以改成其他端口,比如 8080。

OLLAMA_ORIGINS:HTTP 请求的来源地址,本地使用时可以设置为星号,表示不限制。

OLLAMA_KEEP_ALIVE:模型在内存中的存活时间,默认是 5 分钟。可以设置为 24h,让模型在内存中保持更长时间,提升访问速度。

OLLAMA_NUM_PARALLEL:请求的并发处理数量,默认是 1。可以根据需求调整。

OLLAMA_MAX_QUEUE:请求队列的最大长度,默认是 512。超过长度的请求会被丢弃。

OLLAMA_DEBUG:调试模式,设置为 1 时可以输出详细日志,方便排查问题。

OLLAMA_MAX_LOADED_MODELS:内存中同时加载的模型数量,默认是 1。

CPU 适配版本:

没有 GPU:1.5B Q8 推理或 8B Q4 推理

4G GPU:8B Q4 推理

8G GPU:32B Q4 推理或 8B Q4 推理

16G GPU:32B Q4 推理或 32B Q8 推理

24G GPU:32B Q8 推理或 70B Q2 推理

根据自己的硬件配置选择合适的版本。

DeepSeek R1 的本地部署方法

安装命令:

1.5B Qwen DeepSeek R1

安装命令:ollama run deepseek-r1:1.5b

7B Qwen DeepSeek R1

安装命令:ollama run deepseek-r1:7b

8B Llama DeepSeek R1

安装命令:ollama run deepseek-r1:8b

14B Qwen DeepSeek R1

安装命令:ollama run deepseek-r1:14b

32B Qwen DeepSeek R1

安装命令:ollama run deepseek-r1:32b

70B Llama DeepSeek R1

安装命令:ollama run deepseek-r1:70b

Ollama

如果遇到 403 错误,可以尝试以管理员身份运行。下载模型可能需要一些时间,完成后会看到成功界面。

Ollama

搭建 Web UI 实现网页对话

命令行操作虽然强大,但不够直观。为了更好地管理聊天内容,类似 ChatGPT 的网页对话功能非常实用。

这里推荐使用 Open Web UI,效果如下:

Ollama

在搭建之前,需要先安装 Docker。安装完成后,打开 Docker 并登录,然后在终端输入以下命令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

启动 Docker 容器后,会看到欢迎页面,点击即可开始使用。

其他 Open WebUI 工具

除了 Open Web UI,还有其他几种方式可以实现可视化交互:

1. 使用 Docker Desktop,支持一键部署大多数 GitHub 开源项目,无需额外配置环境。

2. 自行安装 Python 环境,通过 Pip 安装相关工具。

3. 直接使用浏览器插件,无需安装 Docker 或 Python。

本地部署 DeepSeek-R1 并联网:超简单的离线部署教程

4. 还可以使用 ChatBox 或 Cherry Studio 等桌面客户端。

解决 DeepSeek 服务器繁忙问题:Cherry Studio & DeepSeek 告别卡顿

下载地址

用户评论

请自觉遵守互联网相关政策法规,评论内容只代表网友观点,与本站立场无关!

Copyright 2024-2025 www.fuhao321.com 符号扩展迷 版权所有 苏ICP备18032832号

声明:本站为非赢利性网站 所有插件和文章来自互联网 如有异议 请与本站联系:3522365#qq.com