type
status
date
slug
summary
tags
category
icon
password
这篇笔记记录我用最简单的方式在 Windows 11 上本地跑起来 Ollama,跑起来开源的 Qwen3
下载 Ollama
直接到官网通过下载安装包,安装 Ollama 软件

本地跑一个模型

下载后的界面是一个 chat box,选择一个开源模型,然后下载模型,就可以本地跑起来,然后通过这个 GUI 进行多轮对话了。
API 访问
默认跑在 11434 端口,通过 API 访问直接可以进行访问
PowerShell 指令

总结
这是最最最简单的在本地跑起来模型的方式,跑起来之后,再弄 n8n 工作流,或者 cherry studio 等东西,就可以不访问外部付费的 API 了(ChatGPT),可以直接调用本地的模型的API。
- Author:Henan Mu
- URL:http://preview.tangly1024.com/article/ollama-win11
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!




