Lazy loaded image
把Ollama跑起来最简单的方式
Words 243Read Time 1 min
2025-10-13
2025-10-13
type
status
date
slug
summary
tags
category
icon
password
这篇笔记记录我用最简单的方式在 Windows 11 上本地跑起来 Ollama,跑起来开源的 Qwen3

下载 Ollama

直接到官网通过下载安装包,安装 Ollama 软件
notion image

本地跑一个模型

notion image
下载后的界面是一个 chat box,选择一个开源模型,然后下载模型,就可以本地跑起来,然后通过这个 GUI 进行多轮对话了。
 

API 访问

默认跑在 11434 端口,通过 API 访问直接可以进行访问
PowerShell 指令
notion image
 

总结

这是最最最简单的在本地跑起来模型的方式,跑起来之后,再弄 n8n 工作流,或者 cherry studio 等东西,就可以不访问外部付费的 API 了(ChatGPT),可以直接调用本地的模型的API。
上一篇
YouTube 上最火的 n8n 教学,一步步带你玩转自动化与 AI
下一篇
记录亲身经历美国大厂裁员的故事