Claude Code 省钱攻略:两种方法零成本体验

Claude Code 正常用 API 跑几个小时,账单就能喷掉好几百。本文教你两种方法零成本跑 Claude Code:一种用 Ollama 在自己电脑本地跑,一种用 OpenRouter 接入免费的云端模型。最后老实对比,什么时候该省、什么时候千万别省。

一、安装准备

开始之前,Claude Code 本身要先装好。一行指令:

bash
npm install -g @anthropic-ai/claude-code

需要 npm 和 Node.js,如果你还没装过,先把前置环境准备好。

快捷方式:如果你已经装好 Ollama(0.15 版以上),一行指令就能把 Claude Code 跑起来:ollama launch claude。它会引导你选模型、自动设好环境变量、然后把 Claude Code 跑起来。下面会一步一步拆解这行指令背后做了什么。

二、方法一:Ollama 本地运行

2.1 安装 Ollama

ollama.com 下载安装 Ollama,装好后确认版本。0.14.0 以上才能搭 Claude Code,0.15 以上才有 ollama launch 快捷指令。

bash
ollama --version

2.2 拉取模型

推荐 qwen2.5-coder:14b,14B 的大小在大部分 Mac 上都跑得动,写 code 的品质也不差。模型大概 9GB。

bash
ollama pull qwen2.5-coder:14b

内存要求:本地跑模型很吃内存,14B 的模型跑起来大概需要 10 几 GB。8GB 内存的电脑建议直接跳到后面 OpenRouter 那段,本地跑会太卡。16GB 以上就没问题。

另外要注意 context window(模型一次能记多少东西)。越大记得越多,但越吃资源。Claude Code 官方建议至少 64K。

2.3 设置环境变量

这步超重要,90% 的人第一次都会踩到坑。两行指令各做一件事:第一行告诉 Claude Code 验证方式用 Ollama,第二行告诉它去你自己电脑的 11434 port 找模型,不要跑去 Anthropic 的 server。

bash
export ANTHROPIC_AUTH_TOKEN=ollama                # 告诉 Claude Code:验证方式用 Ollama
export ANTHROPIC_BASE_URL=http://localhost:11434  # 告诉 Claude Code:去你自己电脑找模型

2.4 启动 Claude Code

环境变量设好之后,如果直接跑 claude 不指定模型,会报错说找不到 claude-sonnet-4-6。因为 Claude Code 预设会去找 Claude Sonnet,但你的 Ollama 上装的是 qwen2.5-coder,当然找不到。所以要用 --model 指定模型:

bash
claude --model qwen2.5-coder:14b

持久化设定:刚刚那些 export 只在当前 terminal 窗口有效。如果想每次开 terminal 都能用,就把那两行贴到你的 ~/.zshrc 里面。每次启动记得加 --model 指定模型就好。

三、Ollama 实测:写一个 Python 计算机

基础设定搞定了,来看看本地模型到底能干什么。请 Claude Code 写一个 Python 计算机:

Prompt
帮我写一个 Python 计算机,要有加减乘除功能,可以在 terminal 里面互动使用

本地模型的速度跟 API 比起来差蛮多的。有人实测过,本地模型跑 Claude Code 比 API 慢大概 68 倍。就算是打个 Hi,也可能要等几十秒才回。

跑出来之后你会发现,它没有帮你建文件,而是吐了一大段 JSON 回来,code 藏在里面。这就是本地模型跟正版 Claude 最大的差别——正版 Claude 会自动帮你建文件、写好 code、存好。本地模型不会,因为它不支持 tool calling,没办法自动操作你的文件系统。

不过 code 本身是有的,自己手动建文件就好:

bash
cat << 'EOF' > calculator.py
# 把 JSON 里面的 code 贴在这里
EOF

跑起来测试一下,功能是 OK 的,加减乘除都能用。但整个体验跟正版差蛮多:正版 Claude 会自动建文件、自动跑测试,本地模型只会吐 code 给你,剩下的得自己来。

四、方法二:OpenRouter 云端运行

OpenRouter 就是 AI 模型的中间商,一堆模型都放在同一个 API 底下,其中大概 30 个是完全免费的。这段设定比 Ollama 还快。

4.1 注册并获取 API Key

  1. openrouter.ai 注册帐号
  2. 点右上角头像,进到 API Keys 页面
  3. 点「Create Key」,名字随便打,像是 claude-code
  4. 复制 Key(只显示一次,记得存好)

4.2 设置环境变量

跟 Ollama 一样的逻辑,第一行换成 OpenRouter 的网址,第二行贴你的 key:

bash
export ANTHROPIC_BASE_URL="https://openrouter.ai/api"      # 告诉 Claude Code:去 OpenRouter 的 server 找模型
export ANTHROPIC_AUTH_TOKEN="sk-or-v1-你的key贴这边"         # 你刚刚复制的 OpenRouter API key 贴这边

然后告诉 Claude Code 用哪个免费模型。不然它又会去找 Claude Sonnet,在 OpenRouter 上那个是要钱的:

bash
export ANTHROPIC_DEFAULT_SONNET_MODEL="qwen/qwen3-coder:free"

注意 :free 后缀:OpenRouter 上同一个模型有付费版和免费版,不加 :free 的话会扣你钱。2026 年 4 月目前比较热门的免费模型有 Qwen3 Coder 480B、DeepSeek R1 等,推荐先用 Qwen3 Coder,写 code 蛮强的。

OpenRouter 官方有说,只保证跟 Anthropic 自家模型完美兼容。用免费第三方模型的话,有些功能可能不支持,特别是 tool calling(让 AI 自动帮你读文件改 code 那些)。

4.3 启动 Claude Code

设好之后直接启动:

bash
claude

启动速度比本地快很多,因为模型是跑在云端的,不吃你电脑资源,风扇也不会狂转。

五、OpenRouter 实测:同一任务对比

同一个任务再跑一次,一样请它写 Python 计算机,这样才能直接对比。

用 Qwen3 Coder 480B 跑出来的品质明显好一些。480B 的参数量是本地 14B 的 30 几倍,推理能力根本不是同一个等级。速度也比本地跑快非常多,因为 server 比你笔电强太多了。

免费额度限制:大概一分钟 20 个 request、一天 50 个。如果花 10 美金买 credits,免费模型的额度会升到一天 1000 个。拿来学习、做小专案完全够用。

六、完整对比:什么时候该省、什么时候别省

对比项目 Ollama 本地 OpenRouter 云端 付费 API
速度 慢 68 倍 接近 API 最快
品质 能用 不错 最好
适用场景 离线 / 隐私 学习 / 小专案 正式开发
限制 吃内存、慢 50 次/天、部分功能缺 需付费

简单任务两种免费方法都能应付,但稍微复杂一点的任务差距就出来了:逻辑有漏洞、结构没整理干净,免费模型的 tool calling 也支持不完整。

怎么选?

  • 需要离线?公司不能连外网、不想 code 外传 → Ollama
  • 电脑内存不够、没好显卡 → OpenRouter
  • 正式开发 → 付费 API

想体验 Claude Code 怎么运作、学指令和 workflow,免费方法完全 OK。但做正式开发,真的建议付费用原版 Claude。就像学开车,用模拟器练基本操作没问题,但你不会开模拟器上路。

一句话总结:学的时候用免费的,做案子用付费的。学费可以省,工具钱省下来反而亏更多时间。

Y
YAHA学堂 发布于 2026年4月8日

专注 AI 工具与开发效率的技术频道,用最简单的方式讲最实用的技术。