零成本利用 Cloudflare Workers 部署私人 AI 聊天机器人(多模型支持)
零成本利用 Cloudflare Workers 部署私人 AI 聊天机器人(多模型支持)
笨鸟先飞⚠️ 免责声明:本文介绍的技术方案仅用于个人学习研究及合规的服务器资源利用。文中涉及的工具均为开源项目或官方提供的免费服务,请在遵守当地法律法规及平台服务条款的前提下进行使用。
想要零成本跑自己的 AI 聊天机器人?按下面步骤把 Cloudflare 免费算力用起来,支持多个模型(DeepSeek、GPT-OSS、Llama、Qwen 等),还能自定义访问密码防滥用。
准备条件
- Cloudflare 账号
- GitHub 账号
支持的 AI 模型
- DeepSeek-R1 —
@cf/deepseek-ai/deepseek-r1-distill-qwen-32b:思维链推理,适合数学/逻辑/复杂分析 - GPT-OSS-120B —
@cf/openai/gpt-oss-120b:高质量输出,适合创作/分析/通用对话 - GPT-OSS-20B —
@cf/openai/gpt-oss-20b:低延迟,适合实时问答/简单任务 - Llama-4-Scout —
@cf/meta/llama-4-scout-17b-16e-instruct:多模态,适合长文档分析/图像理解 - Qwen2.5-Coder —
@cf/qwen/qwen2.5-coder-32b-instruct:代码专家,适合编程/代码生成/技术问答 - Gemma-3 —
@cf/google/gemma-3-12b-it:多语言,适合翻译/多语言对话
部署步骤
第一步:Fork 项目
- 打开项目仓库:点击前往
- 可选:点个 ⭐️ 支持项目
- 点击 🍴 Fork,将项目复制到你的 GitHub 账户
第二步:创建 KV 存储
- 登录 Cloudflare 控制台
- 进入 存储和数据库 → KV
- 右上角点击 “创建”
- 名称可设为
gpt(可自定义) - 复制 KV 命名空间 ID(后面要用)
第三步:配置项目文件
- 回到 Fork 后的仓库,打开
wrangler.toml - 替换关键字段(可直接复制下方模板,再改成自己的值):
1 | name = "cf-gpt-ai" |
- 保存文件
第四步:部署到 Cloudflare Workers
- 打开 Cloudflare 控制台
- 选择 Workers & Pages
- 点击 “创建” → “从导入现有 Git 存储库开始”
- 选择刚才 Fork 的仓库
- 项目名称可自定义
- 点击 “部署”,等待 1-2 分钟完成
第五步:访问与使用
- 部署完成后,点击项目域名访问
- 输入在
wrangler.toml设置的 访问密码 - 右侧选择需要的 AI 模型
- 🎉 开始聊天!
注意事项
- KV ID 与访问密码务必配置正确
- 首次部署或更新可能需要几分钟生效
- 如遇 4xx/5xx,可检查
wrangler.toml的 KV 绑定和变量名 - 资源免费但有限,建议设置访问密码或限流,避免滥用



