零成本利用 Cloudflare Workers 部署私人 AI 聊天机器人(多模型支持)

⚠️ 免责声明:本文介绍的技术方案仅用于个人学习研究及合规的服务器资源利用。文中涉及的工具均为开源项目或官方提供的免费服务,请在遵守当地法律法规及平台服务条款的前提下进行使用。

想要零成本跑自己的 AI 聊天机器人?按下面步骤把 Cloudflare 免费算力用起来,支持多个模型(DeepSeek、GPT-OSS、Llama、Qwen 等),还能自定义访问密码防滥用。

准备条件

  • Cloudflare 账号
  • GitHub 账号

支持的 AI 模型

  • DeepSeek-R1@cf/deepseek-ai/deepseek-r1-distill-qwen-32b:思维链推理,适合数学/逻辑/复杂分析
  • GPT-OSS-120B@cf/openai/gpt-oss-120b:高质量输出,适合创作/分析/通用对话
  • GPT-OSS-20B@cf/openai/gpt-oss-20b:低延迟,适合实时问答/简单任务
  • Llama-4-Scout@cf/meta/llama-4-scout-17b-16e-instruct:多模态,适合长文档分析/图像理解
  • Qwen2.5-Coder@cf/qwen/qwen2.5-coder-32b-instruct:代码专家,适合编程/代码生成/技术问答
  • Gemma-3@cf/google/gemma-3-12b-it:多语言,适合翻译/多语言对话

部署步骤

第一步:Fork 项目

  1. 打开项目仓库:点击前往
    Fork 项目示意
  2. 可选:点个 ⭐️ 支持项目
  3. 点击 🍴 Fork,将项目复制到你的 GitHub 账户

第二步:创建 KV 存储

  1. 登录 Cloudflare 控制台
  2. 进入 存储和数据库 → KV
  3. 右上角点击 “创建”
    创建 KV
  4. 名称可设为 gpt(可自定义)
  5. 复制 KV 命名空间 ID(后面要用)
    KV ID 位置

第三步:配置项目文件

  1. 回到 Fork 后的仓库,打开 wrangler.toml
    编辑 wrangler.toml
  2. 替换关键字段(可直接复制下方模板,再改成自己的值):
1
2
3
4
5
6
7
8
9
10
11
name = "cf-gpt-ai"
main = "src/index.ts"
compatibility_date = "2024-11-01"

[[kv_namespaces]]
binding = "GPT_KV"
id = "你的 KV ID"
preview_id = "你的 KV ID"

[vars]
ACCESS_PASSWORD = "自定义访问密码"
  1. 保存文件
    配置示意

第四步:部署到 Cloudflare Workers

  1. 打开 Cloudflare 控制台
  2. 选择 Workers & Pages
  3. 点击 “创建”“从导入现有 Git 存储库开始”
    导入仓库
  4. 选择刚才 Fork 的仓库
    选择仓库
  5. 项目名称可自定义
    项目命名
  6. 点击 “部署”,等待 1-2 分钟完成

第五步:访问与使用

  1. 部署完成后,点击项目域名访问
    访问入口
  2. 输入在 wrangler.toml 设置的 访问密码
    输入密码
  3. 右侧选择需要的 AI 模型
    模型选择
  4. 🎉 开始聊天!

注意事项

  • KV ID 与访问密码务必配置正确
  • 首次部署或更新可能需要几分钟生效
  • 如遇 4xx/5xx,可检查 wrangler.toml 的 KV 绑定和变量名
  • 资源免费但有限,建议设置访问密码或限流,避免滥用