一款利器CloudCLI:摆脱终端束缚,网页版ClaudeCli、Codex


当编程不再需要”编程”
2024年,AI 代码助手爆发式涌现——Claude、Codex、Gemini、Cursor,每一个都宣称能”改变你写代码的方式”。然而现实是:工具越多,割裂感越强。
你需要在终端里敲命令,用 Claude 写业务逻辑;再开一个窗口,调用 Codex 做代码审查;还得记住一串复杂的 API 密钥和环境变量。不同的模型、不同的命令、不同的交互方式——这不是效率提升,这是另一种形式的”技术债”。
CloudCLI 诞生的初衷,就是打破这道壁垒。

核心理念:用一个界面,掌控所有 AI 编程工具
CloudCLI 不是什么”革命性”的新产品。它更像是你桌面上那个久违的控制台——只不过,这个控制台能理解人话,能调动所有主流 AI 模型,能把复杂的命令转化为你熟悉的点击操作。
它的逻辑很简单:
你 → 说一句话 → CloudCLI → 选择最合适的 AI 模型 → 返回结果
不需要记忆任何命令,不需要在多个终端之间来回切换。你只需要思考”想要什么”,剩下的交给 CloudCLI。
深度解析:CloudCLI 解决了什么问题?
1. 环境配置地狱
AI 代码助手需要 API Key、需要配置路径、需要设置代理……对有经验的工程师来说,这些不过是一行配置文件的事。但对于想专注写代码而不是配置环境的人,这些琐碎细节足以消磨掉所有热情。
CloudCLI 的解决方案:配置文件模板化,环境变量自动注入。一份 .env 文件,一个 start.bat,无论是自己用还是分享给同事,开箱即用。
2. 多模型协作的碎片化
Claude 擅长架构设计,Codex 适合快速实现,Gemini 在多模态理解上有优势——这不是”哪个更好”的问题,而是”什么场景用什么”。
CloudCLI 支持无缝切换模型。同一个项目,你可以先用 Claude 梳理业务逻辑,再用 Codex 实现核心算法,最后让 Gemini 做代码审查。无需退出,无需重载,一个界面全部搞定。
3. 会话历史的”黑洞”
命令行最大的问题之一是:你关掉窗口,历史记录就没了。AI 编程的核心价值在于上下文积累——你希望 AI 理解你项目的演进过程,而不是每次都从零开始。
CloudCLI 的会话持久化机制,确保每一次对话都被记录、索引、可检索。三个月前的一个算法优化,昨天的某次架构调整——随时翻阅,历史不会消失。
技术架构:简洁但不简单
浏览器 ←→ WebSocket ←→ Express 服务 ←→ AI SDK (Claude/Codex/Gemini)
↓
SQLite 本地存储
↓
会话文件 (.jsonl)
为什么选择这套架构?
- WebSocket:实时流式输出,AI 的每一步思考你都看得见
- 本地存储:数据不上云,隐私安全完全自主
- JSONL 格式:兼容所有主流模型的日志格式,迁移零成本
产品界面:专为效率设计的布局
CloudCLI 采用左右分栏的设计,左侧是项目管理中枢,右侧是 AI 交互工作台。
左侧面板 - 项目与会话管理 - 项目列表:统一展示所有参与过的 AI 编程项目,无论源码分散在哪个磁盘角落,在这里一目了然 - 会话列表:按项目分组,会话历史清晰呈现,支持项目名称搜索、支持会话关键字搜索 - 快速定位:再也不用在无数终端窗口里翻找历史记录,输入关键词,秒级定位
右侧面板 - AI 工作台 - 网页对话:打破设备限制,手机、平板也能轻松编程,随时随地与 AI 沟通 - 图形化模型选择:不用记命令型号,下拉菜单选一选,Claude/Codex/Gemini 切换自如 - 图形化斜杠命令:斜杠命令也是可视化操作,点点鼠标就搞定 - 智能配置:可设置自动模式、上下文长度限制、支持图片上传 - Shell 终端:点击右上角切换到 Shell 模式,网页版控制台,输入命令执行操作

- Files 文件管理:直接浏览项目文件,编辑代码,无需离开浏览器

- Source Control:页面内直接做 Git 提交、查看历史、切换分支,版本控制一站式完成

这不是在美化界面,这是在重新定义”编程”的边界。 > 以前你以为编程必须坐在电脑前,必须记住一堆命令。CloudCLI 告诉你:编程可以是任何地方,可以是任何方式。
为什么这种布局能提升效率?
> 当你的项目分布在 D:\back\end, E:\project\api, F:\temp\test 多个目录时,传统方式需要在各个文件夹里反复切换。CloudCLI 的统一入口,让你在一个界面里管理所有项目,搜索历史会话,效率提升不止一点点。
生态集成:不只是工具,是完整的编程平台
统一接入三大 CLI - Claude Code (Anthropic)、Codex (OpenAI)、Gemini (Google) —— 原生 CLI 支持,无需适配

精细化配置 - MCP (Model Context Protocol) 扩展配置,AI 能力按需扩展 - 命令权限管理,安全与灵活兼得 - API Key / Token 配置,敏感信息不落地

AI 任务管理集成 - TaskMaster 无缝对接,需求 → 任务 → 代码,流程一气呵成
插件系统
- 轻松安装扩展,按需定制你的 AI 编程环境
通知推送
- 任务完成、代码审查、异常告警 —— 实时推送,不错过任何重要节点

想得周到,是因为真正懂工程师的需求。
站在技术视角的思考
我不是在推荐一个工具,而是在讨论一种工作方式的转变。
AI 编程助手不是”取代”程序员,而是”放大”程序员的能力。工具越顺手,能力放大倍数越高。
CloudCLI 的价值,不在于它做了什么了不起的技术突破,而在于它尊重了程序员的时间和认知成本。当你不再需要为”怎么调 AI”而分心,你才能真正专注在”用 AI 做什么”上。
快速上手
# 一行命令,启动 CloudCLI
npx @cloudcli-ai/cloudcli
# 访问浏览器
http://localhost:3001
# 或使用本地配置文件启动
双击 start.bat
写在最后
技术的进步从来不是线性的。某些时刻,一个不起眼的改进,就能让整个workflow效率提升数倍。
CloudCLI 可能不是最强大的 AI 编程工具,但它在做的事很简单:让 AI 编程回归本质——你思考,AI 执行,剩下的交给我们。
如果你也在寻找一种更高效的编程方式,不妨给 CloudCLI 一个机会。
下载地址: cloudcli.zip 开源协议: AGPL-3.0