
Clawdbot(现名为 OpenClaw),现在火到什么程度呢?
不到一周,GitHub 直冲12 万Star,"配件" Mac mini 卖断货,阿里、腾讯火速接入,链接飞书的教程,满天飞。

就连 Anthropic 都急得让它改名,两次。
之所以这么火,不为别的。
就因为 Clawdbot 让 AI 不再是一个普通的 chatbot,而是一个7 × 24 小时不摸鱼的 AI 员工——
你睡觉,它分析;你开会,它盯盘;你忙其它,它继续干活。
而且只要手机上一条消息,它就能随时响应,干好了还会主动 call 你。
当然了,Clawdbot 也并非完美。
不少网友发现,一到真用起来的时候,钱包立马遭不住了。

图源:YouTube 博主 Bijan Bowen
毕竟,它可能吭哧吭哧地转了一整天,只解决了一个小问题,就已经悄悄卷走你几百美金的 Token 费,主打一个不白干。

好在,这事儿也不是没有办法。
最近,GitHub 上新开源了一个国产框架,叫玄武 CLI。
它可以让你不用买 Mac mini,也不用再为 API 花钱,直接在本地跑 Clawdbot,而且还原生适配了价格更实惠的国产芯片。
(下为 Clawdbot 应用视频,视频均经 2 倍加速)
这下,龙虾(Clawdbot)是真的"香"了。
玄武 CLI:国产开源版 Ollama
简单来说,咱可以把玄武 CLI 理解成一个国产开源版的 Ollama。
一方面,它把本地部署模型这件事,做成了"应用商店式"的体验:
选模型、拉下来、直接用,不用纠结格式、路径和一堆零碎配置。
另一方面,它把那些原本最容易劝退新手的活儿:
配环境、装驱动、对架构、调参数、盯显存、查文档、写服务接口,也都提前兜住了。
在使用上,玄武 CLI 的命令体系与 Ollama 高度一致:xw pull / run / list / stop,会用 Ollama 的基本就能无缝上手。
比如,只需要一行拉取(pull)命令:
xw pull qwen3-32b
玄武会自动完成模型下载、切分和加载。首次启动后,模型即可快速响应,32B 及以内模型基本都能在 30 秒内完成启动。
接着再输入:
xw run qwen3-32b
就可以直接和模型对话了,不需要额外搭 WebUI,也不用自己写服务。
除此之外,像 xw list / ps 这些命令,也把本地模型管理顺手解决了:装了什么、跑着什么一眼就能看清,调试和运维都很省心。

有了这些,模型就不仅仅能在本地跑起来,还可以:
直接作为本地 AI 引擎,接入 Clawdbot 变成 7 × 24 小时在线执行器;
连到工作流(如 Dify)、自动化脚本或内部系统,替代云端 API 做代码、分析、批处理。

模型、算力和数据都在本地,不仅节省成本,也避免了 Agent 权限可能带来的信息泄露风险,直接爽玩 Clawdbot。
开源易上手,无缝兼容各类框架
玄武 CLI 自身的安装和部署也非常简单,并且完全开源。
GitHub/GitCode 一键安装,解压即用,支持 Docker 容器化部署,真正做到0 成本入门。

GitHub:https://github.com/TsingmaoAI/xw-cli
GitCode:https://gitcode.com/tsingmao/xw-cli
在安装层面,玄武 CLI 不用配复杂环境:无需手动处理依赖,下载解压就能运行。
玄武 CLI 仅依赖基础驱动即可实现硬件的识别与探测,通过预编译推理引擎极简启动,最快 1 分钟就能启动服务。
同时,玄武 CLI 原生支持多卡、多实例并行,每个模型实例互相隔离,即便某个实例出问题,也不会拖垮其他服务。这让它具有更好的稳定性和可扩展性。
在应用接入层,玄武进一步把"替换成本"降到最低。
它原生兼容 OpenAI API 规范,像 LangChain、LlamaIndex 这类常见框架,甚至 IDE 插件场景,通常只需要改一行 API 地址,米兰就能把原本的云端调用,切换成本地模型。
此外,在启动和运行时,玄武会按需加载模型,并结合量化精度动态分配显存和显卡资源,避免长时间等待,同时充分利用本地硬件。
正因为这些特性,玄武 CLI 特别适合作为 Clawdbot 这类 Agent 的"本地发动机",而且不仅限于 Agent,各类开源大模型也都可以一行命令接入。
国产芯片原生适配
如果说前面讲的,是让本地跑模型简单易上手,那真正让玄武拉开差距的,是它对国产芯片的原生适配。
像 Ollama 这种本地模型方案,体验成熟,但底层基本还是围着英伟达那套体系走,硬件成本自然高。
而玄武 CLI 则选择了更亲和、性价比更高的国产算力,让本地跑模型变得可行且经济。
过去国产芯片跑模型,常遇到配置复杂、性能波动、生态碎片化的问题,能跑但没人敢用。
不同厂商使用不同驱动、算力接口和通信库,文档不完整、问题难复现,一旦遇到 bug,很难通过搜索或社区快速解决。
与此同时,不同的应用也面临异构芯片适配难题:即便模型能跑,不同项目、不同框架在不同芯片上部署,也可能完全不同,增加了开发成本和不确定性。
面对这一困局,玄武 CLI 并没有选择"写一套更详细的教程",而是直接在框架层"吞掉"了复杂度。
它将所有硬件差异封装在最底层,向上构建了一个统一的算力资源池。
无论底下插的是什么卡,玄武都能自动识别芯片类型,结合模型规模与显存状况,自动匹配最合适的推理引擎,并在多卡、多实例场景下实现智能调度。
这种"黑盒化"处理,彻底解决了模型启动卡死、服务不稳定的问题。
而支撑这一能力的底座,正是玄武 CLI 分层设计的系统架构:

最上层,是开发者熟悉的命令行和标准 API,中间层负责模型调度、资源管理和生命周期控制。
而关键能力集中在推理引擎这一层。
在这一层,玄武采用的是多引擎并行架构:既有侧重深度优化的自研引擎MLGuider,也支持华为原生的MindIE,同时兼容遵循社区标准的vLLM,并配套了进程隔离(IPC)和自动路由策略。
这种多引擎并行架构,保证了无论用什么卡、跑什么模型,都能找到最优解。
彻底抹平了不同国产芯片之间的底层技术差异,让开发者无需关注硬件细节,就能实现跨芯片的模型部署。
再结合离线可用、不依赖云端的特性,玄武 CLI 实际上是在国产算力环境中,补齐了一块长期缺失的基础设施,让模型部署变得轻松可控。
清昴智能是谁?
最后,让我们介绍一下玄武 CLI 背后的清昴智能。
清昴智能成立于 2022 年,核心聚焦芯片适配,以及模型—框架—算子的联合优化。
创始人兼 CEO关超宇是清华特奖最年轻的获得者。
成立三年以来,清昴智能已获得华为哈勃战略投资及多家国内一线基金的亿元级支持。
在技术上,清昴走的是端到端的系统级优化路线:以自研异构推理引擎 MLGuider 为起点,向下协同硬件设计,向上支撑玄武智算平台与 Agentic AI 平台,实现从硬件协同到算子、框架、模型再到智能体的全栈优化。
在落地上,清昴曾推出多种国产一体机方案,达成稳定 16+TPS 的高性能吞吐表现。
目前 MLGuider 已完成 15+ 主流芯片适配,在满足预期推理效果下,可有多种国产方案进行最优选择。
比如支持 Qwen 80B 方案,通过玄武 CLI 可支持华为华为 300I Duo,300I A2 等多种性价比方案。

这次新开源的玄武 CLI,也延续了清昴对开源共建的长期判断:让开发者和企业不用花大价钱,也能真正用上国产算力和好用的本地 AI 工具。
面向未来多智能体、多模态协作的趋势,清昴提前布局 Agentic AI 平台,为"每个公司拥有 N 个数字员工"的时代,打好最底层、也最关键的地基。
而 Clawdbot,只是其中一个轻量级尝试——
你今天就能把它拉起来,让自己的电脑变成一个"数字员工",提前感受未来智能体时代的雏形。
体验链接:
GitHub:https://github.com/TsingmaoAI/xw-cli
GitCode:https://gitcode.com/tsingmao/xw-cli
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!
— 完 —
� � 点亮星标 � �
科技前沿进展每日见

备案号: