
你不用问它,它自己知道你要干嘛
传统 AI 等你描述问题,AxonCog 看着你的屏幕就知道
为什么选 AxonCog?
国产原创,不是跟风产品
2025.8 立项
先行者不是跟风,是先行者。经过7个月打磨才发布
0 安全漏洞
安全优先从第一天就设计安全机制,不是出事再打补丁
29+ 模型支持
模型丰富OpenAI、Claude、DeepSeek、Kimi、通义等,国产模型深度适配
全平台支持
跨平台Windows、Linux、macOS,你用什么我们就支持什么
AGI 探索方向
技术前沿不是传统 Agent,是往通用智能方向的探索
MIT 完全开源
开源免费想用就用,想改就改,商用也没问题
往 AGI 方向走
传统 Agent 等命令,我们让它理解你、学习你
举几个例子
具体功能
上下文引擎
知道你现在在干嘛
看你的窗口、看你的操作,识别出你在写代码还是在回邮件,然后切换到对应的帮忙模式
工作流学习
记住你的习惯
每天早上你都会打开终端、IDE、浏览器?它记住了,下次自动帮你准备好
痛点检测
发现你效率低的地方
频繁切换窗口?重复复制粘贴?它会告诉你哪里可以更高效
专注助手
帮你进入心流状态
番茄钟、屏蔽干扰、提醒休息,让你专注工作而不是被消息打断
智能集群
算力不够加机器
多节点部署,任务自动分发,算力不够就加机器
模型智能集群
多 Agent 协同工作
开发Agent、测试Agent、前端Agent、后端Agent各司其职,自动协作
谁在用 AxonCog?
不同角色,同样的提升
安全是底线,不是加分项
从第一行代码就考虑安全,不是出事再打补丁
沙箱隔离
危险操作关在笼子里跑
执行命令、跑脚本,都在沙箱里隔离执行。就算出事也不会影响你的主系统。支持 5 种沙箱后端。
默认本地绑定
不会莫名其妙暴露到公网
默认只监听 127.0.0.1,不会绑定 0.0.0.0。想暴露到公网必须手动配置。
操作审计
每一步都有记录
AI 做了什么操作,全部记下来。HMAC-SHA256 签名验证,出问题能追责。
确认机制
高风险操作必须你点头
删文件、执行命令这些危险操作,必须你确认才会执行。
白名单控制
命令、路径都要在白名单里
只能执行白名单里的命令,只能访问白名单里的路径。危险命令直接拦截。
加密存储
敏感数据加密保存
API 密钥、凭证这些敏感数据,用 AES-256-GCM 加密存储。密钥本地管理。
我们的安全理念
- 1.默认拒绝,显式允许
- 2.最小权限原则
- 3.所有操作可追溯
- 4.敏感数据本地存储
跨时代创新
这些能力,同类产品都没有
上下文感知引擎
它知道你在干什么
你问它才答,不知道你在做什么
看着你的屏幕,识别你在写代码、回邮件、看文档,自动切换帮忙模式
工作流学习
它记住你的习惯
每次都要重新描述,完全不记得你昨天干了什么
学习你的操作模式,第三天就知道你早上的 routine
痛点自动检测
它发现你的效率问题
你不说它就不知道你效率低
发现你频繁切窗口、重复复制粘贴,提示你优化
模型智能集群
多个 Agent 协同工作
一个 AI 干所有事,又要写代码又要测试又要改
开发Agent写代码,测试Agent写测试,前端Agent写界面,各司其职
与同类产品对比
| 能力 | 同类产品 | AxonCog |
|---|---|---|
| 上下文感知 | 无 | 12种活动识别 |
| 工作流学习 | 无 | 自动学习习惯 |
| 痛点检测 | 无 | 9种效率问题 |
| 专注助手 | 无 | 番茄钟+防干扰 |
| 智能集群 | 无 | 多节点协同 |
| 模型智能集群 | 无 | 多Agent协作 |
| 安全设计 | 事后打补丁 | 从始安全 |
| 沙箱隔离 | 部分支持 | 5种后端 |
| 操作审计 | 无/简单日志 | 签名溯源 |
| 平台支持 | 单平台 | Win/Linux/Mac |
| 国产模型 | 一般支持 | 深度适配 |
| 开源协议 | MIT/Apache | MIT |
常见问题
你想知道的都在这里
AxonCog 和 OpenClaw 有什么区别?
我们立项更早(2025.8 vs 2025.11),支持更多平台,更安全(0漏洞 vs 5个CVE),功能更丰富(上下文感知、工作流学习、痛点检测等)。OpenClaw 作者已加入 OpenAI,更新减速,AxonCog 是更好的替代选择。
真的完全开源吗?
MIT 协议,完全开源。想用就用,想改就改,商用也没问题。代码在 GitHub 上,欢迎 Star 和贡献。
支持哪些模型?
支持 29+ 模型:OpenAI、Claude、Gemini、DeepSeek、Kimi、通义、智谱、文心、豆包、Groq、Mistral、Ollama 等。国产模型深度适配。
数据安全吗?
数据默认本地存储,不上传云端。OCR、语音识别、向量搜索全部本地处理。API 调用只发送必要内容给模型服务商。
支持哪些操作系统?
Windows 10/11、Linux(Ubuntu 20.04+ 等)、macOS(Intel 和 Apple Silicon 都支持)。
需要什么配置?
4GB+ 内存,不需要 GPU。想用本地模型的话,推荐 8GB+ 内存。
怎么安装?
cargo install axoncog(需要 Rust),或者从 GitHub Releases 下载预编译版本。解压就能用。
为什么说在探索 AGI?
传统 Agent 是被动执行命令的工具。我们在探索让 AI 理解用户、学习用户、主动帮助用户——这是往通用智能方向走的尝试。
还有其他问题?
3分钟上手
不用复杂配置,装上就能用。如果你想,它甚至可以自己跑在后台
下载安装
1分钟cargo install axoncog 或者下载预编译版本
运行配置向导
1分钟选你的 Provider,填 API Key,安全策略按需配置
开始用
立刻axoncog chat 开始对话,或者让它自己在后台跑
没有复杂配置,没有必须填的选项。你想用哪个模型就用哪个,想本地跑就本地跑。