Thunderbolt 是一款真正把AI控制权交还给用户的开源智能助手客户端,它不依赖云端大模型API、不上传你的对话数据、也不强制绑定某家厂商服务。你既可以连接本地运行的模型(如Ollama或llama.cpp),也能自由接入任意兼容OpenAI协议的私有或商业模型服务。它解决的核心问题是:当AI无处不在时,普通用户和企业如何避免被“智能云”绑架,实现数据主权、模型选择权与部署自主权的三重回归。
核心功能
- 全平台原生支持:一套代码覆盖Web、Windows/macOS/Linux桌面端、iOS与Android移动设备,界面一致、体验统一
- 模型完全自选:无需注册特定服务商账号,轻松配置本地Ollama模型、llama.cpp量化模型,或填入自建vLLM/Text Generation WebUI等OpenAI兼容接口
- 数据全程离线可控:默认不上传任何聊天记录、文件内容或上下文;敏感信息仅驻留于你指定的设备或私有服务器中
- 企业级私有部署能力:提供Docker一键部署后端方案,支持LDAP/OAuth2集成、细粒度权限管理与审计日志,满足金融、政务、医疗等合规场景需求
- 模块化AI Agent工作流:通过可视化编排连接文档解析、代码执行、网络检索(可选关闭)、多模型协同等组件,打造专属自动化智能体
- 零供应商锁定设计:所有模型调用、身份认证、搜索索引等核心模块均采用插件化架构,替换不依赖任何闭源SDK或专有协议
适合哪些人用
如果你是以下角色之一,Thunderbolt 值得你重点关注:
• 注重隐私的技术用户:反感ChatGPT类产品默认上传对话、拒绝“免费即付费”的数据交换模式;
• 中小企业IT负责人:需要为销售、客服、研发团队快速落地AI工具,但又无力承担SaaS订阅成本与数据出境风险;
• 开发者与AI工程师:希望在真实业务场景中验证本地模型效果,或基于Thunderbolt二次开发垂直领域AI助手;
• 教育机构与科研团队:需构建教学演示环境、学生实验平台或论文复现实验沙箱,要求环境纯净、可审计、可复现。
快速上手
新手推荐从「本地轻量体验」开始:
1️⃣ 安装Ollama(ollama.com),运行 ollama run llama3:8b 启动基础模型;
2️⃣ 下载Thunderbolt最新桌面版(macOS/Windows/Linux)或访问Web版(app.thunderbolt.ai);
3️⃣ 进入「设置 → 模型提供商」,选择「Ollama」并确认地址为 http://localhost:11434;
4️⃣ 关闭「全局搜索」(设置中可选)即可实现100%离线运行;
进阶用户可参考项目 deploy/README.md 使用Docker部署完整后端,启用单点登录与团队协作功能。
项目信息
AI You Control: Choose your models. Own your data. Eliminate vendor lock-in.
编程语言:TypeScript|GitHub Star 数:2226|开源协议:MPL-2.0|GitHub 项目地址
这不是又一个“AI包装壳”,而是一套真正把选择权、控制权和所有权交还给用户的智能基础设施——当你厌倦了在各家大模型间反复切换账号、担心提示词被训练、顾虑合同条款里的数据授权陷阱时,Thunderbolt 正是你等待已久的开源答案。



