LLM Deploy
langgenius/dify
langgenius/dify· TypeScript
可自部署的低代码 LLM 应用平台,可视化编排 RAG 与 Agent
GitHub 数据
- Stars
- 139,637
- Forks
- 21,900
- Watchers
- 788
- Open issues
- 820
meta
- License
- NOASSERTION
- 主要语言
- TypeScript
- 最后 commit
- 2026-04-29
- 数据抓取时间
- 2026-04-29
Dify 是一个全栈 LLM 应用平台,把可视化工作流编辑器、Prompt IDE、RAG 流程、Agent 框架、数据集管理与监控整合在一起,并提供 OpenAI 兼容 API。典型用法:docker-compose 起服务,接入模型供应商(OpenAI / Claude / Gemini / 本地 Ollama 或 vLLM),上传知识库、拖拽节点搭工作流,再以 API 或嵌入式 Chatbot 对外暴露。支持 MCP 工具和多租户部署。
编辑试用心得
想快速交付内部 RAG 机器人或工作流工具,并希望非工程师也能在 UI 上迭代 Prompt 和知识库时,Dify 是这个赛道最「开箱即用」的选择——它更像产品而非 SDK,这点跟 LangGraph、LlamaIndex 不同。代价是要接受它的数据模型和节点抽象,深度定制的 Agent 逻辑最后往往落在「Code 节点」里;自部署整套栈(API、worker、向量库、sandbox)也比跑个 Python 脚本重得多。只想要 SDK 或团队本就纯代码开发的话,不必选它。