前面给大家介绍了一些在线构建聊天机器人和私有化离线部署LLM模型建立知识库的方案,如Quivr结合Supabase、PrivateGPT、ChatGLM 6B等,基本上这些解决方案的背后整体的核心都离不开一个关键技术,就是LangChain。其次这些技术或多或少需要一定的技术开发基础,对于普通大众也希望快速借助ChatGPT构建自己的APP应用,有没有比较好的解决方案呢? 答案显然是有的。
今天就给大家介绍一款无代码平台Flowise,它基于LangChain.js提供了丰富的内置组件,方便我们通过拖拉拽的方式,以非常直观可视化的方式快速构建属于我们自己的聊天机器人、智能客户、知识问答等应用。同时,也可以非常方便的集成到自己的产品中去。
Flowise 是一个开源项目,将永远免费供商业和个人使用。
Flowise 基于 ️ LangChain.js,是一个非常先进的图形用户界面,用于开发基于 LLM 的应用程序。这些应用程序也称为 Gen Apps、LLM Apps、Prompt Chaining、LLM Chains 等。
下载并安装NodeJS >= 18.15.0
1、安装 Flowise
2、启动流程
有用户名和密码(推荐)
3、打开http://localhost:3000
1、转到docker项目根目录下的文件夹
2、创建.env文件并指定PORT(参考.env.example)
3、启动容器docker-compose up -d
4、打开http://localhost:3000
5、您可以通过以下方式将容器放下docker-compose stop
1、在本地构建镜像:
2、运行镜像:
3、停止镜像:
Flowise在单一的代码仓库中有三个不同的模块。
- server: Node后端用于提供API逻辑
- ui: React前端
- components: LangChain组件
- 安装Yarn
1、克隆仓库
2、进入仓库文件夹
3、安装所有模块的依赖:
4、构建所有代码:
5、启动应用程序:
现在可以通过 http://localhost:3000 访问应用程序了。
6、若要进行开发构建:
任何代码更改都会自动重新加载应用程序,使用地址为 http://localhost:8080。
Flowise有两种授权方式:
- 应用级别
- 聊天流程级别
2、用用户名和密码启动Flowise
3、打开http://localhost:3000
1、进入docker文件夹
2、创建.env文件并指定端口,FLOWISEUSERNAME和FLOWISEPASSWORD
3、将FLOWISEUSERNAME和FLOWISEPASSWORD传递给docker-compose.yml文件:
4、docker-compose up -d
5、打开 http://localhost:3000
6、您可以通过docker-compose stop将容器关闭
要启用应用程序级身份验证,请将FLOWISEUSERNAME和FLOWISEPASSWORD添加到packages / server中的.env文件中:
现在你已经在Flowise的聊天界面上测试了你的聊天流程,你想要“导出”它以便在其他应用程序中使用。Flowise提供了两种方法来实现这一点:
- API
- Embed
索引名称,要创建的索引的名称。 (例如:elon-musk)
4、嵌入可以与类别下的任何节点连接
1、为Supabase注册一个帐户
名称,要创建的项目名称(例如Flowise)。
表名:documents
5、嵌入可以连接到嵌入类别下的任何节点
1、下载并安装Docker和Git
3、嵌入可以与“嵌入”类别下的任何节点连接。
LLM应用程序构建生态系统中出现了许多构建块,包括提示工程、代理、链式、语义搜索、聊天模型、向量存储和各种可以分配给代理以执行操作的工具。
这些新方法使得构建灵活的对话界面变得更加容易。使用基于LLM的聊天流,对话设计和构建过程不再需要过度细致,不必处理太多的例外情况、闲聊(小聊天)或修复路径等细节问题,因为这些问题可以转移到LLM的弹性上。
需要注意的是,尽管Flowise免费使用,但也需要考虑托管成本和所有第三方API调用所产生成本。这些成本可能会随着用户数量增加而迅速上升,并且取决于这些系统被利用的程度。
另一个需要考虑的因素是延迟,以及需要访问地理上分散的系统等等。
Flowise确实是一个非常直观的LLM应用程序开发框架。尽管我在使用Flowise进行原型制作的早期阶段,但我确实感受到Flowise比LangFlow更加全面完整的开发UI。