LangFlow 是 LangChain 的 UI,采用反应流设计,提供一种轻松的方式来实验和原型流。可以通过拖放组件和聊天框提供一种轻松的实验和原型流程方式。
昨天介绍了 LangFlow,今天的工具 Flowise 相比 LangFlow 更加成熟,组织方式上感觉也更适合开发者使用(个人感觉更专业)。
老规矩,先看下我运行的效果:
当然少不了暗色主题:
介绍
Flowise 是一个由 Flowise AI 公司开源的项目,将永远免费供商业和个人使用。
它基于🦜️🔗 LangChain.js,是一个非常先进的图形用户界面,用于开发基于 LLM 的应用程序。
这些应用程序也称为 Gen Apps、LLM Apps、Prompt Chaining、LLM Chains 等。
关于 LLM 应用
LLM 应用程序构建生态系统中出现了各种构建块。
这些包括提示工程(Promps)、代理(Agents)、 链接(Chains)、语义搜索(Semantic Search)、聊天模型(Chat Models)、 矢量存储(Vector Stores)和可以分配给代理以执行操作的各种工具。
基于这些模块出现了构建灵活的对话界面的新方法。
使用基于 LLM 的聊天流程,对话设计和构建过程的粒度更小, 异常处理、聊天(闲聊)、修复路径等的许多细节和细节都可以卸载到 LLM 的能力中。
尽管 Flowise 是免费使用的,但托管(如果本地开发测试则没无需考虑)时需要考虑成本。加上所有第三方 API 调用,都会产生成本。
这些成本会根据用户量和这些系统的利用程度而迅速增加。
快速开始
安装启动 Flowise 非常简单,你可以直接 npm 运行,或者下载代码从源码运行。
使用 npm 运行编译好的模块
Flowise 是一个 使用 TypeScript 编写的前端应用,你可以使用 npm 命令直接安装使用。
下载并安装NodeJS >= 18.15.0:
1. 安装 Flowise
npm install -g flowise
1. 启动 Flowise
npx flowise start
如果你想给程序加上认证,那么可以指定用户名和密码来启动程序:
npx flowise start --FLOWISE_USERNAME=user --FLOWISE_PASSWORD=1234
然后打开 http://localhost:3000,即可访问程序。
从源码运行
Flowise 在这个代码仓库中有 3 个不同的模块。
•
server: 节点后端服务 API 逻辑•
ui: 前端•
components: LangChain 的组件
首先安装 Yarn:
npm i -g yarn
克隆存储库:
git clone https://github.com/FlowiseAI/Flowise.git
进入存储库文件夹
cd Flowise
安装所有模块的所有依赖项:
yarn install
构建所有代码(当然也可以不执行):
yarn build
启动应用程序:
yarn start
您现在可以访问 http://localhost:3000 上的应用程序。
如果你不仅仅是运行项目,还想基于代码进行开发,可以运行:
yarn dev
这样,你在代码中的任何更改都会在 http://localhost:8080 上自动重新加载应用程序。
界面介绍
流程
Chatflows 列出了你构建的所有流程。
每个流程下面都列出了当前流程用到的组件:
市场
这里页面我翻译成中文了,市场上列出了所有的内置的流程模板,你可以快速体验,然后就此进行构建:
编辑界面
组件列表列出了支持的所有组件,比较贴心的就是支持搜索:
具体的组件常用的参数都直接展示出来了,不常用的参数可以点击 Additional Parameters 按钮在弹窗里面编辑。
聊天窗口可以让你快速的进行测试:
大家编辑的时候记得先保存再测试,如果填了参数没有点击保存,测试参数是不生效的。
示例
下面我展示了针对文件进行问答的流程:
我在网上找了个新闻,然后存成文件, 作为输入。
然后 使用 OpenAI 作为 Embedding 和 对话进行提问,可以看到效果还不错。
项目地址
Github 地址:
• https://github.com/FlowiseAI/Flowise
官网地址:
• https://flowiseai.com/
--- END ---

