ChatGLM3+m3e+fastGPT Centos超详细本地化部署(四)(fastGPT部署)

   日期:2024-12-26    作者:vip888123 移动:http://ljhr2012.riyuangf.com/mobile/quote/35921.html

FastGPT 是一个基于 LLM 大语言模型的知识库问答系统,提供开箱即用的数据处理、模型调用等能力。同时可以通过 Flow 可视化进行工作流编排,从而实现复杂的问答场景!

ChatGLM3+m3e+fastGPT Centos超详细本地化部署(四)(fastGPT部署)

因为one-api占用了本机的3000端口,所有修改映射到本地的端口为3020,默认映射端口为3000

对应上篇文章的操作保存的令牌,修改docker-compose.yml中的DEFAULT_ROOT_PSW(fastGPT默认密码)、OPENAI_BASE_URL(API 接口的地址,需要加/v1)和CHAT_API_KEY(API 接口的凭证)参数。localhost换成ipv4地址,key换成生成的令牌

在chatModels、qaModels、cqModels、extractModels模块中添加chatglm-6b-gpu模型配置(模型名称是在one-api中创建的

在qaModels、cqModels、vectorModels模块中添加m3e模型配置

启动FastGPT

启动之后访问ip:3020登录,账号密码为root和在配置文件中密码登录。

按照以下步骤创建知识库,只有在config.json中配置了m3e模型才可以选择

配置完成后如下图

随便导入一个文件,点击下一步

点击下一步

等待所有索引创建完成

新建应用,创建完成后点击进入应用

应用配置中修改AI模型和关联知识库,点击保存并预览

这样就可以提问了,测试一下

这样就拥有了一个属于自己的AI,还有很多功能,可以自行探索。


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号