基于本地知识的 pcl_pangu langchain 应用实现
介绍
一种利用 pcl_pangu + langchain 实现的基于本地知识的应用。
建立了全部基于开源模型实现的本地知识问答应用。
使用
0. 环境准备
安装依赖包,可参考requirements.txt和[pcl_pang环境]。
1. 通过pcl_pangu 本地模型接入
step 1: 下载鹏程.模型系列模型
确定要使用的模型类型(model_type)、模型名(model_name)和推理后端(backend),下载相应的模型。
更具体的说明,请参见[鹏程.盘古系列大模型Saas化]。
step 2: 调用函数:knowledge_based_qa_local [knowledge_based_qa.py]
# model_type: 模型类型, model_name: 模型名, model_path: 模型文件路径, backend, filepath: 知识文件路径, query: 问题
knowledge_based_qa_local(model_type, model_name, model_path, backend, filepath, query)
2. 通过pcl_pangu 模型maas服务接入
step 1: 申请api_key
获取方法参见[api_key获取指南]。目前api_key暂定为免费申请(开发中的模型暂不支持),后续可能会调整。
更具体的说明,包括可用的模型等,请参见[鹏程.盘古系列大模型Saas化]。
step 2: 调用函数:knowledge_based_qa_mass [knowledge_based_qa.py]
# api_key, model: 使用的模型, filepath: 知识文件路径, query: 问题
knowledge_based_qa(api_key, model, filepath, query)
示例
以问题请问pcl_pangu项目的目标是什么?
为例
未使用 langchain 接入本地文档时 pcl_pangu 的 pangu-alpha-13B 模型回答:
有哪位能说下吗?
pcl_pangu是如今业界最大的RPCs引擎,采用了开放式开发模式,可自由支配开发资源。
未使用 langchain 接入本地文档时 pcl_pangu 的 pangu-alpha-evolution-2B6 模型回答:
添加一个apache-cli-pcl_pangu.jar文件
未使用 langchain 接入本地文档时 pcl_pangu 的 chat-pangu 模型(开发中的模型)回答:
PCl_pangu项目的目标是为企业提供全面的云计算解决方案,以应对日益增长的数据和云计算需求。该项目旨在提供最优质的云计算服务,同时实现数据中心的可持续性、安全性和可扩展性,从而更好地满足企业的需求和业务需求。
使用 langchain 接入pcl_pangu 项目的 README.md 文件 pcl_pangu 的 pangu-alpha-13B 模型回答:
构建一个在线的 platform ,通过文档资料模型测试,以及作为 UID 进行开发与部署。
使用 langchain 接入pcl_pangu 项目的 README.md 文件 pcl_pangu 的 pangu-alpha-evolution-2B6 模型回答:
将 鹏程·盘古
[项目主页](https://openi.pcl.ac.cn/PCL-Platform.Intelligence/PanGu-Alpha
使用 langchain 接入pcl_pangu 项目的 README.md 文件 pcl_pangu 的 chat-pangu 模型(开发中的模型)回答:
PCl_pangu项目的目标是将 鹏程·盘古
[项目主页] 开源模型、以及基于该模型的一系列任务拓展与持续学习得到的模型从语料数据预处理到模型训练推理部署整个流水线封装成开发工具包SDK。
进展