LangChain-Chatchat默认使用的LLM模型为THUDM/chatglm2-6b,默认使用的Embedding模型为moka-ai/m3e-base为例。
目前最新的版本中基于FastChat进行本地LLM模型接入,目前已经正式接入支持的模型达30+,具体清单如下:
对于构建文本向量的模型,目前支持调用HuggingFace中的Embedding模型,目前已支持的Embedding模型达15+,具体支持清单如下:
这里就用阿里云的海外GPU服务器来演示如何部署基于ChatGLM2-6B本地知识库,服务器基本配置信息如下:
bashMiniconda3-latest-Linux-x86_64.shsource~/.bashrc使用以下命令检查conda是否成功安装:
conda--version如果conda成功安装,您将看到conda的版本号,我这里安装的是conda23.5.2。
python--versionPython3.8.17如果没有安装或者低于这个版本,可使用conda安装环境
condacreate-p/opt/langchain-chatchat/pyenvpython=3.8激活Python虚拟环境condaactivate/opt/langchain-chatchat/pyenv关闭环境condadeactivate/opt/langchain-chatchat/pyenv#删除环境condaenvremove-p/opt/langchain-chatchat/pyenv这里的路径可根据大家的实际情况来调整即可
root@iZ6w:/opt/langchain-chatchat#condaactivate/opt/langchain-chatchat/pyenv(/opt/langchain-chatchat/pyenv)root@iZ6w:/opt/langchain-chatchat#python--versionPython3.8.17(/opt/langchain-chatchat/pyenv)root@iZ6w:/opt/langchain-chatchat#更新py库
这个错误通常在安装或配置setuptools_scm包时遇到问题时出现。只需要重新安装setuptools_scm。
当前项目的知识库信息存储在数据库中,在正式运行项目之前请先初始化数据库(我们强烈建议您在执行操作前备份您的知识文件)。
$pythoninit_database.py如果您是第一次运行本项目,知识库尚未建立,或者配置文件中的知识库类型、嵌入模型发生变化,或者之前的向量库没有开启normalize_L2,需要以下命令初始化或重建知识库:
这里选择基于多进程脚本llm_api.py启动LLM服务的方式,在项目根目录下,执行server/llm_api.py脚本启动LLM模型服务:
$pythonserver/llm_api.py如果部署服务器具备单张或者多张GPU显卡,只需在llm_api.py中修改create_model_worker_app函数中,修改如下三个参数:
上一篇:
下一篇:
14个文本转图像AIAPI
什么是API定义?
前端需要的免费在线API接口
API对现代网上银行至关重要的10个理由
10个搜索引擎结果页面(SERP)API
API网关如何发展:更轻、更智能、云原生
开发人员必须尝试的7大AIAPI工具
理解每种API类型的基本指南
5个优秀API错误消息的真实示例
幂简集成是创新的API接口平台,一站搜索、试用、集成国内外API接口。