使用Llama 私有化模型检索文档回答问题
创始人
2024-09-25 10:22:59
0

部署 Llama 模型

Llama 属于文字生成模型,可以用于聊天。使用 Ollama 部署 Llama 模型,先安装 Ollama

sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama  sudo chmod +x /usr/bin/ollama  sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

配置 Ollama 服务 /etc/systemd/system/ollama.service

[Unit] Description=Ollama Service After=network-online.target  [Service] ExecStart=/usr/bin/ollama serve User=ollama Group=ollama Restart=always RestartSec=3  [Install] WantedBy=default.target

修改 Ollama 服务监听的地址和端口号:

在[Service]部分添加一行:Environment="OLLAMA_HOST=0.0.0.0:您的端口号"。注意替换“您的端口号”为实际的端口号,默认端口号是 11434

启动 Olama 服务

sudo systemctl daemon-reload sudo systemctl enable ollama

使用 Ollama 拉取 Llama 模型

ollama run llama3.1

这样 Llama 模型成功启动,可以在终端和 Llama 语言模型对话了

部署 nomic-embed-text 文本嵌入模型

nomic-embed-text 模型可以将文字转为数字,含义相似词汇分值也接近。可以将他们存入向量数据库,根据相似度检索拿出相关文档。

有了 Ollama 模型,部署 文本嵌入模型就一条命令

ollama pull nomic-embed-text

测试 Llama 模型

先将我们上个文章 使用 openai 和 langchain 调用自定义工具完成提问需求 里的那个使用 langchain 框架,openai 作为模型,写得 由大模型决定调用的工具(计算器),拿到工具处理结果,回答用户提问的 程序,我们将它的模型从 openai 改成 我们刚刚私有化部署的 Llama 模型。

改动地方不多,将 

chat_model = ChatOpenAI()
改成
from langchain_community.llms import Ollama  chat_model = Ollama(base_url='http://localhost:11434', model="llama3.1")

这样 使用 openai 和 langchain 调用自定义工具完成提问需求 完整代码的 Llama实现如下:

from langchain_community.llms import Ollama  from langchain.agents import AgentType, initialize_agent from langchain.tools.base import BaseTool  # 定义一个自定义工具类 class Calculator(BaseTool):     name = "Calculator"     description = "运行加减乘除运算的表达式"      def _run(self, query: str):         """Use the tool."""         # 在这里实现您的自定义函数逻辑         result = self.custom_function(query)         return result      async def _arun(self, query: str):         """Use the tool asynchronously."""         raise NotImplementedError("This tool does not support async")      def custom_function(self, expression: str):         """Your custom function logic goes here."""         # 示例:将输入文本转换为大写         return eval(expression)  # 创建工具实例 calculator = Calculator()  tools = [calculator]  chat_model = Ollama(base_url='http://localhost:11434', model="llama3.1")  # 初始化代理 agent = initialize_agent(tools, chat_model, agent=AgentType.ZERO_SHOT_REACT_DESCRIPTION, verbose=True) response = agent.run("计算 10*10/2")  print(response)

 看不懂可参考我的上一篇文章 使用 openai 和 langchain 调用自定义工具完成提问需求

llama3.1 模型的运行结果如下:

使用向量数据库存储私有知识库 

在这个示例中,假设我们企业的私有知识存储在 https://developers.mini1.cn/wiki/luawh.html 这个链接对应的文档中,我们希望大模型能根据这个文档的内容,回答 “LUA 的宿主语言是什么?” 这个问题。事实上,我们企业的私有知识库非常庞大,将他们全部传入大模型,让他根据这些内容回答你的问题不太现实,于是需要一个向量数据库,企业的私有知识库存在向量数据库中,当需要回答问题时,先从私有知识库中,根据提问的关键词,找到分值最接近的相关文档,将这些相关文档传入大模型,让大模型基于这些回答你的问题。

也就是说,使用向量数据库是为了减少大模型阅读不必要的文字。在这里,使用上面私有化部署的 nomic-embed-text 这个模型完成文字到向量的转换,向量数据库使用 faiss,需要首先安装依赖包

pip install faiss-cpu

从网页加载文档

from langchain_community.document_loaders import WebBaseLoader loader = WebBaseLoader("https://developers.mini1.cn/wiki/luawh.html") data = loader.load()

对文档切割成块

from langchain.text_splitter import RecursiveCharacterTextSplitter text_splitter = RecursiveCharacterTextSplitter(chunk_size=500, chunk_overlap=0) splits = text_splitter.split_documents(data)

把切成块的文档,调用文本嵌入模型,拿到他的分值(向量),存入 fsiss 向量数据库中。

from langchain.embeddings.ollama import OllamaEmbeddings embedding = OllamaEmbeddings(base_url='http://' + host + ':11434', model="nomic-embed-text")  from langchain_community.vectorstores import FAISS vectordb = FAISS.from_documents(documents=splits, embedding=embedding)

构造 RetrievalQA 链

from langchain_community.chat_models import ChatOllama from langchain.retrievers.multi_query import MultiQueryRetriever from langchain.chains import RetrievalQA # RetrievalQA链  llm = ChatOllama(base_url='http://' + host + ':11434', model="llama3.1")  retriever_from_llm = MultiQueryRetriever.from_llm(retriever=vectordb.as_retriever(), llm=llm)  # 实例化一个RetrievalQA链 qa_chain = RetrievalQA.from_chain_type(llm,retriever=retriever_from_llm)

使用这个 QA 链回答问题

question = "LUA 的宿主语言是什么?" result = qa_chain({"query": question})  print(result)

到此结束,运行结果如下:



总结:今天很开心,将大模型 Llama 和 nomic-embed-text 私有化部署,在纯内网的环境中实现了 RGA 流程,而不是浪费钱的去访问外网,关键是,体验效果还不错,机器配置要求也不是很高,gpu 一般就行。



MyPostMan: MyPostMan 是一款类似 PostMan 的接口请求软件,按照 项目(微服务)、目录来管理我们的接口,基于迭代来管理我们的接口文档,文档可以导出和通过 url 实时分享,按照迭代编写自动化测试用例,在不同环境中均可运行这些用例。 

相关内容

热门资讯

安卓刷win系统体验,刷机攻略... 哇塞,你有没有想过,你的安卓手机也能变身成Windows系统的超级英雄?没错,就是那个我们熟悉的Wi...
安卓设备的系统刷写,操作步骤、... 你有没有想过,你的安卓手机其实就像一个等待你发挥创意的画布呢?没错,就是那个你每天捧在手心里的宝贝—...
安卓系统双开的软件,实现多账号... 你有没有想过,在手机上同时运行两个相同的APP,是不是就像拥有两个超级英雄一样酷炫呢?没错,这就是安...
安卓系统绘画app推荐,全方位... 你有没有想过,在手机上也能画出美轮美奂的作品呢?没错,现在科技这么发达,安卓系统上的绘画app可是五...
安卓系统看广告视频,智能播放与... 你有没有发现,现在手机上那些安卓系统的应用,动不动就弹出来广告视频?真是让人又爱又恨啊!今天,就让我...
安卓系统安装歌曲软件,热门歌曲... 你有没有想过,手机里没有喜欢的歌曲,那感觉就像是没有了灵魂?别急,今天就来给你支个招,教你在安卓系统...
如何退出安卓升级系统,实用技巧... 手机突然弹出一个升级提示,你心里是不是有点小紧张呢?别担心,今天就来手把手教你如何退出安卓升级系统,...
安卓平板系统克隆软件,轻松实现... 你有没有想过,把你的安卓平板上的系统,像变魔术一样克隆到另一台平板上?听起来是不是很神奇?别急,今天...
小米8 是安卓系统,安卓系统下... 你有没有想过,手机的世界里,安卓系统就像是个万能的魔法师,而小米8就是那个挥舞魔杖的勇敢少年!今天,...
安卓系统的职业选手,职业选手的... 职场高手,安卓战场上的风云人物 ?亲爱的游戏迷们,你是否曾在王者荣耀的战场上,目睹过那些如风似电的操...
安卓系统后台耗电高,高效管理策... 亲爱的手机控们,你们是不是也和我一样,每天对着手机,却总是担心电量不够用呢?尤其是安卓系统的小伙伴们...
小米3安装安卓系统,操作指南与... 亲爱的手机控们,你是否曾对自家的小米3手机心生厌倦,渴望给它换一副新颜?别急,今天就来手把手教你如何...
警察恢复安卓手机系统,警察如何... 手机突然卡成“龟速”,应用动不动就闪退,是不是感觉自己的安卓手机被“诅咒”了?别急,警察叔叔来帮你恢...
安卓手机有双系统,安装、设置与... 你有没有想过,你的安卓手机其实是个“变形金刚”,可以瞬间变身成两个不同的世界?没错,就是安卓手机有双...
安卓系统包含哪些语言,安卓系统... 你有没有想过,你的手机里那些五花八门的应用程序,它们是怎么诞生的呢?其实,这一切都离不开安卓系统,而...
优化安卓系统如何设置,提升性能... 亲爱的手机控们,是不是觉得你的安卓手机最近有点儿“懒洋洋”的,反应慢吞吞的?别急,今天就来给你支几招...
安卓系统缩写是什么,从缩写到系... 亲爱的读者们,你是否曾在手机上看到过那些神秘的文件,它们以“APK”结尾,让你不禁好奇:这究竟是什么...
安卓哪个系统比较快,探索最快生... 你有没有发现,手机用久了,有时候就像老牛拉车一样慢吞吞的?别急,今天就来给你揭秘安卓系统中哪个版本跑...
安卓6.01系统省电吗,省电功... 手机电量告急?别慌,我来告诉你安卓6.01系统省电的小秘密! 电量守护神:安卓6.01系统省电大揭秘...
日本安卓系统怎么使用,功能解析... 日本安卓系统:你的专属指南亲爱的读者们,你是否曾对日本独特的安卓系统感到好奇?想知道如何在日本这片土...