谷歌Gemini API 应用(二):LangChain 加持

昨天我完成了谷歌Gemini API 应用(一):基础应用这篇博客,今天我们要在此基础上实现Gemini模型的Langchian加持,因为Gemini API刚发布没几天,所以langchian还没有来得及将其整合到现有的langchain包的架构内,langchain公司目前发布了需要独立安装的支持Gemini API的langchain包:“langchain-google-genai”, 相信过不了多久它就会被整合到现有的langchain包的架构内。

一,配置环境

我们需要安装以下python包:

pip -q install google-generativeai==0.3.1
pip -q install langchain-google-genai
pip -q install langchain_experimental langchain_core
pip -q install "langchain[docarray]"

二、配置API_KEY

当我们在Google AI Studio页面上创建了api key以后,我们就可以在本地通过该api_key来访问谷歌的Gemini Pro等模型,下面我们来导入本次实验需要使用的python包,并配置谷歌的api_key:

import google.generativeai as genai
from IPython.display import display
from IPython.display import Markdown
import os

os.environ["GOOGLE_API_KEY"] = 'your_google_api_key'#填入自己的api_key

三、模型查看

下面我们查看一下本次实验需要使用的三个谷歌Gemini模型的具体信息:

genai.configure(api_key=os.environ["GOOGLE_API_KEY"])

models = [m for m in genai.list_models() 
          if m.name in (['models/gemini-pro',
                         'models/gemini-pro-vision',
                        'models/embedding-001'])]
models

在本次实验中我们会用到谷歌的三个模型分别是 语言模型gemini-pro,多模态模型gemini-pro-vision,嵌入模型embedding-001,上面我们列出来了这3个模型的具体信息包括具体的参数如输入,输出的token大小的限制等。下面我们先原生的Gemini的api来实现最基本的内容生成功能:

prompt = '你是谁,你能做什么?'

model = genai.GenerativeModel('gemini-pro')

response = model.generate_content(prompt)

Markdown(response.text)

四、Gemini with LangChain

接下来我们通过LangChain来实现上述的内容生成功能:

from langchain_google_genai import ChatGoogleGenerativeAI,GoogleGenerativeAIEmbeddings
from langchain.vectorstores import DocArrayInMemorySearch
from langchain.prompts import ChatPromptTemplate
from langchain.schema.output_parser import StrOutputParser

llm = ChatGoogleGenerativeAI(model="gemini-pro")
result = llm.invoke("LLM 是什么?")
Markdown(result.content)

这里我们看到通过langchian也很轻松的实现了gemini的内容生成的功能,不过这里需要说明的是我们在创建langchain的llm的时候我们并没有填写apk_key, 这是因为这里的gemini的llm它默认会去读取os的api_key的环境变量,因为在前面的代码中我们已经配置好了os的api_key,所以这里在创建llm时就无需填写api_key的参数了。

五、langchain的stream和batch

流式(stream)输出和批处理(batch)是langchain的两大优秀功能,流式输出可以给用户带来更好的用户体验,而批处理则可以提高用户的工作效率,因为它可以让llm同时处理多个问题,下来我们就来测试一下langchain的stream和batch能力:

for chunk in llm.stream("写一首关于躺平的打油诗。"):
    print(chunk.content)
    print("---------------------")

 因为流式输出每次只输出部分结果,所以响应时间比较短,这会给用户带来比较好的用户体验,下面我们看一下批处理:

results = llm.batch(
    [
        "2+2等于几?",
        "3+5等于几?",
    ]
)
for res in results:
    print(res.content)

这里我们同时向llm询问了两个简单的数学问题,llm能够同时给出这些问题的正确答案,这说明llm具备同时处理多个问题的能力。

六、Chain的使用

在我之前的多篇博客中都详细介绍了在langchian中使用chain的方法,这里我们也要尝试一下在gemini模型环境下如何来使用chian。

model = ChatGoogleGenerativeAI(model="gemini-pro",
                             temperature=0.7)

prompt = ChatPromptTemplate.from_template(
    "给我讲一个关于{topic}的笑话"
)

output_parser = StrOutputParser()

chain = prompt | model | output_parser

response = chain.invoke({"topic": "躺平"})
print(response)

这里我们使用了langchain的LCEL语法创建了一个chian, 这和我们之前介绍langchian的博客中的方法是一样的,同样我们也能得到想要的结果,不过这里我们需要说明的是,这里我们在创建model的时候设置了参数temperature=0.7, temperature这个参数的取值范围为0-1,它表示生成结果的随机性,temperature越高,产生结果的随机性越大,因此当我们需要让llm讲故事或者讲笑话的时候,我们可以适当调高temperature的值,这样每次都会产生不一样的结果的概率就会比较大,而当我们需要llm做一些严谨的数学或者逻辑的推理/计算时,我们可以调低temperature的值,甚至可以将temperature设置为0,因为这时候我们需要llm给出严谨的唯一的答案。

七、简单的RAG

在我之前的使用langchain与你自己的数据对话系列的博客中详细介绍了RAG即检索增强生成(Retrieval Augmented Generation),现在我们也需要测试一下gemini模型的RAG能力,下面我们创建一个简单的向量数据库,并存储四条文本,然后我们向llm询问有关文本的内容:

embeddings = GoogleGenerativeAIEmbeddings(model="models/embedding-001")

vectorstore = DocArrayInMemorySearch.from_texts(
    ["Gemini Pro 是 GoogleDeepMind 开发的大型语言模型。",
     "Gemini 可以是一个星座,也可以是一系列语言模型的名称。",
     "人是由恐龙进化而来的。",
     "熊猫喜欢吃天鹅肉。"],

    embedding=embeddings # passing in the embedder model
)

retriever = vectorstore.as_retriever()

这里我们创建了一个内存向量数据库,并向其中存储了4条文本,然后使用了gemini的嵌入模型“embedding-001”作为文本嵌入工具,最后我们通过向量数据库创建了一个检索器retriver, 接下来我们可以通过检索器retriver来检索向量数据库中的相关文档:

retriever.get_relevant_documents("Gemini 是什么?")

 这里我们看到检索器retriver返回了相关的文档,并按文档的内容与问题的相关度对文档进行了排序。

retriever.get_relevant_documents("人从哪里来的?")

接下来我们来创建chian, 不过在创建chian之前我们需要创建prompt模板和RunnableMap,最后将它们组合成一个chain:

from langchain.schema.runnable import RunnableMap

#创建prompt模板
template = """Answer the question a a full sentence, based only on the following context:
{context}
Question: {question}
"""

#由模板生成prompt
prompt = ChatPromptTemplate.from_template(template)

#创建chain
chain = RunnableMap({
    "context": lambda x: retriever.get_relevant_documents(x["question"]),
    "question": lambda x: x["question"]
}) | prompt | model | output_parser

当我们创建完chain以后就可以使用invoke方法来调用chain了:

#调用chain
chain.invoke({"question": "谁开发了 Gemini Pro?"})

 

chain.invoke({"question": "Gemini是什么?"})

 

chain.invoke({"question": "人是从哪里来的?"})

 

chain.invoke({"question": "熊猫喜欢吃什么?"})

八、PAL Chain

PALChain是Langchain中用于生成代码的程序辅助语言模型 (PAL) 解决方案。 PAL 是论文“Program-Aided Language Models”中描述的一种技术 (https://arxiv.org/pdf/2211.10435.pdf)下面我们使用langchian的PALChain来实现两个简单的数学逻辑推理题:

from langchain_experimental.pal_chain import PALChain

model = ChatGoogleGenerativeAI(model="gemini-pro",
                             temperature=0)

pal_chain = PALChain.from_math_prompt(model, verbose=True)

 这里我们创建了一个model和pal_chain ,并设置了temperature=0, 这是因为我们接下来需要做严谨的逻辑推理,不需要llm产生随机性的结果,因此我们设置了temperature=0。

question ="食堂有23个苹果。如果午餐用了20个,之后又买了6个,那么食堂最后还剩多少个苹果?"
pal_chain.invoke(question)

 这里我们看到pal_chain在内部定义了一个solution的pyhon函数,并在该函数中做了逻辑推理,最后得到了正确的计算结果。

question ="""
如果小明早上 7:00 起床,并且他在家花了 1 小时吃早餐,
然后又花了 30 分钟步行去学校,小明几点到的学校?
"""
pal_chain.invoke(question)

 这里我们看到llm对时间的概念还存在一点问题,它并没有将最后的结果8.5转换成时间格式,而是直接以十进制的格式给出了最后的答案。

九、多模态支持

在langchain中使用多模态模型时我们需要用到langchian的HumanMessage类,它规定了一套与多模态模型对话的格式,下面我们将会将一个图片的url地址,然后询问gemini的多模态模型关于图片内容的问题:

import requests
from IPython.display import Image

image_url = "https://upload.wikimedia.org/wikipedia/commons/e/e7/Everest_North_Face_toward_Base_Camp_Tibet_Luca_Galuzzi_2006.jpg"
content = requests.get(image_url).content
Image(content,width=300)

from langchain_core.messages import HumanMessage
from langchain_google_genai import ChatGoogleGenerativeAI

llm = ChatGoogleGenerativeAI(model="gemini-pro-vision")

# example
message = HumanMessage(
    content=[
        {
            "type": "text",
            "text": "这个图片里有什么,它位于什么地方?",
        },  # You can optionally provide text parts
        {
            "type": "image_url",
            "image_url": image_url
         },
    ]
)

llm.invoke([message])

 这里我们给gemini-pro-visio模型一张珠穆朗玛峰的图片url,然后询问图片里有什么,它位于什么地方,我们看到llm能准确识别图片中的内容,并且给出了珠穆朗玛峰的地理位置,效果还是不错的。

总结

今天我们学习了在langchain中使用gemin模型的的一些方法,总的来说使用方法和其他的模型如openai的模型的方法都是类似的。今天我们还尝试了langchain的stream和beath方法在gemini模型上的应用,还介绍了RAG、PAL Chain的应用,最后我们用一个简单例子介绍了langchain中使用gemini多模态模型的方法。希望今天的内容对大家学习gemini大模型有所帮助

参考资料

Google AI chat models | 🦜️🔗 Langchain

https://ai.google.dev/docs?hl=zh-cn

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/249687.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

【SpringBoot篇】Interceptor拦截器 | 拦截器和过滤器的区别

文章目录 🌹概念⭐作用 🎄快速入门⭐入门案例代码实现 🛸拦截路径🍔拦截器interceptor和过滤器filter的区别🎆登录校验 🌹概念 拦截器(Interceptor)是一种软件设计模式,…

Docker构建镜像时空间不足:/var/lib/docker,no space left on device

背景 在一次更新业务服务功能后,重新在服务器上构建微服务镜像,在构建镜像时报错空间不足: /var/lib/docker, no space left on device 赶紧用 df -h 看了下磁盘使用情况,果然, devicemapper 已经满了。。由于需要紧急…

C语言代码实现URL编码

在 Python,只需要导入 urllib.parse,然后使用 quote 函数即可把任意字符串进行 URL 编码 现在使用 C 语言来实现等效的代码,我在网上找到现成的代码,改代码接收命令行输入参数,然后进行 URL 编码并输出: #…

Flask基本用法:一个HelloWorld,搭建服务、发起请求

目录 1、简介 2、安装 3、Flask使用示例 参考 1、简介 官网文档 Flask是一个轻量的web服务框架,我们可以利用它快速搭建一个服务,对外提供接口,其他人可以轻松调用我们的服务。这对算法工程师来说比较关键,我们通常不擅长搞开发…

【Docker四】使用Docker-compose一键部署Wordpress平台

目录 一、YAML 文件格式及编写注意事项(重要) 1、yaml文件使用时注意事项: 2、yaml文件的基本数据结构: 2.1、声明变量(标量。是单个的不可再分的值,类型:字符串,整数&#xff0c…

Typescript中Omit数据类型的理解

在 TypeScript 中&#xff0c;Omit 是一个内置的工具类型&#xff0c;它用于从对象类型中排除指定的属性&#xff0c;并返回剩余的属性。 Omit 的语法如下所示&#xff1a; type Omit<T, K> Pick<T, Exclude<keyof T, K>>;其中&#xff0c;T 表示原始类型…

强制性产品认证车辆一致性证书二维码解析

目录 说明 界面 下载 强制性产品认证车辆一致性证书二维码解析 说明 二维码扫描出的信息为&#xff1a; qW0qS6aFjU50pMOqis0WupBnM21DnMxy0dGFN/2Mc9gENXhKh0qEBxFgfXSLoR qW0qS6aFjU50pMOqis0WupBnM21DnMxy0dGFN/2Mc9gENXhKh0qEBxFgfXSLoR 解析后的信息为&#xff1a…

佛山IBM System x3550 M4服务器维修检查

案例背景&#xff1a; 一家位于东莞的制造公司&#xff0c;在其佛山分厂中安装了一台IBM X3550 M4服务器作为其关键业务设备。该服务器负责管理和存储公司的生产数据、ERP系统和供应链数据。在生产过程中&#xff0c;该服务器突然发生了故障&#xff0c;导致佛山分厂的生产中断…

深度学习环境配置

一、Anaconda安装 下载&#xff1a;从清华大学开源软件镜像下载 镜像网址 出现base即为安装成功&#xff1a; 检查显卡的驱动是否正确安装&#xff1a; &#xff08;GPU可以显示出名称&#xff09; GPU0是集显集成显卡是主板自带的显卡。 GPU1是独显即独立显卡&#xff0c…

大数据组件:Hadoop

文章目录 1、Hadoop 是什么2、Hadoop 优势3、Hadoop 组成&#xff08;1&#xff09;HDFS&#xff08;2&#xff09;YARN&#xff08;3&#xff09;MapReduce 架构概述&#xff08;4&#xff09;HDFS、YARN、MapReduce 三者关系&#xff08;5&#xff09;大数据技术生态体系&…

【Java】图片资源转为Base64编码并返回

使用JDK把图片资源转为Base64编码并返回(免费分享&#xff0c;皆可复制粘贴) 在Java实际应用开发过程中&#xff0c;我们需要使用指定的背景图案&#xff0c;例如大型游戏中的一些基本图案&#xff0c;例如礼物、场景、武器造型等等&#xff0c;通俗来说就是图片源文件&#x…

Ubuntu系统的基础操作和使用

#ubuntuUbuntu系统的基础操作和使用包括以下几个方面&#xff1a; 1. 安装和启动&#xff1a;首先&#xff0c;需要下载Ubuntu镜像文件并使用虚拟机软件&#xff08;如VirtualBox&#xff09;创建虚拟机&#xff0c;将镜像文件安装在虚拟机中即可启动Ubuntu系统。 2. 桌面环境…

将开源免费进行到底,ThreadX开源电脑端GUIBuilder图形开发工具GUIX Studio

上个月微软刚刚宣布将ThreadX RTOS全家桶贡献给Eclipse基金会&#xff0c;免费供大家商用&#xff0c;宽松的MIT授权方式&#xff0c;就差这个GUIX Studio没有开源了&#xff0c;而且Windows还经常检索不到&#xff0c;并且也不提供离线包。 1、软件包有点大&#xff0c;700MB…

初识Pandas函数是Python的一个库(继续更新...)

学习网页&#xff1a; Welcome to Python.orghttps://www.python.org/https://www.python.org/https://www.python.org/ Pandas函数库 Pandas是一个Python库&#xff0c;提供了大量的数据结构和数据分析工具&#xff0c;包括DataFrame和Series等。Pandas的函数非常丰富&…

BI技巧丨钻取动态度量值

PowerBI自带的数据钻取功能&#xff0c;在实际应用中是用户使用度较高的功能之一&#xff0c;特别是需要实际操作的业务用户&#xff0c;往往需要根据汇总的结果定位到相关的明细数据&#xff0c;以便进行下一步的流程操作&#xff0c;这种场景下钻取功能显得尤为便利。 关于钻…

掌握魔法绘制图片、PDF剪辑器功能,智能生成AI文章,高效工作从此开始

在这个信息爆炸的时代&#xff0c;如何高效地处理和利用各种文件格式成为了我们日常工作的关键。今天&#xff0c;我们将为您介绍一款强大的工具&#xff0c;它能够智能生成AI文章&#xff0c;高效掌握魔法绘制图片和PDF剪辑器功能&#xff0c;为您的工作带来前所未有的便捷和高…

【送书活动】智能汽车、自动驾驶、车联网的发展趋势和关键技术

文章目录 前言01 《智能汽车》推荐语 02 《SoC底层软件低功耗系统设计与实现》推荐语 03 《SoC设计指南》推荐语 05 《智能汽车网络安全权威指南&#xff08;上册&#xff09;》推荐语 06 《智能汽车网络安全权威指南&#xff08;下册&#xff09;》推荐语 后记赠书活动 前言 …

jmeter,同一线程组内,调用cookie实现接口关联

取cookie方式参考上一篇&#xff1a;jemeter&#xff0c;取“临时重定向的登录接口”响应头中的cookie-CSDN博客 元件结构 登录后要执行的接口为“api/get_event_list/”&#xff0c;在该HTTP请求下创建HTTP信息头管理器&#xff0c;配置如下&#xff1a; 执行测试后&#xff0…

太阳能电池特性测试用太阳光模拟器24H光源

概述 太阳能模拟器是一种在室内模拟太阳光的设备&#xff0c;能够较为准确地模拟太阳辐射的准直性、均匀性和光谱特性。它的基本原理是利用人工光源模拟太阳光辐射&#xff0c;以克服太阳光辐射受环境、时间和气候等因素影响&#xff0c;并且总辐照度不能调节等缺点&#xff0c…