langchian 批次调用 prompt

目录

基础不使用批次

batch

批次调用


关于 langchian 额一些应用,可以查看案例:

GitHub - 5zjk5/prompt-engineering: prompt 工程项目案例

基础不使用批次

from dotenv import load_dotenv
import time
import os
from langchain_core.prompts import PromptTemplate
from langchain.chains import LLMChain

load_dotenv('key.env')

from langchain_community.llms import Tongyi
def tongyi_qwen_plus(temperature=1):
    # 通义 qwen_plus
    model = Tongyi(temperature=temperature, model_name='qwen-plus', dashscope_api_key=os.getenv('DASHSCOPE_API_KEY'))
    return model
llm = tongyi_qwen_plus()


prompt = [
    '说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
]
start = time.time()


def base_llm_chain(model, prompt, **kwargs):
    """
    https://python.langchain.com/docs/modules/model_io/prompts/composition/#string-prompt-composition
    基础链,带有变量的 prompt ,model 两个组成链
    :param model: llm
    :param prompt: prompt 其中的变量是用 {} 括起来的
    :param kwargs: prompt 中的变量
    :return:
    """
    prompt = PromptTemplate.from_template(prompt)
    chain = LLMChain(llm=model, prompt=prompt)
    res = chain.run(kwargs)
    return res
res = []
for p in prompt:
    _ = base_llm_chain(llm, p)
    res.append(_)
end = time.time()
t = end - start
print(t)



batch

Quickstart | 🦜️🔗 LangChain

from dotenv import load_dotenv
import time
import os
from langchain_core.prompts import PromptTemplate
from langchain.chains import LLMChain

load_dotenv('key.env')

from langchain_community.llms import Tongyi
def tongyi_qwen_plus(temperature=1):
    # 通义 qwen_plus
    model = Tongyi(temperature=temperature, model_name='qwen-plus', dashscope_api_key=os.getenv('DASHSCOPE_API_KEY'))
    return model
llm = tongyi_qwen_plus()


prompt = [
    '说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
]
start = time.time()
def batch_base_llm_chain_no_var(model, prompt):
    """
    基础链,批次调用
    不带变量的,传入的 prompt 是一个列表
    这种方式经过测试,没有用,测试了通义,智谱,这应该是专门为 openai 设计的接口
    需要真正批次调用使用 batch_base_llm_chain 方法,经测试有用
    """
    res = model.batch(prompt)
    return res
# res = Chain.batch_base_llm_chain(llm, '{prompt_string}', max_concurrency=16, prompt_string=prompt)
res = batch_base_llm_chain_no_var(llm, prompt)
end = time.time()
t = end - start
print(t)



跑几次都是 22s 左右,跟一条一条调用没有区别,测试了通义,智谱都一样,这应该是专门为 openai 设计的接口。

批次调用

下面这个方法才有用

from dotenv import load_dotenv
import time
import os
from langchain_core.prompts import PromptTemplate
from langchain.chains import LLMChain

load_dotenv('key.env')

from langchain_community.llms import Tongyi
def tongyi_qwen_plus(temperature=1):
    # 通义 qwen_plus
    model = Tongyi(temperature=temperature, model_name='qwen-plus', dashscope_api_key=os.getenv('DASHSCOPE_API_KEY'))
    return model
llm = tongyi_qwen_plus()


prompt = [
    '说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出“中国在哪里?”,不需要输出其他字',
    '说出“你能做什么?”,不需要输出其他字',
    '说出“讲一个小白兔故事”,不需要输出其他字',
]
start = time.time()


def batch_base_llm_chain(model, prompt, max_concurrency=5, **kwargs):
    """
    https://python.langchain.com/docs/modules/model_io/prompts/composition/#string-prompt-composition
    基础链,带有变量的 prompt ,与不带变量的都可以用,model 两个组成链,批次调用
    :param model: llm
    :param prompt: prompt 其中的变量是用 {} 括起来的
    :param kwargs: prompt 中的变量
    :param max_concurrency: 并发请求数
    e.g: 带变量的调用
        prompt = 'tell me a joke about {other} and {topic2}'
        other = ['bear', 'dog']
        topic2 = ['cat', 'monkey']
        Chain.batch_base_llm_chain(llm, prompt, other=other, topic2=topic2)

        传进来后的 kwargs: kwargs = {'topic1': ['bear', 'dog'], 'topic2': ['cat', 'monkey']}
        处理后 batch_list: batch_list = [{"topic1": "bears", "topic2": "cat"}, {"topic1": "dog", "topic2": "monkey"}]

    e.g: 不带变量的调用
        prompt = '{prompt_string}'
        prompt_lst = ['xxx', 'xxx'...]
        Chain.batch_base_llm_chain(llm, '{prompt_string}', max_concurrency=16, prompt_string=prompt_lst)

    :return:
    """
    prompt = PromptTemplate.from_template(prompt)
    chain = LLMChain(llm=model, prompt=prompt)

    # 确保所有列表长度相同,构造批次列表
    keys = list(kwargs.keys())
    first_list_length = len(kwargs[keys[0]])
    if all(len(kwargs[key]) == first_list_length for key in keys):
        # 使用zip函数将所有值配对
        paired_values = zip(*[kwargs[key] for key in keys])
        # 遍历配对后的值,构造新的字典列表
        batch_list = [dict(zip(keys, values)) for values in paired_values]
    else:
        print("批次对应列表长度不一致,无法转换。")
        return None

    res = chain.batch(batch_list, config={"max_concurrency": max_concurrency})
    return res
res = batch_base_llm_chain(llm, '{prompt_string}', max_concurrency=16, prompt_string=prompt)
end = time.time()
t = end - start
print(t)



快了 2-3 倍

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/870683.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Image-coloring的部署,在Ubuntu22.04系统下——点动科技

一、ubuntu22.04基本环境配置 1.1 更换清华Ubuntu镜像源 删除原来的文件 rm /etc/apt/sources.list开始编辑新文件 vim /etc/apt/sources.list先按i键,粘贴以下内容 # 默认注释了源码镜像以提高 apt update 速度,如有需要可自行取消注释 deb https:…

【体检】程序人生之健康检查,全身体检与预防疫苗,五大传染病普筛,基因检测等

程序员养生指南之 【体检】程序人生之健康检查,全身体检项目分类,五大传染病普筛,基因检测等 文章目录 一、全身体检与预防疫苗(年检)1、实验室检测:生化全套检查2、医技检查:辅助诊疗科室3、科…

【学习笔记】多元线性回归模型 —— Matlab

文章目录 前言一、多元线性回归多元线性回归模型线性模型 ( Y , X β , σ 2 I n ) (Y,X\beta,\sigma^2I_n) (Y,Xβ,σ2In​) 考虑的主要问题多元线性回归模型的参数估计多元线性回归模型和回归系数的检验 二、示例三、代码实现----Matlab1.多元回归的实现2.逐步回归的实现3.M…

MES系统:智能化排班排产的全面解决方案

MES(制造执行系统)管理系统通过集成多种先进技术、实时数据采集与分析、优化算法应用以及与其他系统的协同工作,实现了智能化排班排产功能。以下是该功能的详细实现方式: 数据集成与实时采集:MES系统与ERP、SCM、设备管…

Linux常用命令 ---- rmdir 命令[删除一个空目录]

rmdir 命令 功能:删除一个空目录 我们使用 mkdir 命令创建一个名为 test 空文件夹,如下图所示。 现在使用 rmdir 命令将 test 文件夹进行删除,如下图所示。 注意:rmdir 命令只能删除一个空目录,如果这个目录中有其他文…

python从入门到精通:函数

目录 1、函数介绍 2、函数的定义 3、函数的传入参数 4、函数的返回值 5、函数说明文档 6、函数的嵌套调用 7、变量的作用域 1、函数介绍 函数是组织好的,可重复使用的,用来实现特定功能的代码段。 name "zhangsan"; length len(nam…

【面试题系列Vue02】Vue Router 路由都有哪些模式?各模式之间有什么区别?

官方解析 Vue Router 路由有三种模式: hash 模式:使⽤ URL 中的 hash(即 # 后面的内容)来作为路由路径。 在这种模式下,页面不会重新加载,只会更新 hash 值,并触发路由变化,从而渲…

什么是机器人快换盘?

机器人快换盘,行业内也称作工具快换盘、换枪盘、快换工具盘、快速更换器、快换器、 快换夹具、治具快换等。是末端执行器快速更换装置(End-Of-Arm Tooling,简称EOAT),是工业自动化领域中用于机器人手臂上的一种重要设备…

【Python零基础】while循环和用户输入

文章目录 前言一、input()函数二、while循环三、使用while循环来处理列表和字典总结 前言 我们开发一个应用程序,目的都是为了解决最终用户的问题,针对用户界面输入的数据,按照用户期待的逻辑进行处理,得到用户想要的结果。本章将…

如何在前端测试中,在F12中加入token

不止是token,cookie中其他的数据也都可以这样 首先打开F12,然后找到Application或者应用程序 然后找到cookie里面双击这里,输入token或者其他数据就可以了,后面输值。

高性能日志系统

目录 设计思路 架构设计 设计模式应用 单例模式 工厂模式 建造者模式 代理模式 异步处理设计 异步日志器使用原因 异步日志器设计思路 异步日志器实现的核心模块说明 性能优化以及问题解决 测试结果 双缓冲区机制设计 设计思路及其架构 生产消费模式与双缓冲区结…

C++ wxWidgets图形界面开发用什么IDE最好?

在主流免费的IDE工具中,我们可以想到的支持cmake项目的工具就只有QtCreator,VisualStudio,VSCode这三个。其中QtCreator和VSCode支持WIndows,Mac,WIndows三大主流平台。但是VSCode在Ubuntu等系统下的支持并没有在WIndo…

【vue讲解:ref属性、动态组件、插槽、vue-cli创建项目、vue项目目录介绍、vue项目开发规范、es6导入导出语法】

0 ref属性&#xff08;组件间通信&#xff09; # 1 ref属性放在普通标签上<input type"text" v-model"name" ref"myinput">通过 this.$refs[myinput] 拿到的是 原生dom对象操作dom对象&#xff1a;改值&#xff0c;换属性。。。# 2 ref属…

Leetcode JAVA刷刷站(38)外观数列

一、题目概述 二、思路方向 为了解决这个问题&#xff0c;我们可以编写一个Java函数countAndSay&#xff0c;该函数接受一个整数n作为输入&#xff0c;并返回外观数列的第n个元素。这个函数将基于递归公式来构建数列&#xff0c;其中countAndSay(1) "1"&#xff0c;…

pycharm windows/mac 指定多版本python

一、背景 工作中经常会使用不同版本的包&#xff0c;如同时需要tf2和tf1&#xff0c;比较新的tf2需要更高的python版本才能安装&#xff0c;而像tf1.5 需要低版本的python 才能安装&#xff08;如 python3.6&#xff09;,所以需要同时安装多个版本。 二、安装多版本python py…

网络安全之XSS基础

从 XSS Payload 学习浏览器解码 xss payload 1.<a href"%6a%61%76%61%73%63%72%69%70%74:%61%6c%65%72%74%28%31%29">1</a> 2.<a href"&#x6a;&#x61;&#x76;&#x61;&#x73;&#x63;&#x72;&#x69;&#x70;&#x74;:…

SpringBoot+Vue在线商城(电子商城)系统-附源码与配套论文

摘 要 随着互联网技术的发展和普及&#xff0c;电子商务在全球范围内得到了迅猛的发展&#xff0c;已经成为了一种重要的商业模式和生活方式。电子商城是电子商务的重要组成部分&#xff0c;是一个基于互联网的商业模式和交易平台&#xff0c;通过网络进行产品和服务的销售。…

【题目/训练】:双指针

引言 我们已经在这篇博客【算法/学习】双指针-CSDN博客里面讲了双指针、二分等的相关知识。 现在我们来做一些训练吧 经典例题 1. 移动零 思路&#xff1a; 使用 0 当做这个中间点&#xff0c;把不等于 0(注意题目没说不能有负数)的放到中间点的左边&#xff0c;等于 0 的…

Unity项目优化记录

背景&#xff1a;测试反馈项目组游戏存在内存泄露&#xff0c;来找到中台这边协调排查。好家伙&#xff0c;跑了两次看了内存快照&#xff0c;再看资源组织和管理方式&#xff0c;存在的问题确实比较多。 1、修复内存泄露&#xff1a;结算界面由于资源引用丢失导致整个面板不会…

景联文科技高质量文本标注:驱动自然语言处理技术的发展与应用

文本标注是自然语言处理&#xff08;NLP&#xff09;领域的一个重要环节&#xff0c;是指在文本数据上添加额外的信息或标记的过程&#xff0c;目的是为了让计算机能够理解和处理这些文本数据。 通过文本标注&#xff0c;可以为文本中的各个部分提供具体的含义和上下文信息&…