前言
嗨,大家好!我是海鸽。
《庆余年2》刚刚完结,热度不减,我忍不住好奇:我们的AI伙伴GPT
,是否也对剧中那位机智过人的小范大人有所耳闻?
不仅如此,最近我们还尝试了LangChain
的调用,体验了一番免费的千问模型
的问答。现在,让我们再次挑战gpt
,继续享受这种白嫖的乐趣。
结果出乎意料,让我大吃一惊!
话不多说,直接来看下过程吧。
安装
首先,依然是要先安装和导入LangChain
和GPT
的相关包。
pip install langchain-openai==0.1.7
pip install langchain==0.2.1
问问 GPT 认不认识小范大人?
访问 API 需要一个 API 密钥,本着免费的就是最好的心态,我们继续发扬白嫖的优良传统
。
有条件的可走官网途径。
有了 Key,我们就可以开始我们的白嫖之旅了。
老规矩,将其保存在
.env
文件中。
让我们问它“介绍一下范闲?详细些!
”
#! -*-conding=: UTF-8 -*-
from langchain_openai import ChatOpenAI
from dotenv import load_dotenv, find_dotenv # 导入dotenv库,用于加载环境变量
_ = load_dotenv(find_dotenv()) # 加载.env文件中的环境变量
llm = ChatOpenAI(temperature=0.9, base_url="https://api.chatanywhere.com.cn/v1",
model_name="gpt-3.5-turbo")
def simple_invoke(_llm):
return _llm.invoke("介绍一下范闲?详细些!")
if __name__ == '__main__':
result = simple_invoke(llm)
print(result)
继续给我胡说八道~~
我们试着使用提示模板指导下它,看看能不能给我像样点的回答!
from langchain_openai import ChatOpenAI
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
from dotenv import load_dotenv, find_dotenv # 导入dotenv库,用于加载环境变量
_ = load_dotenv(find_dotenv()) # 加载.env文件中的环境变量
llm = ChatOpenAI(temperature=0.9, base_url="https://api.chatanywhere.com.cn/v1",
model_name="gpt-3.5-turbo")
output_parser = StrOutputParser()
def simple_invoke(_llm):
return _llm.invoke("介绍一下范闲?详细些!")
def template_invoke(_llm):
prompt = ChatPromptTemplate.from_messages([
("system", "你是世界级的小说研究人员,你读过小说《庆余年》。"),
("user", "{input}")
])
prompt_llm = prompt | _llm | output_parser
return prompt_llm.invoke({"input": "介绍一下范闲?详细些!"})
if __name__ == '__main__':
result2 = template_invoke(llm)
print(result2)
好了,算是触碰到GPT 3.5
的知识盲区了。
不是GPT 3.5
更有性价比,实在是GPT 4
用不起。
不过好在,
GPT 4
每天也是有3
次免费机会的。
我们修改下模型为gpt-4
:
llm = ChatOpenAI(temperature=0.9, base_url="https://api.chatanywhere.com.cn/v1",
# model_name="gpt-3.5-turbo")
model_name="gpt-4")
继续执行,这回总算是着调了点:
再问问千问
#! -*-conding=: UTF-8 -*-
import os
from dotenv import find_dotenv, load_dotenv
from langchain_community.llms import Tongyi
from langchain_core.runnables import RunnableSequence
from langchain.prompts import PromptTemplate
load_dotenv(find_dotenv())
class QwenTurboTongyi(Tongyi):
model_name = "qwen-turbo"
def xiao_hei_zi():
llm = QwenTurboTongyi(temperature=1)
print(llm.model_name)
template = '''
介绍一下{question}?详细些!
'''
prompt = PromptTemplate(
template=template,
input_variables=["question"]
)
chain = RunnableSequence(prompt | llm)
question = '范闲'
res = chain.invoke({"question": question})
print(res)
if __name__ == '__main__':
xiao_hei_zi()
得到的结果是:
这里,我们仅仅试了qwen-turbo
模型,无提示,效果也还凑合,感兴趣的可以测评下千问的其它模型。
小结
我们已经成功探索了LangChain
中“Chain”的入门技巧。但这只是冰山一角,LangChain
的世界远不止于此。
随着我们深入,高级功能将逐渐展现,赋予我们更强大的逻辑处理能力。不仅如此,LangChain
还支持自定义Chain
,让我们能够根据特定需求,打造个性化的智能解决方案。
**
如何学习AI大模型?
**
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
1.AI大模型学习路线图
2.100套AI大模型商业化落地方案
3.100集大模型视频教程
4.200本大模型PDF书籍
5.LLM面试题合集
6.AI产品经理资源合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓