如果我们要搞AI智能体,普通人一般 借助腾讯元器、 coze、KIMI 或者其他大平台搞一搞,比如我配置的coze智能体在微信公众号聊天。
对于程序员来说,一言不合就喜欢搞代码。 前面文章也介绍了不少关于AI+知识库问答,AI+agent 不少开源项目。 开源项目对于编程小白来说,基本上本地部署下,用用他的功能就结束了。如果想二次开发, 感觉还是欠缺点什么。
缺点什么呢。 除了Python基础知识,应该还需要了解大模型开发框架。如果你有一个从0学习AI大模型的梦想, 那么LangChain就不得不学习了解下。
先介绍下LangChain。LangChain 是一个开源框架,用于构建基于大型语言模型(LLM)的应用程序。LLM 是基于大量数据预先训练的大型深度学习模型,可以生成对用户查询的响应,例如回答问题或根据基于文本的提示创建图像。LangChain 提供各种工具和抽象,以提高模型生成的信息的定制性、准确性和相关性。例如,开发人员可以使用 LangChain 组件来构建新的提示链或自定义现有模板。LangChain 还包括一些组件,可让 LLM 无需重新训练即可访问新的数据集。
如果你问我,用Python快速 入门学习LangChain大模型编程怎么搞, 网上可能很多都是openAI的例子。 但对于新手来说,可能先要解决科学上网问题,以及sk账号问题。 这里我以阿*云的通义千问为例,写一个LangChain的hello world。 毕竟现在API价格便宜了,且有1个月免费额度。
先去阿*云官网 申请api-key
from langchain_openai import ChatOpenAI
import os
def get_response():
os.environ['OPENAI_API_KEY'] = 'sk-XXXX'
llm = ChatOpenAI(
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1",
model="qwen-plus"
)
messages = [
{"role":"system","content":"You are a helpful assistant."},
{"role":"user","content":"你是谁?"}
]
response = llm.invoke(messages)
print(response.json(ensure_ascii=False))
if __name__ == "__main__":
get_response()
{"content": "我是来自阿*云的大规模语言模型,我叫通义千问。", "additional_kwargs": {}, "response_metadata": {"token_usage": {"completion_tokens": 16, "prompt_tokens": 22, "total_tokens": 38}, "model_name": "qwen-plus", "system_fingerprint": null, "finish_reason": "stop", "logprobs": null}, "type": "ai", "name": null, "id": "run-3dda8378-67f1-46aa-8ad5-db84301db776-0", "example": false, "tool_calls": [], "invalid_tool_calls": [], "usage_metadata": {"input_tokens": 22, "output_tokens": 16, "total_tokens": 38}}
说实话,大模型框架我也在学习中,毕竟主业不是干这个,业余兴趣爱好。
相关文章:
【人工智能】字节版GPTs「扣子」coze免费使用chatGPT4模型操作步骤
【AI+本地知识库】个人整理的几种常见本地知识库技术方案
【AI+知识库问答】沉浸式体验了解 AI知识库问答fastGPT
【AI+chat】推荐一款基于大模型的智能对话机器人,支持微信公众号、企业微信应用、飞书、钉钉接入
【AI+agent智能助手】使用Dify新手小白也能分分钟构建属于自己的 AI 原生应用
【AI+chat】手把手配置kimichat集成到微信公众号中对话聊天
【人工智能】从0搭建行业智能机器人的几种选型技术方案
不要被环境误导说自己不行,男人不能说不行
原文链接:【Python技术】AI编程新手快速入门学习LangChain大模型框架