Py之dashscope:dashscope的简介、安装和使用方法、案例应用之详细攻略
目录
dashscope的简介
1、产品的主要特点和优势包括:
dashscope的安装和使用方法
1、安装
2、使用方法
dashscope的案例应用
1、通义千问-Max:通义千问2.5系列
2、通义千问-摘要增强版
3、Qwen-Long:支持最长1000万tokens
dashscope的简介
DashScope(模型服务灵积),灵积通过灵活、易用的模型API服务,让各种模态模型的能力,都能方便的为AI开发者所用。通过灵积API,开发者不仅可以直接集成大模型的强大能力,也可以对模型进行训练微调,实现模型定制化。
DashScope(模型服务灵积)是一个基于“模型即服务”(Model-as-a-Service,MaaS)理念的模型服务平台,由阿里云提供。该平台致力于为AI应用开发者提供丰富多样的模型选择,并通过标准化API接口提供包括模型推理、模型微调训练在内的多种模型服务。DashScope的服务以模型为中心,支持AI开发者通过简单的API调用直接集成大模型的能力,同时也支持对模型进行训练微调,实现模型的定制化。
此外,DashScope还提供了免费试用服务,允许开发者在开通服务后查看和使用多种模型。不同模型具有不同的计量单位和免费额度,具体计费方式根据所调用的模型决定。例如,某些模型的计费单元可能是token(用于表示自然语言文本的基本单位),而其他模型可能基于图片张数或时间(秒)进行计费。
总的来说,DashScope是一个功能强大且易于使用的模型服务平台,它为AI应用开发者提供了丰富的模型选择和灵活的服务,使得AI应用开发更加简单和高效。
官网:模型服务灵积 DashScope - 阿里云
1、产品的主要特点和优势包括:
>> 灵活、易用的模型API服务:DashScope提供易于使用的API接口,使得开发者可以方便地集成和使用各种模态模型的能力。
>> 强大的模型支持:依托于业界各领域的优质模型和阿里云强大的基础设施,DashScope为开发者提供了广泛且强大的模型支持。
>> 模型定制化能力:除了直接集成大模型的能力,DashScope还支持对模型进行训练微调,以满足特定应用需求。
>> 标准化API接口:通过标准化的API,DashScope简化了模型服务的集成和使用过程,提高了开发效率。
>> 安全合规性:DashScope提供跨地域的弹性高可用保障、精准的访问权限控制和全面的平台审计功能,确保模型服务全链路的安全稳定和可信。
dashscope的安装和使用方法
1、安装
pip install dashscope
pip install -i https://mirrors.aliyun.com/pypi/simple dashscope
2、使用方法
from http import HTTPStatus
import dashscope
from dashscope import Generation
dashscope.api_key = 'sk-********6b8ff'
responses = Generation.call(model=Generation.Models.qwen_turbo,
prompt='今天天气好吗?')
if responses.status_code == HTTPStatus.OK:
print(responses.output['text'])
else:
print('Failed request_id: %s, status_code: %s, code: %s, message:%s' %
(responses.request_id, responses.status_code, responses.code,
responses.message))
dashscope的案例应用
持续更新中……
更多案例应用:阿里云登录 - 欢迎登录阿里云,安全稳定的云计算服务平台
1、通义千问-Max:通义千问2.5系列
通义千问2.5系列千亿级别超大规模语言模型,支持中文、英文等不同语言输入。随着模型的升级,qwen-max将滚动更新升级。如果希望使用固定版本,请使用历史快照版本。当前qwen-max模型与qwen-max-0428快照版本等价,均为最新版本的qwen-max模型。
from http import HTTPStatus
from dashscope import Generation
def call_with_stream():
messages = [
{'role': 'user', 'content': '如何做西红柿炖牛腩?'}]
responses = Generation.call("qwen-max",
messages=messages,
result_format='message', # 设置输出为'message'格式
stream=True, # 设置输出方式为流式输出
incremental_output=True # 增量式流式输出
)
for response in responses:
if response.status_code == HTTPStatus.OK:
print(response.output.choices[0]['message']['content'], end='')
else:
print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (
response.request_id, response.status_code,
response.code, response.message
))
if __name__ == '__main__':
call_with_stream()
2、通义千问-摘要增强版
在大模型通用能力基础上,专门增强了大模型的「文本摘要和总结」能力。
# 业务空间模型调用请参考文档传入workspace信息: https://help.aliyun.com/document_detail/2746874.html
from http import HTTPStatus
from dashscope import Generation
def call_with_stream():
messages = [
{'role': 'user', 'content': '如何做西红柿炖牛腩?'}]
responses = Generation.call("bailian-summary",
messages=messages,
result_format='message', # 设置输出为'message'格式
stream=True, # 设置输出方式为流式输出
incremental_output=True # 增量式流式输出
)
for response in responses:
if response.status_code == HTTPStatus.OK:
print(response.output.choices[0]['message']['content'],end='')
else:
print('Request id: %s, Status code: %s, error code: %s, error message: %s' % (
response.request_id, response.status_code,
response.code, response.message
))
if __name__ == '__main__':
call_with_stream()
3、Qwen-Long:支持最长1000万tokens
Qwen-Long是在通义千问针对超长上下文处理场景的大语言模型,支持中文、英文等不同语言输入,支持最长1000万tokens(约1500万字或1.5万页文档)的超长上下文对话。配合同步上线的文档服务,可支持word、pdf、markdown、epub、mobi等多种文档格式的解析和对话。 说明:通过HTTP直接提交请求,支持1M tokens长度,超过此长度建议通过文件方式提交。
from openai import OpenAI
client = OpenAI(
api_key="$your-dashscope-api-key", # 替换成真实DashScope的API_KEY
base_url="https://dashscope.aliyuncs.com/compatible-mode/v1", # 填写DashScope服务endpoint
)
completion = client.chat.completions.create(
model="qwen-long",
messages=[
{
'role': 'system',
'content': 'You are a helpful assistant.'
},
{
'role': 'system',
'content': '大型语言模型(llm)已经彻底改变了人工智能领域,使以前被认为是人类独有的自然语言处理任务成为可能...'
},
{
'role': 'user',
'content': '文章讲了什么?'
}
],
stream=True
)
for chunk in completion:
if chunk.choices[0].delta.content is not None:
print(chunk.choices[0].dict())