大模型微调之 在亚马逊AWS上实战LlaMA案例(三)

大模型微调之 在亚马逊AWS上实战LlaMA案例(三)
在这里插入图片描述

使用 QLoRA 增强语言模型:Amazon SageMaker 上 LLaMA 2 的高效微调

语言模型在自然语言处理任务中发挥着关键作用,但训练和微调大型模型可能会占用大量内存且耗时。在本文中,将深入研究一种在 Amazon SageMaker 上使用 QLoRA(量化感知低阶适配器调优)来微调语言模型的方法。具体来说,将集中精力微调 LLaMA 2-70B,这是 LLaMA 语言模型的一个变体,它提供了改进的性能,并支持更大的上下文长度窗口。通过利用 Hugging Face Transformers、Accelerate 和 PEFT,可以在语言任务上取得最先进的结果,同时减少内存需求。

运行以下命令安装必要的库:

!pip install "transformers==4.31.0" "datasets[s3]==2.13.0" sagemaker --upgrade --quiet          

登录 Hugging Face 帐户以访问所需资源

!huggingface-cli login --token YOUR_TOKEN      

如果计划在本地环境中使用 Amazon SageMaker,请确保你拥有具有必要权限的 IAM 角色。

加载和准备数据集📑:
在此示例中, 将使用 Databricks Dolly 数据集,其中包含由 Databricks 员工生成的指令跟踪记录。使用 Hugging Face Datasets 库加载数据集

from datasets import load_dataset  
from random import randrange  
  
# Load dataset from the hub  
dataset = load_dataset("databricks/databricks-dolly-15k", split="train")  
  
print(f"Dataset size: {len(dataset)}")  
print(dataset[randrange(len(dataset))]) 

在这里插入图片描述

在这里插入图片描述

该数据集包括带有说明、上下文和响应的示例。 将使用格式化函数将组件组合成单个提示来格式化这些示例

def format_dolly(sample):  
    instruction = f"### Instruction\n{sample['instruction']}"  
    context = f"### Context\n{sample['context']}" if len(sample["context"]) > 0 else None  
    response = f"### Answer\n{sample['response']}"  
    prompt = "\n\n".join([i for i in [instruction, context, response] if i is not None])  
    return prompt      

将使用 Hugging Face Transformers 库对数据集进行标记和分块,以实现高效训练:

from transformers import AutoTokenizer  
  
model_id = "meta-llama/Llama-2-70b-hf"  
tokenizer = AutoTokenizer.from_pretrained(model_id, use_auth_token=True)  
tokenizer.pad_token = tokenizer.eos_token  

在 Amazon SageMaker 上使用 QLoRA 微调 LLaMA 2-70B:

现在,大家可以深入研究微调过程。将利用 QLoRA(一种高效的微调技术)在 Amazon SageMaker 上训练 LLaMA 2-70B。为了实现这一点, 准备了一个名为 run_clm.py 的训练脚本,它使用 PEFT 实现 QLoRA 技术。

为了创建 SageMaker 训练作业, 将使用 HuggingFace Estimator,它处理端到端训练和部署任务。大家将定义超参数并使用必要的配置初始化估计器


import time  
from sagemaker.huggingface import HuggingFace  
from huggingface_hub import HfFolder  
  
# Define Training Job Name  
job_name = f'huggingface-qlora-{time.strftime("%Y-%m-%d-%H-%M-%S")}'  
role = sagemaker.get_execution_role()  
  
# Define hyperparameters for the training job  
hyperparameters ={  
  'model_id': model_id,  
  'dataset_path': '/opt/ml/input/data/training',  
  'epochs': 3,  
  'per_device_train_batch_size': 2,  
  'lr': 2e-4,  
  'hf_token': HfFolder.get_token(),  
  'merge_weights': True,  
}  
  
# Create the HuggingFace Estimator  
huggingface_estimator = HuggingFace(  
    entry_point='run_clm.py',  
    source_dir='scripts',  
    instance_type='ml.g5.4xlarge',  
    instance_count=1,  
    base_job_name=job_name,  
    role=role,  
    volume_size=300,  
    transformers_version='4.28',  
    pytorch_version='1.9.0',  
    py_version='py3',  
    hyperparameters=hyperparameters,  
    environment={"HUGGINGFACE_HUB_CACHE": "/tmp/.cache"},  
)  
  
# Define a data input dictionary with the uploaded S3 URIs  
data = {'training': training_input_path}  
  
# Start the training job  
huggingface_estimator.fit(data, wait=True)    

这段代码是用于在Amazon Web Services (AWS) 的机器学习服务平台Amazon SageMaker上创建和启动一个Hugging Face模型训练作业的Python脚本。以下是与AWS相关的代码的总体说明:

  1. import time
    导入Python的time模块,用于获取当前的时间,这将用于生成训练作业的名称。

  2. from sagemaker.huggingface import HuggingFace
    sagemaker库中导入HuggingFace类。sagemaker是AWS提供的一个模块,用于与SageMaker服务进行交互。

  3. from huggingface_hub import HfFolder
    huggingface_hub模块导入HfFolder类,该模块用于与Hugging Face模型仓库交互。

  4. job_name = f'huggingface-qlora-{time.strftime("%Y-%m-%d-%H-%M-%S")}'
    创建一个格式化的字符串,用于定义训练作业的名称。名称中包含了当前的日期和时间,确保每次运行时作业名称的唯一性。

  5. role = sagemaker.get_execution_role()
    调用sagemaker模块的get_execution_role()函数来获取当前环境的执行角色。这个IAM角色将被赋予SageMaker训练作业所需的权限。

6-15. hyperparameters = {...}
定义一个字典,包含了训练作业的超参数。这些参数将传递给训练脚本,用于调整模型训练过程。

16-28. huggingface_estimator = HuggingFace(...)
实例化HuggingFace类,创建一个Hugging Face模型训练的估计器对象。该对象包含了训练作业的所有配置信息:

  • entry_point: 训练脚本的文件名。
  • source_dir: 包含训练脚本和相关文件的目录。
  • instance_type: 训练时使用的AWS实例类型。
  • instance_count: 训练时使用的实例数量。
  • base_job_name: 训练作业的基础名称。
  • role: 用于训练作业的IAM角色。
  • volume_size: 实例的EBS卷大小。
  • transformers_version, pytorch_version, py_version: 分别指定了transformers库、PyTorch框架和Python解释器的版本。
  • hyperparameters: 传递给训练脚本的超参数字典。
  • environment: 设置环境变量,这里指定了Hugging Face Hub的缓存路径。

29-30. data = {'training': training_input_path}
定义一个字典,用于指定训练数据的位置。training_input_path应该是一个S3 URI,指向存储在Amazon S3上的训练数据。

  1. huggingface_estimator.fit(data, wait=True)
    调用fit方法启动训练作业。data参数指定了训练数据的位置,wait=True参数表示脚本将等待训练作业完成。

这段代码展示了如何使用AWS的SageMaker服务和Hugging Face的库来训练机器学习模型。它利用了AWS的云基础设施和Hugging Face的预训练模型和工具来执行训练任务。

在 Amazon SageMaker 上部署微调的 LLM 2-70B:

微调过程完成后, 可以在 Amazon SageMaker 上部署微调后的 LLaMA 2-70B 模型进行推理。按着这些次序:

通过创建 HuggingFace 模型类来准备部署模型:

from sagemaker.huggingface import HuggingFaceModel  
  
# Create the HuggingFace Model class  
huggingface_model = HuggingFaceModel(  
    model_data=huggingface_estimator.model_data,  
    role=role,  
    transformers_version='4.28',  
    pytorch_version='1.9.0',  
    py_version='py3',  
)   

这段代码是用于在Amazon Web Services (AWS) 的机器学习服务平台Amazon SageMaker上创建一个Hugging Face模型的Python脚本。以下是与AWS相关的代码的总体说明:

  1. from sagemaker.huggingface import HuggingFaceModel
    sagemaker.huggingface模块导入HuggingFaceModel类。sagemaker是AWS提供的一个模块,用于与SageMaker服务进行交互,而HuggingFaceModel类是用于创建和管理Hugging Face模型对象的。

2-7. huggingface_model = HuggingFaceModel( ... )
实例化HuggingFaceModel类,创建一个Hugging Face模型对象。这个对象包含了加载和部署Hugging Face模型所需的配置信息:

  • model_data: 这是指向模型数据的位置的URI,通常是在Amazon S3上的一个路径。huggingface_estimator.model_data是先前训练过程中生成的模型数据, 是一个指向S3上模型文件位置的URI。
  • role: 这是用于模型的AWS Identity and Access Management (IAM) 角色。此角色需要有权限访问S3上的模型数据以及其他任何需要的AWS资源。
  • transformers_version: 指定了Hugging Face的transformers库的版本,这里是’4.28’。这个版本需要与训练模型时使用的版本相匹配。
  • pytorch_version: 指定了PyTorch框架的版本,这里是’1.9.0’。模型需要与特定版本的PyTorch兼容。
  • py_version: 指定了Python解释器的版本,这里是’py3’,表示使用Python 3。

通过创建HuggingFaceModel对象,你可以在SageMaker上部署Hugging Face模型,以便进行推断(inference)。这个对象可以用于创建SageMaker的Endpoint,从而允许应用程序通过这个端点发送数据并接收模型推断结果。

使用 HuggingFace 模型类将模型部署到 SageMaker 端点:

# Deploy the model to a SageMaker endpoint  
predictor = huggingface_model.deploy(  
    initial_instance_count=1,  
    instance_type='ml.m5.large',  
)      

这段代码是用于在Amazon Web Services (AWS) 的机器学习服务平台Amazon SageMaker上部署一个训练好的Hugging Face模型,并创建一个可用于进行实时预测的端点(endpoint)。以下是与AWS相关的代码的详细说明:

  1. predictor = huggingface_model.deploy( ... )
    调用HuggingFaceModel对象的deploy方法来部署模型。这会创建一个SageMaker端点,该端点可以接收输入数据,使用部署的模型进行推断,并返回预测结果。

  2. initial_instance_count=1
    此参数指定了要使用的初始实例数量。在这个例子中,设置为1意味着将启动一个实例来响应预测请求。根据预测负载的需求,可以调整此值以扩展或缩减实例数量。

  3. instance_type='ml.m5.large'
    此参数指定了用于部署模型的EC2实例的类型。在这个例子中,选择了ml.m5.large,这是SageMaker提供的计算优化型实例之一,适合运行机器学习工作负载。实例类型可以根据模型的计算需求和预算进行选择。

部署完成后,predictor对象将代表SageMaker端点,可以通过它来执行预测。通常,这个端点可以被任何可以发送HTTP请求的客户端访问,使得模型的推断服务可以集成到不同的应用程序中。

此外,部署模型到SageMaker端点还涉及一些成本,因为AWS会根据实例的使用时间和存储的数据量来收费。因此,在部署模型时,需要考虑这些因素以优化成本。

需要注意的是,这段代码假定huggingface_model是之前创建的HuggingFaceModel对象,且已经包含了所有必要的配置信息,如模型数据、IAM角色、依赖库版本等。此外,还需要确保所使用的IAM角色具有创建和操作SageMaker端点所需的权限。

通过发送输入文本和接收预测,利用部署的模型进行推理:

# Perform inference using the deployed model  
input_text = "What is the meaning of life?"  
response = predictor.predict(input_text)  
print(response)      

本文 探索了一种在 Amazon SageMaker 上使用 QLoRA 微调语言模型的有效方法。通过利用 Hugging Face Transformers、Accelerate 和 PEFT 的强大功能, 在降低内存需求的同时提高了性能。使用 QLoRA 微调 LLaMA 2-70B 能够在语言任务上取得最先进的结果,同时减少训练时间和成本💰。体验一下,释放微调大型语言模型的潜力!

大模型技术分享

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

《企业级生成式人工智能LLM大模型技术、算法及案例实战》线上高级研修讲座

模块一:Generative AI 原理本质、技术内核及工程实践周期详解
模块二:工业级 Prompting 技术内幕及端到端的基于LLM 的会议助理实战
模块三:三大 Llama 2 模型详解及实战构建安全可靠的智能对话系统
模块四:生产环境下 GenAI/LLMs 的五大核心问题及构建健壮的应用实战
模块五:大模型应用开发技术:Agentic-based 应用技术及案例实战
模块六:LLM 大模型微调及模型 Quantization 技术及案例实战
模块七:大模型高效微调 PEFT 算法、技术、流程及代码实战进阶
模块八:LLM 模型对齐技术、流程及进行文本Toxicity 分析实战
模块九:构建安全的 GenAI/LLMs 核心技术Red Teaming 解密实战
模块十:构建可信赖的企业私有安全大模型Responsible AI 实战 

Llama3关键技术深度解析与构建Responsible AI、算法及开发落地实战

1、Llama开源模型家族大模型技术、工具和多模态详解:学员将深入了解Meta Llama 3的创新之处,比如其在语言模型技术上的突破,并学习到如何在Llama 3中构建trust and safety AI。他们将详细了解Llama 3的五大技术分支及工具,以及如何在AWS上实战Llama指令微调的案例。
2、解密Llama 3 Foundation Model模型结构特色技术及代码实现:深入了解Llama 3中的各种技术,比如Tiktokenizer、KV Cache、Grouped Multi-Query Attention等。通过项目二逐行剖析Llama 3的源码,加深对技术的理解。
3、解密Llama 3 Foundation Model模型结构核心技术及代码实现:SwiGLU Activation Function、FeedForward Block、Encoder Block等。通过项目三学习Llama 3的推理及Inferencing代码,加强对技术的实践理解。
4、基于LangGraph on Llama 3构建Responsible AI实战体验:通过项目四在Llama 3上实战基于LangGraph的Responsible AI项目。他们将了解到LangGraph的三大核心组件、运行机制和流程步骤,从而加强对Responsible AI的实践能力。
5、Llama模型家族构建技术构建安全可信赖企业级AI应用内幕详解:深入了解构建安全可靠的企业级AI应用所需的关键技术,比如Code Llama、Llama Guard等。项目五实战构建安全可靠的对话智能项目升级版,加强对安全性的实践理解。
6、Llama模型家族Fine-tuning技术与算法实战:学员将学习Fine-tuning技术与算法,比如Supervised Fine-Tuning(SFT)、Reward Model技术、PPO算法、DPO算法等。项目六动手实现PPO及DPO算法,加强对算法的理解和应用能力。
7、Llama模型家族基于AI反馈的强化学习技术解密:深入学习Llama模型家族基于AI反馈的强化学习技术,比如RLAIF和RLHF。项目七实战基于RLAIF的Constitutional AI。
8、Llama 3中的DPO原理、算法、组件及具体实现及算法进阶:学习Llama 3中结合使用PPO和DPO算法,剖析DPO的原理和工作机制,详细解析DPO中的关键算法组件,并通过综合项目八从零开始动手实现和测试DPO算法,同时课程将解密DPO进阶技术Iterative DPO及IPO算法。
9、Llama模型家族Safety设计与实现:在这个模块中,学员将学习Llama模型家族的Safety设计与实现,比如Safety in Pretraining、Safety Fine-Tuning等。构建安全可靠的GenAI/LLMs项目开发。
10、Llama 3构建可信赖的企业私有安全大模型Responsible AI系统:构建可信赖的企业私有安全大模型Responsible AI系统,掌握Llama 3的Constitutional AI、Red Teaming。

解码Sora架构、技术及应用

一、为何Sora通往AGI道路的里程碑?
1,探索从大规模语言模型(LLM)到大规模视觉模型(LVM)的关键转变,揭示其在实现通用人工智能(AGI)中的作用。
2,展示Visual Data和Text Data结合的成功案例,解析Sora在此过程中扮演的关键角色。
3,详细介绍Sora如何依据文本指令生成具有三维一致性(3D consistency)的视频内容。 4,解析Sora如何根据图像或视频生成高保真内容的技术路径。
5,探讨Sora在不同应用场景中的实践价值及其面临的挑战和局限性。

二、解码Sora架构原理
1,DiT (Diffusion Transformer)架构详解
2,DiT是如何帮助Sora实现Consistent、Realistic、Imaginative视频内容的?
3,探讨为何选用Transformer作为Diffusion的核心网络,而非技术如U-Net。
4,DiT的Patchification原理及流程,揭示其在处理视频和图像数据中的重要性。
5,Conditional Diffusion过程详解,及其在内容生成过程中的作用。
三、解码Sora关键技术解密
1,Sora如何利用Transformer和Diffusion技术理解物体间的互动,及其对模拟复杂互动场景的重要性。
2,为何说Space-time patches是Sora技术的核心,及其对视频生成能力的提升作用。
3,Spacetime latent patches详解,探讨其在视频压缩和生成中的关键角色。
4,Sora Simulator如何利用Space-time patches构建digital和physical世界,及其对模拟真实世界变化的能力。
5,Sora如何实现faithfully按照用户输入文本而生成内容,探讨背后的技术与创新。
6,Sora为何依据abstract concept而不是依据具体的pixels进行内容生成,及其对模型生成质量与多样性的影响。

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:/a/603625.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

Springboot整合飞书向群组/指定个人发送消息/飞书登录

Springboot整合飞书向群组发送消息 飞书开放平台创建企业自建应用 添加应用能力-机器人 创建完成后,进入应用详情页,可以在首页看到 App Id 和 App Secret 在飞书pc端创建一群机器人 此处可以拿到该机器人的webhook地址,通过https的方式,也可以调用发送…

为什么说RK3562可以碾压PX30?

在如今的科技市场中,处理器的性能直接决定了设备的运行速度和用户体验。今天,我们将对比瑞芯微旗下的两款处理器:PX30与RK3562。RK3562比PX30的性价比究竟高在哪里? PX30 瑞芯微PX30是一款高性能的四核应用处理器,专…

Android单行字符串末尾省略号加icon,图标可点击

如图 设置仅显示单行字符串,末尾用省略号,加跟一个icon,icon可点击 tvName.text "test"val drawable ResourcesCompat.getDrawable(resources, R.mipmap.icon_edit, null)tvName.setCompoundDrawablesWithIntrinsicBounds(null,…

故障——蓝桥杯十三届2022国赛大学B组真题

问题分析 这道题纯数学&#xff0c;考察贝叶斯公式 AC_Code #include <bits/stdc.h> using namespace std; typedef pair<int,double> PI; bool cmp(PI a,PI b){if(a.second!b.second)return a.second>b.second;return a.first<b.first; } int main() {i…

在Leaflet中点对象使用SVG和Canvas两种模式的对比

目录 前言 一、关于SVG和Canvas 1、SVG知识 2、Canvas知识 3、优缺点 二、SVG和Canvas在Leaflet的使用 1、相关类图 2、Leaflet的默认展示方式 三、SVG和Canvas实例及性能对比 1、SVG模式及性能对比 2、Canvas优化 总结 前言 众所周知&#xff0c;在Leaflet当中&#…

vue3配置element-plus时间选择器中文显示

修改main.js import ElementPlus from element-plus import element-plus/dist/index.css // 引入中文包 import zhCn from "element-plus/es/locale/lang/zh-cn"; const app createApp(App) app.use(ElementPlus,{ locale: zhCn, }) //挂载 app.mount(#app)

白盒测试:覆盖测试及测试用例设计

白盒测试&#xff1a;覆盖测试及测试用例设计 一、实验目的 1、掌握白盒测试的概念。 2、掌握逻辑覆盖法。 二、实验任务 某工资计算程序功能如下&#xff1a;若雇员月工作小时超过40小时&#xff0c;则超过部分按原小时工资的1.5倍的加班工资来计算。若雇员月工作小时超过…

数据库系统理论——关系数据库

文章目录 一、关系&#xff08;数据结构&#xff09;1、概述2、名词解释3、关系模式、关系数据库、关系数据库模式4、基本关系的性质 二、关系操作&#xff08;数据操作&#xff09;三、关系的完整性1、实体完整性2 、参照完整性3、用户自定义的完整性 四、关系代数五、习题 前…

Twitch赠送暗区突围测试资格 超简单暗区突围测试资格领取教程

作为直播界的领航者&#xff0c;Twitch平台不仅是全球游戏文化直播的中心舞台&#xff0c;更是频繁联袂各路游戏大作&#xff0c;为粉丝们奉上别具匠心的互动盛宴&#xff0c;让观赛的同时解锁诱人的游戏内惊喜。正值《暗区突围》PC版测试的热潮涌动&#xff0c;Twitch乘势加强…

详细分析McCabe环路复杂度(附例题)

目录 前言1. 基本知识2. 例题 前言 该知识点常出在408或者软考中&#xff0c;对此此文重点讲讲理论知识以及例题 对于例题平时看到也会更新 1. 基本知识 McCabe环路复杂度是一种用于衡量软件代码复杂性的指标&#xff0c;主要是通过计算代码中的控制流图中的环路数量来衡量…

华为数据之道第一部分导读

目录 导读 第一部分 序 第1章 数据驱动的企业数字化转型 非数字原生企业的数字化转型挑战 业态特征&#xff1a;产业链条长、多业态并存 运营环境&#xff1a;数据交互和共享风险高 IT建设过程&#xff1a;数据复杂、历史包袱重 数据质量&#xff1a;数据可信和一致化…

逆向中webpack需要补充的模块很多怎么办

如下面这种典型的形式 进入i找到加载器 找到加载器所在函数r,在 return e[a].call(c.exports, c, c.exports, r),打上断点。 在控制台打印e,会发现它总共有的模块&#xff0c;这些模块需要我们在别的webpack中复制&#xff0c;有时很多&#xff0c;很麻烦。 我们可以注入代码在…

es6语法总结

【1】语法 &#xff08;1&#xff09;声明变量(let-var-const) 变量提升&#xff1a; 是JavaScript引擎在代码执行前将变量的声明部分提升到作用域顶部的行为。尽管变量的声明被提升了&#xff0c;变量的赋值&#xff08;即初始化&#xff09;仍然保留在原来的位置。因此&…

紫外激光打标机适合在哪些材料表面进行标记

紫外激光打标机适合在多种材料表面进行标记&#xff0c;特别是那些对热敏感或者需要高精度、高清晰度标记的材料。以下是一些常见的适用材料&#xff1a; 1. 塑料&#xff1a;紫外激光打标机在塑料材料上表现尤为出色&#xff0c;因为紫外激光的短波长和高能量密度使得它能够在…

基于树莓派的六足机器人方案设计+源代码+工程内容说明

文章目录 源代码下载地址项目介绍项目内容说明简单预览 项目备注源代码下载地址 源代码下载地址 点击这里下载源码 项目介绍 项目内容说明 hardware为项目相关硬件设计 机械结构为六足机器人的3d建模工程&#xff0c;包括本体和云台遥控器在ESP32最小开发板上集成了MPU605…

ChatGPT DALL-E绘图,制作各种表情包,实现穿衣风格的自由切换

DALL-E绘图功能探索&#xff1a; 1、保持人物形象一致&#xff0c;适配更多的表情、动作 2、改变穿衣风格 3、小女孩的不同年龄段展示 4、不同社交平台的个性头像创作 如果不会写代码&#xff0c;可以问GPT。使用地址&#xff1a;我的GPT4 视频&#xff0c;B站会发&#…

茅台申购,多平台签到与通知 | 使用极空间NAS部署一个神级脚本『DailyCheckIn』

茅台申购&#xff0c;多平台签到与通知 | 使用极空间NAS部署一个神级脚本『DailyCheckIn』 哈喽小伙伴们好&#xff0c;我是Stark-C~&#xff0c;今天为大家分享一个极空间上非常实用且好玩的项目。 小伙伴们都知道&#xff0c;目前很多平台为了促进用户的活跃度和黏性&#…

ENVI拓展工具资源去哪里找

ENVI拓展工具资源去哪里找&#xff1f; 文章目录 ENVI拓展工具资源去哪里找&#xff1f;前言网站&#xff08;链接见文末&#xff09;ENVI应用商店&#xff08;App Store&#xff09;ENVI官方提供第三方制作自己制作 总结参考 前言 ENVI 拓展工具是指 ENVI 软件的扩展功能或插…

WordPress插件:链接自动识别转为超链接

WordPress插件&#xff1a;链接自动识别转为超链接 <?phpfunction open_links_in_new_tab() {add_filter(the_content, make_clickable);function autoblank($text) {$return str_replace(<a, <a target"_blank", $text);return $return;}add_filter(th…

海外市场成 ISV 新掘金地?生成式 AI 如何加速业务创新实践?Zilliz 有话说

期望了解 Zilliz 最新动态&#xff1f;想要与 Zilliz 线下探讨 AI 时代向量数据库的全球化布局思考及典型实践&#xff1f; 机会来啦&#xff01;5 月 10 日&#xff0c;Zilliz 将闪现亚马逊云科技的两场活动现场&#xff08;苏州、西安&#xff09;&#xff0c;与大家共话行业…