小李哥今天带大家继续学习在国际主流云计算平台亚马逊云科技AWS上开发生成式AI软件应用方案。上一篇文章我们为大家介绍了,如何在亚马逊云科技上利用Amazon SageMaker搭建、部署和测试开源模型Llama 7B。下面我将会带大家探索如何搭建高扩展性、高可用的完全托管云原生基础设施,让终端用户通过云平台访问到部署的开源AI大语言模型。下面就是小李哥做的一个简单Meta Llama 7B问答聊天机器人界面。
这是小李哥的AWS生成式AI云计算架构介绍第二篇文章,在这个系列里我会带大家介绍所有的方案技术讲解、具体的操作细节和分享项目的代码,目的就是为了帮助大家0基础即可上手国际最热门的云计算平台亚马逊云科技AWS。也欢迎大家关注小李哥,以免错过本系列中其他的优质GenAI解决方案。
首先我们看架构图:
方案架构图:
涉及到的亚马逊云科技云计算服务:
本云原生方案包含了多个热门的云原生、全托管的亚马逊云科技服务,涉及网络、开发、计算和存储。全部的服务列表如下:
1. 网络CDN加速:Amazon CloudFront
Amazon CloudFront 是一种内容分发网络 (CDN) 服务,能够快速将数据、视频、应用程序和API安全地传递给全球客户。其优势在于通过分布在全球的边缘位置提供低延迟和高传输速度,同时具备与AWS服务的无缝集成,确保安全和高性能的内容交付。
2. 前端页面托管服务器: Amazon S3
Amazon S3(Simple Storage Service)是一个高度可扩展的对象存储服务,适用于存储和检索任何数量的数据。其优势在于提供11个9的数据持久性和冗余存储,确保前端页面的高可用性和快速访问,并且支持静态网站托管,简化了网站的部署和管理。
3. API对外网关节点:Amazon API Gateway
Amazon API Gateway 是一种完全托管的服务,使开发者能够轻松创建、发布、维护、监控和保护API。其优势在于可以处理成千上万的并发API调用,确保API的高可用性和低延迟,并且与AWS Lambda无缝集成,实现真正的无服务器架构。
4. 云原生Serverless代码托管服务: AWS Lambda
AWS Lambda 是一种无服务器计算服务,允许用户运行代码而无需预置或管理服务器。其优势在于自动扩展并仅在代码运行时计费,降低了运营成本。Lambda与其他AWS服务深度集成,简化了事件驱动架构的实现,提升了应用程序的灵活性和响应能力。
搭建云原生Serverless应用的具体步骤:
1. 首先我们打开AWS控制台,进入Lambda,点击我们的Lambda函数“endpoint_test_function”
2. 接着我们进入Lambda配置页面,配置Lambda函数
3. 点击“Edit”修改Lambda函数的基础配置
4.修改Timeout时间到1分钟。Lambda的timeout配置是函数处理请求的超时时间限额,Lamda可配置的最长超时时间为15分钟,默认时间是3秒,我们需要根据我们的代码运行时间进行对应修改。
5. 接下来,我们为lamda函数中的代码配置环境变量,点击“Edit”
6. 我们将前一篇文章中,最后一步获取的AI大语言模型API节点URL复制到Value部分。
7.接下来我们进入Lambda中查看调用AI大语言模型的Python代码。小李哥将代码分享给大家,方便大家动手实践。
# Import necessary libraries
import json
import boto3
import os
import re
import logging
# Set up logging
logger = logging.getLogger()
logger.setLevel(logging.INFO)
# Create a SageMaker client
sagemaker_client = boto3.client("sagemaker-runtime")
# Define Lambda function
def lambda_handler(event, context):
# Log the incoming event in JSON format
logger.info('Event: %s', json.dumps(event))
# Clean the body of the event: remove excess spaces and newline characters
cleaned_body = re.sub(r'\s+', ' ', event['body']).replace('\n', '')
# Log the cleaned body
logger.info('Cleaned body: %s', cleaned_body)
# Invoke the SageMaker endpoint with the cleaned body as payload and content type as JSON
response = sagemaker_client.invoke_endpoint(
EndpointName=os.environ["ENDPOINT_NAME"],
ContentType="application/json",
Body=cleaned_body
)
# Load the response body and decode it
result = json.loads(response["Body"].read().decode())
# Return the result with status code 200 and the necessary headers
return {
'statusCode': 200,
'headers': {
'Access-Control-Allow-Headers': 'Content-Type',
'Access-Control-Allow-Origin': '*',
'Access-Control-Allow-Methods': 'OPTIONS,POST'
},
'body': json.dumps(result)
}
代码解释:
第26行到第34行之间的代码
这段代码使用请求体调用SageMaker端点,然后保存响应。
第33行到第45行之间的代码
这段代码解码接收到的响应,并以结构化的JSON格式返回。
提供了状态码200以及必要的头信息(主要用于CORS)。
8. 接下来我们进入S3存储桶查看前端代码。
前端代码如下:
<!DOCTYPE html>
<html>
<head>
<title>Introduction to Generative AI</title>
<style>
body {
font-family: Amazon Ember, sans-serif;
margin: 0;
padding: 0;
background: #f4f4f4;
}
.container {
width: 80%;
margin: auto;
overflow: hidden;
}
#apiForm, #response {
background: #fff;
margin: 20px 0;
padding: 20px;
border: 1px solid #ddd;
border-radius: 5px;
}
#apiForm label, #response label {
display: block;
margin-bottom: 5px;
}
#apiForm input[type="text"], #apiForm textarea, #response textarea {
width: 100%;
padding: 10px;
margin-bottom: 20px;
border-radius: 5px;
border: 1px solid #ddd;
box-sizing: border-box;
}
#apiForm button {
padding: 10px 20px;
background: #009578;
color: #fff;
border: none;
border-radius: 5px;
cursor: pointer;
}
h2, h5 {
text-align: center;
}
</style>
</head>
<body>
<div class="container">
<h2>Introduction to Generative AI</h2>
<div id="apiForm">
<label for="apiGatewayUrl">API Gateway URL:</label>
<input type="text" id="apiGatewayUrl">
<label for="content">Prompt:</label>
<textarea id="content" rows="10"></textarea>
<button onclick="callApi()">Generate</button>
</div>
<div id="response">
<label for="output">Output:</label>
<textarea id="output" rows="10" readonly></textarea>
</div>
<h5><i>Please note: As with all AI-powered applications, outputs should be reviewed for accuracy and appropriateness.</i></h5>
</div>
<script>
function callApi() {
var apiGatewayUrl = document.getElementById('apiGatewayUrl').value;
var content = document.getElementById('content').value;
fetch(apiGatewayUrl, {
method: 'POST',
headers: {
'Content-Type': 'application/json'
},
body: JSON.stringify({ inputs: content, parameters: { 'max_new_tokens': 400} })
})
.then(response => {
if (!response.ok) {
throw new Error(`HTTP error! status: ${response.status}`);
}
return response.json();
})
.then(data => {
if(data && data[0] && data[0].generated_text){
document.getElementById('output').value = data[0].generated_text;
} else {
throw new Error('Response is not in the expected format');
}
})
.catch((error) => {
console.error('Error:', error);
alert('An error occurred: ' + error.message);
});
}
</script>
</body>
</html>
9. 下面我们在AWS CDN Cloudfront中获取问答机器人UI的URL
10. 将URL复制到浏览器中,打开后出现问答机器人的UI。这里需要我们获取一个API Gateway的URL。
11. 我们进入到API Gateway中,获取Invoke URL
12. 最后如下图所示,填入Invoke URL和大家想问的问题,就可以得到Llama 7B的模型回复了。