首页 >后端开发 >Python教程 >使用 Amazon Bedrock Converse API 节省时间!

使用 Amazon Bedrock Converse API 节省时间!

Linda Hamilton
Linda Hamilton原创
2024-12-03 03:40:08267浏览

通过 Bedrock,您可以访问一系列不同的大型语言模型(例如 Claude、Mistral、Llama 和 Amazon Titan),并且随时都有新版本可用。

有选择固然很棒,但必须为每个模型编写不同的请求代码却很痛苦。

这就是为什么在比较不同基础模型的输出时,Amazon Bedrock Converse API 将为您节省大量时间和精力!

一致性是关键!

Converse API 是一个一致的接口,适用于所有支持消息/系统提示的模型。这意味着您只需编写一次代码,即可用它来试验不同的模型。

这是一个说明其工作原理的示例,此练习的成本应

配置模型访问

开始之前,请务必检查您想要使用的模型在您所在的地区是否可用,并且您已启用对它们的访问,这是我正在使用的模型,您可以选择这些模型或选择您自己的模型:
anthropic.claude-v2
anthropic.claude-3-俳句
克劳德 3.5 十四行诗
小米斯特拉尔

Save time with the Amazon Bedrock Converse API!

1) 我们可以使用 AWS 控制台中的 CloudShell 完成所有操作。

Save time with the Amazon Bedrock Converse API!

2) 当 CloudShell 准备就绪后,安装 boto3,它是适用于 Python 的 AWS 开发工具包
pip 安装 boto3

Save time with the Amazon Bedrock Converse API!

3) 从 GitHub 下载名为 converse_demo.py 的文件 您可以使用 wget 并提供文件的原始路径来执行此操作:

wget https://raw.githubusercontent.com/fayekins/demos/refs/heads/main/converse_demo.py

Save time with the Amazon Bedrock Converse API!

converse_demo.py

#first we import boto3 and json 
import boto3, json

#create a boto3 session - stores config state and allows you to create service clients
session = boto3.Session()

#create a Bedrock Runtime Client instance - used to send API calls to AI models in Bedrock
bedrock = session.client(service_name='bedrock-runtime')

#here's our prompt telling the model what we want it to do, we can change this later
system_prompts = [{"text": "You are an app that creates reading lists for book groups."}]

#define an empty message list - to be used to pass the messages to the model
message_list = []

#here’s the message that I want to send to the model, we can change this later if we want
initial_message = {
            "role": "user",
               "content": [{"text": "Create a list of five novels suitable for a book group who are interested in classic novels."}],
               }

#the message above is appended to the message_list
message_list.append(initial_message)

#make an API call to the Bedrock Converse API, we define the model to use, the message, and inference parameters to use as well
response = bedrock.converse(
modelId="anthropic.claude-v2",
messages=message_list,
system=system_prompts,
inferenceConfig={
            "maxTokens": 2048,
            "temperature": 0,
            "topP": 1
            },
)

#invoke converse with all the parameters we provided above and after that, print the result 
response_message = response['output']['message']
print(json.dumps(response_message, indent=4))

4) 像这样运行Python代码:

python converse_demo.py

它应该给你类似这样的输出:

Save time with the Amazon Bedrock Converse API!

5) 我们还可以使用不同的模型运行相同的代码,方法是替换代码中的模型 ID,如下所示:

anthropic.claude-3-haiku-20240307-v1:0

比较第二个模型的输出,略有不同:

Save time with the Amazon Bedrock Converse API!

6) 我们可以用另一个版本再次测试:

anthropic.claude-3-5-sonnet-20240620-v1:0

Save time with the Amazon Bedrock Converse API!

当 Claude 的新版本发布时,我们可以请求访问,然后只需在代码中替换模型的名称即可!

访问被拒绝错误

如果您看到与此类似的错误,则仅意味着您正在尝试使用您尚无权访问的模型。只需请求访问该模型,并在授予访问权限后重试。

Save time with the Amazon Bedrock Converse API!

7) 我还尝试使用不同的模型提供商,将模型 ID 更改为:

mistral.mistral-small-2402-v1:0

Save time with the Amazon Bedrock Converse API!

因此,Converse API 为您提供了一个简单、一致的 API,可与所有支持消息的 Amazon Bedrock 模型配合使用。这意味着您可以编写一次代码并将其与不同的模型一起使用来比较结果!

所以下次您与 Bedrock 合作时,帮自己一个忙,尝试一下 Converse API,稍后再感谢我!

以上是使用 Amazon Bedrock Converse API 节省时间!的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn