将 Amazon Titan Text Premier 模型与 langchaingo 包结合使用
在本博客中,我将引导您了解如何通过 langchaingo 在 Go 应用程序中使用 Amazon Titan Text Premier 模型,langchaingo 是 langchain 的 Go 端口(最初是为 Python 和 JS/TS 编写的)。
Amazon Titan Text Premier 是 Amazon Titan Text 系列中的高级法学硕士。它适用于各种任务,包括 RAG、代理、聊天、思想链、开放式文本生成、头脑风暴、总结、代码生成、表格创建、数据格式化、释义、重写、提取和问答。 Titan Text Premier 还针对与 Amazon Bedrock 的代理和知识库集成进行了优化。
让我们从一个例子开始。
请参阅本博文中的**开始之前*部分,以完成运行示例的先决条件。这包括安装 Go、配置 Amazon Bedrock 访问以及提供必要的 IAM 权限。*
完整代码可以参考这里。运行示例:
git clone https://github.com/abhirockzz/titan-premier-bedrock-go cd titan-premier-bedrock-go go run basic/main.go
针对“用 100 个单词或更少的内容解释 AI”提示,我得到了以下回复,但您的情况可能有所不同:
Artificial Intelligence (AI) is a branch of computer science that focuses on creating intelligent machines that can think, learn, and act like humans. It uses advanced algorithms and machine learning techniques to enable computers to recognize patterns, make decisions, and solve problems. AI has the potential to revolutionize various industries, including healthcare, finance, transportation, and entertainment, by automating tasks, improving efficiency, and providing personalized experiences. However, there are also concerns about the ethical implications and potential risks associated with AI, such as job displacement, privacy, and bias.
以下是代码的快速浏览:
我们首先实例化 bedrockruntime.Client:
cfg, err := config.LoadDefaultConfig(context.Background(), config.WithRegion(region)) client = bedrockruntime.NewFromConfig(cfg)
我们使用它来创建 langchaingo llm.Model 实例 - 请注意,我们指定的 modelID 是 Titan Text Premier 的 modelID,即 amazon.titan-text-premier-v1:0。
llm, err := bedrock.New(bedrock.WithClient(client), bedrock.WithModel(modelID))
我们创建一个 llms.MessageContent,LLM 调用由 llm.GenerateContent 完成。请注意,您不必考虑 Titan Text Premier 特定请求/响应有效负载 - 这是由 langchaingo 抽象的:
msg := []llms.MessageContent{ { Role: llms.ChatMessageTypeHuman, Parts: []llms.ContentPart{ llms.TextPart("Explain AI in 100 words or less."), }, }, } resp, err := llm.GenerateContent(context.Background(), msg, llms.WithMaxTokens(maxTokenCountLimitForTitanTextPremier))
这也是一个很常见的场景。 langchaingo 支持多种类型,包括文本、PDF、HTML(甚至 Notion!)。
完整代码可以参考这里。要运行此示例:
go run doc-chat/main.go
该示例使用 Amazon Bedrock 用户指南中的此页面作为源文档 (HTML),但您可以随意使用任何其他来源:
export SOURCE_URL=<enter URL> go run doc-chat/main.go
系统应该提示您输入问题:
loaded content from https://docs.aws.amazon.com/bedrock/latest/userguide/model-ids.html Enter your message:
我尝试了这些问题并得到了相当准确的答案:
1. tell me the names of the supported providers 2. tell me the model ID for titan text premier 3. give me the list of Amazon Titan family of models 4. What is the titan text premier model ID for a provisioned throughput customer?
顺便说一下,Amazon Bedrock 本身也提供了“与文档聊天”功能。
让我们快速浏览一下代码。我们首先从源 URL 加载内容:
func getDocs(link string) []schema.Document { //... resp, err := http.Get(link) docs, err := documentloaders.NewHTML(resp.Body).Load(context.Background()) return docs }
然后,我们使用简单的 for 循环开始对话:
//... for { fmt.Print("\nEnter your message: ") input, _ := reader.ReadString('\n') input = strings.TrimSpace(input) answer, err := chains.Call( context.Background(), docChainWithCustomPrompt(llm), map[string]any{ "input_documents": docs, "question": input, }, chains.WithMaxTokens(maxTokenCountLimitForTitanTextPremier)) //... }
我们使用的链是使用自定义提示创建的(基于此指南) - 我们覆盖 langchaingo 中的默认行为:
func docChainWithCustomPrompt(llm *bedrock_llm.LLM) chains.Chain { ragPromptTemplate := prompts.NewPromptTemplate( promptTemplateString, []string{"context", "question"}, ) qaPromptSelector := chains.ConditionalPromptSelector{ DefaultPrompt: ragPromptTemplate, } prompt := qaPromptSelector.GetPrompt(llm) llmChain := chains.NewLLMChain(llm, prompt) return chains.NewStuffDocuments(llmChain) }
现在来看最后一个例子 - 另一个流行的用例。
我之前介绍过如何在 Go 应用程序中使用 RAG。这次我们将使用:
启动 Docker 容器:
docker run --name pgvector --rm -it -p 5432:5432 -e POSTGRES_USER=postgres -e POSTGRES_PASSWORD=postgres ankane/pgvector
通过从不同的终端登录 PostgreSQL(使用 psql)来激活 pgvector 扩展:
# enter postgres when prompted for password psql -h localhost -U postgres -W CREATE EXTENSION IF NOT EXISTS vector;
完整代码可以参考这里。要运行此示例:
go run rag/main.go
该示例使用 Amazon Bedrock Studio 页面作为源文档 (HTML),但您可以随意使用任何其他源:
export SOURCE_URL=<enter URL> go run rag/main.go
您应该看到输出,并提示输入您的问题。我尝试过这些:
what is bedrock studio? how do I enable bedrock studio?
像往常一样,让我们看看发生了什么。数据加载的方式与以前类似,对话也同样如此(for 循环):
for { fmt.Print("\nEnter your message: ") question, _ := reader.ReadString('\n') question = strings.TrimSpace(question) result, err := chains.Run( context.Background(), retrievalQAChainWithCustomPrompt(llm, vectorstores.ToRetriever(store, numOfResults)), question, chains.WithMaxTokens(maxTokenCountLimitForTitanTextPremier), ) //.... }
RAG 部分略有不同。我们使用带有自定义提示的 RetrievelQA 链(类似于 Amazon Bedrock 知识库使用的提示):
func retrievalQAChainWithCustomPrompt(llm *bedrock_llm.LLM, retriever vectorstores.Retriever) chains.Chain { ragPromptTemplate := prompts.NewPromptTemplate( ragPromptTemplateString, []string{"context", "question"}, ) qaPromptSelector := chains.ConditionalPromptSelector{ DefaultPrompt: ragPromptTemplate, } prompt := qaPromptSelector.GetPrompt(llm) llmChain := chains.NewLLMChain(llm, prompt) stuffDocsChain := chains.NewStuffDocuments(llmChain) return chains.NewRetrievalQA( stuffDocsChain, retriever, ) }
我介绍了 Amazon Titan Text Premier,它是 Titan 系列中的多种文本生成模型之一。除了文本生成之外,Amazon Titan 还具有嵌入模型(文本和多模式)和图像生成。您可以通过探索 Amazon Bedrock 文档中的所有内容来了解更多信息。快乐建造!
以上是使用 Amazon Titan Text Premier 模型在 Go 中构建生成式 AI 应用程序的详细内容。更多信息请关注PHP中文网其他相关文章!