提示链正在彻底改变我们与大型语言模型 (LLM) 交互的方式。通过将多个提示链接在一起,我们可以创建复杂、动态的对话并处理复杂的任务。但这种力量确实是有代价的。每次对 LLM 服务(例如 Google 的 Gemini)的 API 调用都会增加您的账单。
许多LLM提供商提供了一个解决方案:批处理。在一个请求中发送多个提示并享受大幅折扣(通常在 50% 左右!)。然而,在提示链工作流程中实现批处理很快就会变成编码噩梦。
想象一下您正在构建一个具有多步骤对话的聊天机器人。使用传统的提示链接,您将发送每条用户消息并等待模型的响应,然后再制定下一个提示。但要利用批量折扣,您需要:
除此之外,您还需要处理速率限制、错误和重试。这可能会导致难以阅读、调试和维护的复杂代码。
GemBatch 是一个 Python 框架,旨在简化与 Google Gemini 的批处理提示链接。它与 Firebase 无缝集成,为您的 LLM 应用程序提供熟悉且可扩展的环境。
以下是 GemBatch 如何让您的生活更轻松:
import gembatch # Define a simple prompt chain def task_a_prompt1(): gembatch.submit( { "contents": [ { "role": "user", "parts": [{"text": "What is the capital of France?"}], } ], }, # prompt 1 "publishers/google/models/gemini-1.5-pro-002", task_a_prompt2 ) def task_a_prompt2(response: generative_models.GenerationResponse): gembatch.submit( { "contents": [ { "role": "model", "parts": [{"text": response.text}], }, { "role": "user", "parts": [{"text": f"And what is the population of {response.text}?"}], } ], }, # prompt 2 "publishers/google/models/gemini-1.5-pro-002", task_a_output ) def task_a_output(response: generative_models.GenerationResponse): print(response.text) # Start the prompt chain task_a_prompt1()
这个简单的示例演示了 Gembatch 如何允许您使用 gembatch.submit() 定义提示链。 Gembatch 负责对 Gemini 的请求进行批处理并管理异步响应。
准备好释放经济高效的提示链的力量了吗?查看 GitHub 上的 Gembatch 存储库:
https://github.com/blueworrybear/gembatch
我们欢迎反馈和建议!
以上是使用 GemBatch 降低提示链接的成本的详细内容。更多信息请关注PHP中文网其他相关文章!