首页 >后端开发 >Python教程 >ChatsAPI — 世界上最快的人工智能代理框架

ChatsAPI — 世界上最快的人工智能代理框架

Barbara Streisand
Barbara Streisand原创
2024-12-11 11:26:11539浏览

GitHub: https://github.com/chatsapi/ChatsAPI
图书馆: https://pypi.org/project/chatsapi/

人工智能已经改变了各行各业,但有效部署人工智能仍然是一项艰巨的挑战。复杂的框架、缓慢的响应时间和陡峭的学习曲线给企业和开发人员带来了障碍。 ChatsAPI 是一个突破性的高性能 AI 代理框架,旨在提供无与伦比的速度、灵活性和简单性。

在本文中,我们将揭示 ChatsAPI 的独特之处、为何它能够改变游戏规则,以及它如何帮助开发人员以无与伦比的轻松性和效率构建智能系统。

ChatsAPI 有何独特之处?

ChatsAPI 不仅仅是另一个人工智能框架;这是人工智能驱动交互的一场革命。原因如下:

  • 无与伦比的性能 ChatsAPI 利用 SBERT 嵌入、HNSWlib 和 BM25 混合搜索来提供有史以来最快的查询匹配系统。

速度:ChatsAPI 的响应时间为亚毫秒级,是世界上最快的人工智能代理框架。其 HNSWlib 支持的搜索可确保快速检索路线和知识,即使对于大型数据集也是如此。

效率:SBERT 和 BM25 的混合方法将语义理解与传统排名系统结合起来,保证速度和准确性。

  • 与法学硕士无缝集成
    ChatsAPI 支持最先进的大型语言模型 (LLM),例如 OpenAI、Gemini、LlamaAPI 和 Ollama。它简化了将法学硕士集成到您的应用程序中的复杂性,使您能够专注于构建更好的体验。

  • 动态路由匹配
    ChatsAPI 使用自然语言理解 (NLU) 以无与伦比的精度将用户查询与预定义路由动态匹配。

使用 @trigger 等装饰器轻松注册路线。

使用 @extract 进行参数提取来简化输入处理,无论您的用例有多复杂。

  • 设计简单 我们相信强大和简单可以共存。借助 ChatsAPI,开发人员可以在几分钟内构建强大的人工智能驱动系统。无需再为复杂的设置或配置而苦恼。

ChatsAPI的优点

高性能查询处理
传统的人工智能系统要么在速度上要么在准确性上苦苦挣扎,而 ChatsAPI 却同时满足了这两点。无论是在庞大的知识库中寻找最佳匹配,还是处理大量查询,ChatsAPI 都表现出色。

灵活的框架
ChatsAPI 适应任何用例,无论您正在构建:

  • 客户支持聊天机器人。
  • 智能搜索系统。
  • 人工智能驱动的电子商务、医疗保健或教育助手。

为开发者打造

由开发者设计,为开发者服务,ChatsAPI 提供:

  • 快速入门:只需几个步骤即可设置环境、定义路线并上线。
  • 定制:使用装饰器定制行为并根据您的特定需求微调性能。
  • 轻松的 LLM 集成:轻松在 OpenAI 或 Gemini 等受支持的 LLM 之间切换。

ChatsAPI 如何工作?

ChatsAPI 的核心是通过三个步骤进行操作:

  1. 注册路由:使用@trigger装饰器定义路由并将它们与您的函数关联。
  2. 搜索和匹配:ChatsAPI 使用 SBERT 嵌入和 BM25 混合搜索将用户输入与正确的路线动态匹配。
  3. 提取参数:通过@extract装饰器,ChatsAPI自动提取并验证参数,更容易处理复杂的输入。

结果呢?一个快速、准确且易于使用的系统。

使用案例

  • 客户支持
    通过极快的查询解析来自动化客户交互。 ChatsAPI 确保用户立即获得相关答案,提高满意度并降低运营成本。

  • 知识库搜索
    使用户能够通过语义理解搜索大量知识库。混合 SBERT-BM25 方法可确保准确、上下文感知的结果。

  • 对话式人工智能
    构建能够实时理解并适应用户输入的对话式人工智能代理。 ChatsAPI 与顶级法学硕士无缝集成,提供自然、引人入胜的对话。

为什么你应该关心?

其他框架承诺灵活性或性能 - 但没有一个框架能够像 ChatsAPI 一样同时提供这两者。我们创建了一个框架:

  • 比市场上任何其他产品都快
  • 更简单设置和使用。
  • 更智能,其独特的混合搜索引擎融合了语义和基于关键字的方法。

ChatsAPI 使开发人员能够释放人工智能的全部潜力,而无需担心复杂性或性能缓慢的问题。

如何开始

ChatsAPI 入门很简单:

  • 安装框架:
pip install chatsapi
  • 定义您的路线:
from chatsapi import ChatsAPI  

chat = ChatsAPI()  

@chat.trigger("Hello")  
async def greet(input_text):  
    return "Hi there!"
  • 从消息中提取一些数据
from chatsapi import ChatsAPI  

chat = ChatsAPI()  

@chat.trigger("Need help with account settings.")
@chat.extract([
    ("account_number", "Account number (a nine digit number)", int, None),
    ("holder_name", "Account holder's name (a person name)", str, None)
])
async def account_help(chat_message: str, extracted: dict):
    return {"message": chat_message, "extracted": extracted}
Run your message (with no LLM)
@app.post("/chat")
async def message(request: RequestModel, response: Response):
    reply = await chat.run(request.message)
    return {"message": reply}
  • 对话(与法学硕士)——完整示例
import os
from dotenv import load_dotenv
from fastapi import FastAPI, Request, Response
from pydantic import BaseModel
from chatsapi.chatsapi import ChatsAPI

# Load environment variables from .env file
load_dotenv()

app = FastAPI()                 # instantiate FastAPI or your web framework
chat = ChatsAPI(                # instantiate ChatsAPI
    llm_type="gemini",
    llm_model="models/gemini-pro",
    llm_api_key=os.getenv("GOOGLE_API_KEY"),
)

# chat trigger - 1
@chat.trigger("Want to cancel a credit card.")
@chat.extract([("card_number", "Credit card number (a 12 digit number)", str, None)])
async def cancel_credit_card(chat_message: str, extracted: dict):
    return {"message": chat_message, "extracted": extracted}

# chat trigger - 2
@chat.trigger("Need help with account settings.")
@chat.extract([
    ("account_number", "Account number (a nine digit number)", int, None),
    ("holder_name", "Account holder's name (a person name)", str, None)
])
async def account_help(chat_message: str, extracted: dict):
    return {"message": chat_message, "extracted": extracted}

# request model
class RequestModel(BaseModel):
    message: str

# chat conversation
@app.post("/chat")
async def message(request: RequestModel, response: Response, http_request: Request):
    session_id = http_request.cookies.get("session_id")
    reply = await chat.conversation(request.message, session_id)

    return {"message": f"{reply}"}

# set chat session
@app.post("/set-session")
def set_session(response: Response):
    session_id = chat.set_session()
    response.set_cookie(key="session_id", value=session_id)
    return {"message": "Session set"}

# end chat session
@app.post("/end-session")
def end_session(response: Response, http_request: Request):
    session_id = http_request.cookies.get("session_id")
    chat.end_session(session_id)
    response.delete_cookie("session_id")
    return {"message": "Session ended"}
  • 遵循 LLM 查询的路由 — 单个查询
await chat.query(request.message)

基准测试

基于传统 LLM (API) 的方法通常每个请求需要大约四秒的时间。相比之下,ChatsAPI 可以在一秒内处理请求,通常在几毫秒内,无需进行任何 LLM API 调用。

472ms内执行聊天路由任务(无缓存)
ChatsAPI — The World’s Fastest AI Agent Framework

21ms内执行聊天路由任务(缓存后)
ChatsAPI — The World’s Fastest AI Agent Framework

862ms内执行聊天路由数据提取任务(无缓存)
ChatsAPI — The World’s Fastest AI Agent Framework

使用 WhatsApp Cloud API 展示其对话能力
ChatsAPI — The World’s Fastest AI Agent Framework

ChatsAPI — 功能层次结构
ChatsAPI — The World’s Fastest AI Agent Framework

ChatsAPI 不仅仅是一个框架;这是我们构建人工智能系统并与之交互的方式的范式转变。通过结合速度、准确性和易用性,ChatsAPI 为 AI 代理框架树立了新基准。

立即加入这场革命,了解 ChatsAPI 为何正在改变 AI 格局。

准备好潜水了吗?立即开始使用 ChatsAPI,体验 AI 开发的未来。

以上是ChatsAPI — 世界上最快的人工智能代理框架的详细内容。更多信息请关注PHP中文网其他相关文章!

声明:
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn