Rumah >pembangunan bahagian belakang >Tutorial Python >ChatsAPI — Rangka Kerja Agen AI Terpantas di Dunia

ChatsAPI — Rangka Kerja Agen AI Terpantas di Dunia

Barbara Streisand
Barbara Streisandasal
2024-12-11 11:26:11547semak imbas

GitHub: https://github.com/chatsapi/ChatsAPI
Perpustakaan: https://pypi.org/project/chatsapi/

Kecerdasan Buatan telah mengubah industri, tetapi melaksanakannya secara berkesan kekal sebagai cabaran yang menggerunkan. Rangka kerja yang kompleks, masa tindak balas yang perlahan dan keluk pembelajaran yang curam mewujudkan halangan untuk perniagaan dan pembangun. Masukkan ChatsAPI — rangka kerja ejen AI berprestasi tinggi yang terobosan yang direka untuk menyampaikan kelajuan, fleksibiliti dan kesederhanaan yang tiada tandingan.

Dalam artikel ini, kami akan mendedahkan perkara yang menjadikan ChatsAPI unik, sebab ia merupakan pengubah permainan dan cara ia memperkasakan pembangun untuk membina sistem pintar dengan kemudahan dan kecekapan yang tiada tandingan.

Apa yang Membuatkan ChatsAPI Unik?

ChatsAPI bukan sekadar rangka kerja AI yang lain; ia merupakan revolusi dalam interaksi dipacu AI. Inilah sebabnya:

  • Prestasi Tiada Tandingan ChatsAPI memanfaatkan pembenaman SBERT, HNSWlib dan Carian Hibrid BM25 untuk menyampaikan sistem padanan pertanyaan terpantas pernah dibina.

Kelajuan: Dengan masa tindak balas sub-milisaat, ChatsAPI ialah rangka kerja ejen AI terpantas di dunia. Carian berkuasa HNSWlib memastikan perolehan laluan dan pengetahuan sepantas kilat, walaupun dengan set data yang besar.

Kecekapan: Pendekatan hibrid SBERT dan BM25 menggabungkan pemahaman semantik dengan sistem kedudukan tradisional, memastikan kedua-dua kelajuan dan ketepatan.

  • Penyatuan Lancar dengan LLM
    ChatsAPI menyokong Model Bahasa Besar (LLM) terkini seperti OpenAI, Gemini, LlamaAPI dan Ollama. Ia memudahkan kerumitan penyepaduan LLM ke dalam aplikasi anda, membolehkan anda menumpukan pada membina pengalaman yang lebih baik.

  • Padanan Laluan Dinamik
    ChatsAPI menggunakan pemahaman bahasa semula jadi (NLU) untuk memadankan pertanyaan pengguna secara dinamik ke laluan yang dipratentukan dengan ketepatan yang tiada tandingan.

Daftar laluan dengan mudah dengan penghias seperti @trigger.

Gunakan pengekstrakan parameter dengan @extract untuk memudahkan pengendalian input, tidak kira betapa rumitnya kes penggunaan anda.

  • Kesederhanaan dalam Reka Bentuk Kami percaya bahawa kuasa dan kesederhanaan boleh wujud bersama. Dengan ChatsAPI, pembangun boleh membina sistem dipacu AI yang mantap dalam beberapa minit. Tiada lagi gusti dengan persediaan atau konfigurasi yang rumit.

Kelebihan ChatsAPI

Pengendalian Pertanyaan Berprestasi Tinggi
Sistem AI tradisional bergelut dengan sama ada kelajuan atau ketepatan — ChatsAPI menyampaikan kedua-duanya. Sama ada mencari padanan terbaik dalam pangkalan pengetahuan yang luas atau mengendalikan jumlah pertanyaan yang tinggi, ChatsAPI cemerlang.

Rangka Kerja Fleksibel
ChatsAPI menyesuaikan diri dengan mana-mana kes penggunaan, sama ada anda sedang membina:

  • Bot sembang sokongan pelanggan.
  • Sistem carian pintar.
  • Pembantu dikuasakan AI untuk e-dagang, penjagaan kesihatan atau pendidikan.

Dibina untuk Pemaju

Direka oleh pembangun, untuk pembangun, tawaran ChatsAPI:

  • Mula Pantas: Sediakan persekitaran anda, tentukan laluan dan buat siaran langsung dalam beberapa langkah sahaja.
  • Penyesuaian: Sesuaikan tingkah laku dengan penghias dan memperhalusi persembahan untuk keperluan khusus anda.
  • Penyepaduan LLM yang Mudah: Bertukar antara LLM yang disokong seperti OpenAI atau Gemini dengan usaha yang minimum.

Bagaimanakah ChatsAPI Berfungsi?

Pada terasnya, ChatsAPI beroperasi melalui proses tiga langkah:

  1. Daftar Laluan: Gunakan penghias @trigger untuk menentukan laluan dan mengaitkannya dengan fungsi anda.
  2. Cari dan Padan: ChatsAPI menggunakan pembenaman SBERT dan Carian Hibrid BM25 untuk memadankan input pengguna dengan laluan yang betul secara dinamik.
  3. Parameter Ekstrak: Dengan penghias @extract, ChatsAPI secara automatik mengekstrak dan mengesahkan parameter, menjadikannya lebih mudah untuk mengendalikan input yang kompleks.

Hasilnya? Sistem yang pantas, tepat dan sangat mudah untuk digunakan.

Kes Penggunaan

  • Sokongan Pelanggan
    Automatikkan interaksi pelanggan dengan penyelesaian pertanyaan yang sangat pantas. ChatsAPI memastikan pengguna mendapat jawapan yang relevan serta-merta, meningkatkan kepuasan dan mengurangkan kos operasi.

  • Carian Pangkalan Pengetahuan
    Memperkasakan pengguna untuk mencari pangkalan pengetahuan yang luas dengan pemahaman semantik. Pendekatan hibrid SBERT-BM25 memastikan hasil yang tepat dan sedar konteks.

  • AI Perbualan
    Bina ejen AI perbualan yang memahami dan menyesuaikan diri dengan input pengguna dalam masa nyata. ChatsAPI disepadukan dengan lancar dengan LLM teratas untuk menyampaikan perbualan semula jadi dan menarik.

Mengapa Anda Perlu Peduli?

Rangka kerja lain menjanjikan fleksibiliti atau prestasi — tetapi tiada satu pun yang boleh menyampaikan kedua-duanya seperti ChatsAPI. Kami telah mencipta rangka kerja iaitu:

  • Lebih pantas daripada yang lain di pasaran.
  • Lebih ringkas untuk disediakan dan digunakan.
  • Lebih Pintar, dengan enjin carian hibrid uniknya yang menggabungkan pendekatan berasaskan semantik dan kata kunci.

ChatsAPI memperkasakan pembangun untuk membuka kunci potensi penuh AI, tanpa kerumitan atau prestasi yang perlahan.

Bagaimana untuk Bermula

Bermula dengan ChatsAPI adalah mudah:

  • Pasang rangka kerja:
pip install chatsapi
  • Tentukan laluan anda:
from chatsapi import ChatsAPI  

chat = ChatsAPI()  

@chat.trigger("Hello")  
async def greet(input_text):  
    return "Hi there!"
  • Ekstrak beberapa data daripada mesej
from chatsapi import ChatsAPI  

chat = ChatsAPI()  

@chat.trigger("Need help with account settings.")
@chat.extract([
    ("account_number", "Account number (a nine digit number)", int, None),
    ("holder_name", "Account holder's name (a person name)", str, None)
])
async def account_help(chat_message: str, extracted: dict):
    return {"message": chat_message, "extracted": extracted}
Run your message (with no LLM)
@app.post("/chat")
async def message(request: RequestModel, response: Response):
    reply = await chat.run(request.message)
    return {"message": reply}
  • Perbualan (dengan LLM) — Contoh Penuh
import os
from dotenv import load_dotenv
from fastapi import FastAPI, Request, Response
from pydantic import BaseModel
from chatsapi.chatsapi import ChatsAPI

# Load environment variables from .env file
load_dotenv()

app = FastAPI()                 # instantiate FastAPI or your web framework
chat = ChatsAPI(                # instantiate ChatsAPI
    llm_type="gemini",
    llm_model="models/gemini-pro",
    llm_api_key=os.getenv("GOOGLE_API_KEY"),
)

# chat trigger - 1
@chat.trigger("Want to cancel a credit card.")
@chat.extract([("card_number", "Credit card number (a 12 digit number)", str, None)])
async def cancel_credit_card(chat_message: str, extracted: dict):
    return {"message": chat_message, "extracted": extracted}

# chat trigger - 2
@chat.trigger("Need help with account settings.")
@chat.extract([
    ("account_number", "Account number (a nine digit number)", int, None),
    ("holder_name", "Account holder's name (a person name)", str, None)
])
async def account_help(chat_message: str, extracted: dict):
    return {"message": chat_message, "extracted": extracted}

# request model
class RequestModel(BaseModel):
    message: str

# chat conversation
@app.post("/chat")
async def message(request: RequestModel, response: Response, http_request: Request):
    session_id = http_request.cookies.get("session_id")
    reply = await chat.conversation(request.message, session_id)

    return {"message": f"{reply}"}

# set chat session
@app.post("/set-session")
def set_session(response: Response):
    session_id = chat.set_session()
    response.set_cookie(key="session_id", value=session_id)
    return {"message": "Session set"}

# end chat session
@app.post("/end-session")
def end_session(response: Response, http_request: Request):
    session_id = http_request.cookies.get("session_id")
    chat.end_session(session_id)
    response.delete_cookie("session_id")
    return {"message": "Session ended"}
  • Laluan yang mematuhi pertanyaan LLM — Pertanyaan Tunggal
await chat.query(request.message)

Penanda aras

Kaedah berasaskan LLM (API) tradisional biasanya mengambil masa kira-kira empat saat bagi setiap permintaan. Sebaliknya, ChatsAPI memproses permintaan dalam masa kurang satu saat, selalunya dalam milisaat, tanpa membuat sebarang panggilan API LLM.

Melaksanakan tugas penghalaan sembang dalam masa 472ms (tiada cache)
ChatsAPI — The World’s Fastest AI Agent Framework

Melaksanakan tugas penghalaan sembang dalam masa 21ms (selepas cache)
ChatsAPI — The World’s Fastest AI Agent Framework

Melakukan tugas pengekstrakan data penghalaan sembang dalam masa 862ms (tiada cache)
ChatsAPI — The World’s Fastest AI Agent Framework

Menunjukkan kebolehan perbualannya dengan WhatsApp Cloud API
ChatsAPI — The World’s Fastest AI Agent Framework

ChatsAPI — Hierarki Ciri
ChatsAPI — The World’s Fastest AI Agent Framework

ChatsAPI bukan sekadar rangka kerja; ia adalah anjakan paradigma dalam cara kita membina dan berinteraksi dengan sistem AI. Dengan menggabungkan kelajuan, ketepatan dan kemudahan penggunaan, ChatsAPI menetapkan penanda aras baharu untuk rangka kerja ejen AI.

Sertai revolusi hari ini dan lihat sebab ChatsAPI mengubah landskap AI.

Bersedia untuk menyelam? Mulakan dengan ChatsAPI sekarang dan alami masa depan pembangunan AI.

Atas ialah kandungan terperinci ChatsAPI — Rangka Kerja Agen AI Terpantas di Dunia. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn