>  기사  >  백엔드 개발  >  여러 코드로 서버리스 OpenAI 앱 구축 및 배포

여러 코드로 서버리스 OpenAI 앱 구축 및 배포

Susan Sarandon
Susan Sarandon원래의
2024-10-09 06:11:02269검색

Build & Deploy a Serverless OpenAI App in ines of Code

? 대화형 AI 앱을 구축하고 배포하고 싶으신가요 ?? ??? ???????? 그냥 에? ????? ?? ?????

이 튜토리얼에서는 LlamaIndex를 사용하여 Q&A 엔진을 만들고 FastAPI를 사용하여 HTTP를 통해 제공하며 DBOS를 사용하여 서버 없이 클라우드에 배포합니다.

LlamaIndex의 5줄 스타터를 기반으로 하며 클라우드 지원을 위해 4줄만 추가하면 됩니다. 간단하고 빠르며 확장이 가능합니다!

준비

먼저 앱 폴더를 생성하고 가상 환경을 활성화하세요.

python3 -m venv ai-app/.venv
cd ai-app
source .venv/bin/activate
touch main.py

그런 다음 종속성을 설치하고 DBOS 구성 파일을 초기화합니다.

pip install dbos llama-index
dbos init --config

다음으로 이 앱을 실행하려면 OpenAI 개발자 계정이 필요합니다. 여기에서 API 키를 받으세요. API 키를 환경 변수로 설정하세요.

export OPENAI_API_KEY=XXXXX

dbos-config.yaml에서 환경 변수를 선언합니다.

env:
  OPENAI_API_KEY: ${OPENAI_API_KEY}

마지막으로 데이터를 다운로드해 보겠습니다. 이 앱은 Paul Graham의 "What I Worked On"의 텍스트를 사용합니다. 이 링크에서 텍스트를 다운로드하여 앱 폴더의 data/paul_graham_essay.txt에 저장할 수 있습니다.

이제 앱 폴더 구조는 다음과 같습니다.

ai-app/
├── dbos-config.yaml
├── main.py
└── data/
    └── paul_graham_essay.txt

데이터 로드 및 Q&A 엔진 구축

이제 LlamaIndex를 사용하여 단 5줄의 코드로 간단한 AI 애플리케이션을 작성해 보겠습니다.
main.py에 다음 코드를 추가하세요.

from llama_index.core import VectorStoreIndex, SimpleDirectoryReader

documents = SimpleDirectoryReader("data").load_data()
index = VectorStoreIndex.from_documents(documents)

query_engine = index.as_query_engine()
response = query_engine.query("What did the author do growing up?")
print(response)

이 스크립트는 데이터를 로드하고 data/ 폴더 아래 문서에 대한 색인을 생성하며, 색인을 쿼리하여 답변을 생성합니다. 이 스크립트를 실행하면 다음과 같은 응답을 받게 됩니다.

$ python3 main.py

The author worked on writing short stories and programming...

HTTP 제공

이제 HTTP를 통해 응답을 제공하기 위해 FastAPI 엔드포인트를 추가해 보겠습니다. main.py를 다음과 같이 수정하세요.

from llama_index.core import VectorStoreIndex, SimpleDirectoryReader
from fastapi import FastAPI

app = FastAPI()

documents = SimpleDirectoryReader("data").load_data()
index = VectorStoreIndex.from_documents(documents)
query_engine = index.as_query_engine()

@app.get("/")
def get_answer():
    response = query_engine.query("What did the author do growing up?")
    return str(response)

이제 fastapi run main.py를 사용하여 앱을 시작할 수 있습니다. 작동하는지 확인하려면 다음 URL을 방문하세요: http://localhost:8000

브라우저 창을 새로 고칠 때마다 결과가 조금씩 다를 수 있습니다!

DBOS 클라우드에서 호스팅

앱을 DBOS Cloud에 배포하려면 main.py에 두 줄만 추가하면 됩니다.

  • dbos에서 DBOS 가져오기
  • DBOS(fastapi=앱)
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader
from fastapi import FastAPI
from dbos import DBOS

app = FastAPI()
DBOS(fastapi=app)

documents = SimpleDirectoryReader("data").load_data()
index = VectorStoreIndex.from_documents(documents)
query_engine = index.as_query_engine()

@app.get("/")
def get_answer():
    response = query_engine.query("What did the author do growing up?")
    return str(response)

아직 DBOS Cloud CLI를 설치하지 않았다면 지금 설치하세요(Node.js 필요).

npm i -g @dbos-inc/dbos-cloud

그런 다음 요구사항.txt에 대한 종속성을 고정하고 DBOS Cloud에 배포합니다.

pip freeze > requirements.txt
dbos-cloud app deploy

1분 안에 신청서가 인쇄됩니다. 에서 신청서에 액세스하세요.
앱이 작동하는지 확인하려면 브라우저에서.

축하합니다. 첫 번째 AI 앱을 DBOS Cloud에 성공적으로 배포했습니다! 클라우드 콘솔에서 배포된 앱을 확인할 수 있습니다.

다음 단계

이것은 DBOS 여정의 시작일 뿐입니다. 다음으로, DBOS가 AI 애플리케이션의 확장성과 탄력성을 어떻게 향상시킬 수 있는지 확인해 보세요.

  • 지속 가능한 실행을 사용하여 충돌 방지 워크플로를 작성하세요.
  • 큐를 사용하여 AI/LLM API 속도 제한을 적절하게 관리하세요.
  • 더 복잡한 앱을 만들고 싶으신가요? AI 기반 Slackbot을 확인해 보세요.

한번 해보고 어떻게 생각하는지 알려주세요 ?

위 내용은 여러 코드로 서버리스 OpenAI 앱 구축 및 배포의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.