>백엔드 개발 >파이썬 튜토리얼 >첫 번째 AI 채팅 앱 만들기: DevOps에서 학습 AI 및 Ollama 통합 통과

첫 번째 AI 채팅 앱 만들기: DevOps에서 학습 AI 및 Ollama 통합 통과

Barbara Streisand
Barbara Streisand원래의
2024-12-23 10:33:20282검색

Making My First AI Chat App: Learning From DevOps Pass AI

제가 출처로 사용한 블로그:

https://dev.to/devopspass-ai/workshop-make-your-first-ai-app-in-a-few-clicks-with-pythonollamallama3-31ib

Ollama를 사용하여 AI 앱을 구축하는 방법에 대한 DevOps Pass AI 가이드를 발견한 후, 저는 그것이 어떻게 작동하는지 살펴보고 그 과정에서 질문과 학습 내용을 문서화하기로 결정했습니다. 첫 번째 AI 채팅 애플리케이션을 구축하면서 발견한 내용은 다음과 같습니다.

초기 질문

처음 튜토리얼을 읽었을 때 몇 가지 질문이 떠올랐습니다.

  1. OpenAI나 다른 서비스에 대한 직접 API 호출 대신 Ollama를 사용하는 이유는 무엇입니까?
  2. Llama3가 로컬 AI 모델로 좋은 선택인 이유는 무엇인가요?
  3. 채팅 기록 지속성은 어떻게 작동하며 왜 중요한가요?

각 측면을 탐구하면서 배운 내용을 정리해 보겠습니다.

로컬 AI 설정 이해

가장 먼저 눈에 띄는 흥미로운 점은 Ollama를 통한 로컬 AI의 활용이었습니다. 주변에 문의하고 테스트한 결과 다음과 같은 몇 가지 주요 장점을 발견했습니다.

  • API 비용이나 사용 제한 없음
  • 모든 것이 로컬에서 실행되므로 완벽한 개인정보 보호
  • 초기 모델 다운로드 후 인터넷 의존성 없음
  • Llama3의 놀라운 성능

설정 과정은 간단했습니다. (Bash)

올라마 서브
올라마 풀 라마3

처음에는 4.7GB 모델 크기가 걱정됐는데, 연결 속도가 빨라서 다운로드 속도가 빠르고 일반 개발 기기에서도 원활하게 실행됩니다.

채팅 애플리케이션 살펴보기

가장 흥미로운 부분은 채팅 애플리케이션이 얼마나 단순하면서도 기능적인지였습니다. 각 구성요소에 대해 제가 배운 내용을 분석해 보겠습니다.

채팅기록 관리

특히 채팅 기록이 어떻게 작동하는지 궁금했습니다. 코드는 영리한 접근 방식을 사용합니다: (python)

file_path = sys.argv[1] '.json'
os.path.exists(file_path)인 경우:
open(file_path, 'r')을 f:
로 사용 메시지 = json.load(f)

이는 각 채팅 세션이 자체 기록 파일을 유지한다는 의미입니다. 여러 대화를 시작하여 이를 테스트했습니다. (Bash)

python app1.pycoding_help
python app1.py devops_queries

bashCopython app1.pycoding_help
python app1.py devops_queries
각각은 자체 JSON 파일을 생성하여 대화를 분리되고 지속적으로 유지합니다.
AI 응답 처리
내 관심을 끌었던 것 중 하나는 스트리밍 응답 구현이었습니다.
pythonCopystream = ollama.chat(
모델='llama3',
메시지=메시지,
스트림=참,
)

청크 인 스트림의 경우:
print(chunk['message']['content'], end='', 플러시=True)
응답이 한꺼번에 나타나지 않고 사람이 타이핑하는 것처럼 점진적으로 나타나기 때문에 대화에 훨씬 더 자연스러운 느낌을 줍니다.
다양한 사용 사례 테스트
모델의 성능을 이해하기 위해 다양한 유형의 질문을 실험해 보았습니다.

기술적 질문
복사>>> Kubernetes 모니터링을 어떻게 설정하나요?
답변은 자세하고 기술적으로 정확했습니다.
코드 생성
복사>>> CPU 사용량을 모니터링하는 Python 함수 작성
설명과 함께 작동하는 코드 예제를 제공했습니다.
상황별 대화
복사>>> 이를 위한 모범 사례는 무엇입니까?
모델은 이전 질문의 맥락을 효과적으로 유지했습니다.

성과에 대해 배운 점
AI를 로컬에서 실행하는 것에 대한 몇 가지 흥미로운 관찰:

시작 후 첫 번째 반응이 약간 느립니다(모델 준비 중)
후속 대응이 빠릅니다
응답 품질은 많은 클라우드 기반 서비스와 일치합니다
걱정할 제한이나 속도 제한이 없습니다

아직도 궁금한 점이 있습니다
애플리케이션을 구축하고 테스트한 후 다음 사항이 궁금합니다.

특정 사용 사례에 맞게 모델을 미세 조정하는 방법은 무엇입니까?
더 빠른 응답을 위해 모델을 최적화할 수 있나요?
오류나 예상치 못한 응답을 처리하는 가장 좋은 방법은 무엇입니까?

결론: 구축할 가치가 있나요?
이 설정을 실험한 후 다음과 같은 경우 시도해 볼 가치가 있다고 생각합니다.

AI 통합에 대해 배우고 싶습니다
개인정보 보호에 초점을 맞춘 AI 솔루션이 필요합니다
맞춤형 AI 도구 구축에 관심이 있음
AI 서비스에 대한 API 비용을 피하고 싶으신가요

학습 곡선은 놀라울 정도로 완만하며 로컬 설정에서는 결과가 인상적입니다.
커뮤니티에 대한 질문

유사한 로컬 AI 애플리케이션을 구축한 사람이 있나요?
올라마와 함께 어떤 다른 모델을 사용해 보셨나요?
AI 애플리케이션에서 오류 사례를 어떻게 처리하고 있나요?

댓글로 알려주세요. 특히 다양한 사용 사례와 개선 사항에 대해 듣고 싶습니다!

위 내용은 첫 번째 AI 채팅 앱 만들기: DevOps에서 학습 AI 및 Ollama 통합 통과의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.