검색 세대 (rag) 검색 세대 생성은 GPT-4O와 같은 대규모 언어 모델이 외부 데이터 소스를 사용하여 컨텍스트 인식이되는 프로세스입니다. 리트리버와 발전기의 조합입니다. 리트리버는 인터넷이나 벡터 데이터베이스에서 데이터를 가져 와서 원래 사용자의 쿼리와 함께 생성기에 제공합니다. 발전기는 추가 컨텍스트를 사용하여 매우 정확하고 관련성이 높은 응답을 생성합니다.
의료 또는 법적 데이터 세트에서 미세 조정하면 모델이 정확성과 관련성이 높아지는 해당 분야의 질문을 이해하고 응답 할 수 있습니다.
미세 조정 LLMS 튜토리얼에 대한 입문 안내서를 따라 시각적 가이드로 미리 훈련 된 모델을 사용자 정의하는 방법에 대해 알아보십시오.
우리는 LLMS의 응답 생성을 향상시키기위한 각 방법론에 대해 배웠습니다. 차이점을 살펴보면 더 잘 이해해 봅시다.
1. 학습 스타일 <.>
2. 적응성
3. 자원 강도
4. 비용 Rag는 더 나은 응답 생성을 위해 최고 수준의 임베딩 모델과 LLM이 필요합니다. 또한 빠른 벡터 데이터베이스가 필요합니다. API 및 운영 비용은 매우 빠르게 상승 할 수 있습니다
5. 구현 복잡성
실제 사례 로 이론을 시험에 넣습니다
미세 조정 모델, 래그 응용 프로그램 및 하이브리드 접근법에 동일한 프롬프트를 제공하여 결과를 평가하여 이론을 테스트합시다. 하이브리드 접근법은 미세 조정 된 모델과 RAG 응용 프로그램을 결합합니다. 이 예를 들어, 우리는 다양한 건강 상태에 대한 환자와 의사 간의 대화가 포함 된 Hugging Face의 Ruslanmv/Ai-Medical-Chatbot 데이터 세트를 사용할 것입니다.
llama 3
를 사용한 헝겊 응용 프로그램 구축
우리는 llama 3 및 langchain 생태계를 사용하여 Rag 응용 프로그램을 구축하는 것으로 시작합니다.
당신은 또한 코드를 따라 llamaindex를 사용하여 Llamaindex를 사용하여 Llamaindex를 사용하여 Rag 애플리케이션을 구축하는 법을 배울 수 있습니다. 1. 필요한 모든 Python 패키지를 설치하십시오
2. Langchain 및 Transformers 라이브러리에서 필요한 기능을로드하십시오.
3. 제한된 모델 및 데이터 세트에 액세스하려면 API 키를 사용하여 Hugging Face 허브에 로그인하는 것이 좋습니다.
4. huggingfacedatasetloader에 데이터 세트 이름과 열 이름을 제공하여 데이터 세트를로드하십시오. "닥터"열은 우리의 주요 문서가 될 것이며 나머지 열은 메타 데이터가 될 것입니다. %%capture
%pip install -U langchain langchainhub langchain_community langchain-huggingface faiss-gpu transformers accelerate
5. 데이터 세트를 처음 1000 행으로 제한합니다. 데이터 세트를 줄이면 벡터 데이터베이스의 데이터 저장 시간을 줄이는 데 도움이됩니다.
from langchain.document_loaders import HuggingFaceDatasetLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.vectorstores import FAISS
from transformers import AutoTokenizer, AutoModelForCausalLM,pipeline
from langchain_huggingface import HuggingFacePipeline
from langchain.chains import RetrievalQA
우리가 볼 수 있듯이, "닥터"열은 페이지 내용이며 나머지는 메타 데이터로 간주됩니다.
from huggingface_hub import login
from kaggle_secrets import UserSecretsClient
user_secrets = UserSecretsClient()
hf_token = user_secrets.get_secret("HUGGINGFACE_TOKEN")
login(token = hf_token)
6. GPU 가속을 활성화하는 것과 같은 특정 매개 변수를 사용하여 포옹면에서 임베딩 모델을로드하십시오.
7. 샘플 텍스트를 제공하여 임베딩 모델을 테스트하십시오.
# Specify the dataset name
dataset_name = "ruslanmv/ai-medical-chatbot"
# Create a loader instance using dataset columns
loader_doctor = HuggingFaceDatasetLoader(dataset_name,"Doctor")
# Load the data
doctor_data = loader_doctor.load()
# Select the first 1000 entries
doctor_data = doctor_data[:1000]
doctor_data[:2]
8. 데이터를 임베딩으로 변환하고 벡터 데이터베이스에 저장하십시오.
9. 로컬 디렉토리에 벡터 데이터베이스를 저장하십시오.
10. 샘플 프롬프트를 사용하여 유사성 검색을 수행하십시오.
# Define the path to the embedding model
modelPath = "sentence-transformers/all-MiniLM-L12-v2"
# GPU acceleration
model_kwargs = {'device':'cuda'}
# Create a dictionary with encoding options
encode_kwargs = {'normalize_embeddings': False}
# Initialize an instance of HuggingFaceEmbeddings with the specified parameters
embeddings = HuggingFaceEmbeddings(
model_name=modelPath,
model_kwargs=model_kwargs,
encode_kwargs=encode_kwargs
)
text = "Why are you a doctor?"
query_result = embeddings.embed_query(text)
query_result[:3]
[-0.059351932257413864, 0.08008933067321777, 0.040729623287916183]
11. 벡터 데이터베이스 인스턴스를 리트리버로 변환하십시오. 이것은 우리가 래그 체인을 만드는 데 도움이 될 것입니다.
12. LLAMA 3 8B 채팅 모델을 사용하여 토큰 화기 및 모델을로드하십시오.
13. 테스트 생성 파이프 라인을 만듭니다.
vector_db = FAISS.from_documents(doctor_data, embeddings)
vector_db.save_local("/kaggle/working/faiss_doctor_index")
question = "Hi Doctor, I have a headache, help me."
searchDocs = vector_db.similarity_search(question)
print(searchDocs[0].page_content)
14. 파이프 라인을 Langchain LLM 클라이언트로 변환하십시오.
15. 리트리버, 사용자 쿼리, 래그 프롬프트 및 LLM을 사용하여 질문 및 답변 체인을 만듭니다.
retriever = vector_db.as_retriever()
16. 의사에게 질문을하여 Q & A 체인을 테스트하십시오.
데이터 세트와 매우 유사하지만 스타일을 선택하지는 않습니다. 그것은 맥락을 이해하고 그것을 사용하여 고유 한 스타일로 응답을 작성했습니다.
또 다른 질문으로 다시 시도해 봅시다.
이것은 매우 직접적인 답입니다. 어쩌면 우리는 의사와 환자 챗봇의 헝겊 접근법을 사용하는 대신 모델을 미세 조정해야 할 수도 있습니다.
%%capture
%pip install -U langchain langchainhub langchain_community langchain-huggingface faiss-gpu transformers accelerate
코드를 실행하는 데 어려움을 겪고 있다면 Kaggle 노트북 : Llama 3을 사용하여 Rag 응용 프로그램 구축을 참조하십시오.
Rag Performance를 향상시키는 방법을 따르면 청킹, 재고 및 쿼리 변환과 같은 기술로 RAG 시스템 성능을 향상시키는 방법을 배우십시오 : 예제 자습서가있는 5 가지 주요 기술.
의료 데이터에 대한 미세 조정 라마 3
우리는 이전 튜토리얼 : 미세 조정 llama 3 및 로컬로 사용하기 때문에 의사와 환자 데이터 세트의 모델을 미세 조정하지 않을 것입니다. 단계별 가이드. 우리가 할 일은 미세 조정 모델을로드하고 결과를 평가하기 위해 동일한 질문을 제공하는 것입니다. 미세 조정 된 모델은 포옹 페이스와 Kaggle에서 사용할 수 있습니다.
OpenAI API를 사용하여 GPT-4 모델을 미세 조정하는 데 관심이 있다면 팔로우하기 쉬운 DataCamp 튜토리얼 미세 조정 OpenAI의 GPT-4 : 단계별 안내서를 참조하십시오.
출처 : Kingabzpro/llama-3-8B-Chat-Doctor
1. Transformer 라이브러리를 사용하여 토 케이저 및 모델을로드하십시오.
2. 올바른 매개 변수를 사용하여 Kaggle GPU T4 X2 환경에서 모델을로드하십시오.
3. 채팅 템플릿을 메시지에 적용하십시오.
4. 모델 및 토큰 화기를 사용하여 텍스트 생성 파이프 라인을 만듭니다.
5. 파이프 라인 객체에 프롬프트를 제공하고 응답을 생성하십시오.
응답은 데이터 세트와 매우 유사합니다. 스타일은 동일하지만 직접적인 답변을하는 대신 환자가 추가 검사를 받음을 시사합니다. .
6. 두 번째 질문을하자.
스타일은 동일하며 반응은 상당히 공감적이고 설명 적입니다. from langchain.document_loaders import HuggingFaceDatasetLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.vectorstores import FAISS
from transformers import AutoTokenizer, AutoModelForCausalLM,pipeline
from langchain_huggingface import HuggingFacePipeline
from langchain.chains import RetrievalQA
코드를 실행하는 데 어려움을 겪고 있다면 Kaggle 노트북 : 미세 조정 된 llama 3 hf 추론을 참조하십시오. .
하이브리드 접근법 (Rag Fine Tuning)
이제 우리는 이제 미세 조정 된 모델에 추가 컨텍스트를 제공하여 응답을 추가로 조정하고 균형을 찾습니다.
모든 코드를 다시 쓰지 않고 Q & A 체인을 사용하여 응답 생성으로 직접 다이빙합니다. 미세 조정 모델과 Rag Q & A 체인을 결합한 방법에 대한 완전한 코드를 보려면 하이브리드 접근법 (Rag Fine Tuning) Kaggle 노트북을 살펴보십시오.
체인에 우리가 헝겊과 미세 조정 된 모델을 요청한 것과 동일한 질문을 제공하십시오.
답변은 매우 정확하며 응답은 의사의 스타일로 생성됩니다.
%%capture
%pip install -U langchain langchainhub langchain_community langchain-huggingface faiss-gpu transformers accelerate
두 번째 질문을하자.
이것은 이상합니다. 우리는 여드름이 고름으로 채워 졌는지 아닌지에 대한 추가 맥락을 제공하지 않았습니다. 하이브리드 모델이 일부 쿼리에는 적용되지 않을 수 있습니다.
의사 환자 챗봇의 경우 미세 조정 된 모델은 스타일 채택과 정확도에 탁월합니다. 그러나 이것은 다른 사용 사례에 따라 다를 수 있으므로 특정 사용 사례에 가장 적합한 방법을 결정하기 위해 광범위한 테스트를 수행하는 것이 중요합니다.
하이브리드 접근법의 공식 용어는 RAFT (검색 증강 미세 조정)입니다. 래프트가 무엇인지 읽어서 자세히 알아보십시오. RAG와 미세 조정을 LLM을 특수한 도메인 블로그에 적응시키기 위해 결합.
래그 대 미세 조정 대 래프트 중에서 선택하는 방법
모두 사용 사례와 사용 가능한 리소스에 따라 다릅니다. 자원이 제한된 스타트 업이라면 Open AI API 및 Langchain 프레임 워크를 사용하여 Rag Room of Concept를 구축하십시오. 이를 위해서는 제한된 리소스, 전문 지식 및 데이터 세트가 필요합니다.
중간 기업이고 응답 정확도를 향상시키고 클라우드에 오픈 소스 모델을 배포하기 위해 미세 조정하려면 데이터 과학자 및 기계 학습 운영 엔지니어와 같은 전문가를 고용해야합니다. 미세 조정에는 최고 수준의 GPU, 대형 메모리, 정리 된 데이터 세트 및 LLM을 이해하는 기술 팀이 필요합니다. from langchain.document_loaders import HuggingFaceDatasetLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.vectorstores import FAISS
from transformers import AutoTokenizer, AutoModelForCausalLM,pipeline
from langchain_huggingface import HuggingFacePipeline
from langchain.chains import RetrievalQA
하이브리드 솔루션은 리소스와 컴퓨팅 집약적입니다. 또한 미세 조정과 헝겊의 균형을 잡을 수있는 LLMOPS 엔지니어가 필요합니다. Rag의 좋은 품질과 미세 조정 모델을 활용하여 응답 생성을 더욱 향상시키려는 경우 이것을 고려해야합니다.
헝겊, 미세 조정 및 래프트 솔루션에 대한 개요는 아래 표를 참조하십시오.
rag
미세 조정
raft
장점
상황에 맞는 이해, 환각을 최소화하고, 새로운 데이터에 쉽게 적응하고, 비용 효율적으로 적응합니다.
작업 별 전문 지식, 커스터마이즈, 향상된 정확도, 견고성 증가
는 걸레와 미세 조정, 더 깊은 이해와 맥락의 강점을 결합합니다.
단점
데이터 소스 관리, 복잡성.
데이터 편견, 자원 집약적, 높은 계산 비용, 실질적인 메모리 요구 사항, 시간 및 전문 지식 집약적.
구현의 복잡성은 검색 및 미세 조정 프로세스의 균형을 유지해야합니다
구현 복잡성
프롬프트 엔지니어보다 높음
rag보다 높습니다. 고도로 기술 전문가가 필요합니다.
세 가지 중 가장 복잡한
학습 스타일
dynamic
정적
동적 정적
적응성
새로운 데이터 및 진화 사실에 쉽게 적응합니다
출력을 특정 작업 및 도메인으로 사용자 정의하십시오
실시간 데이터와 특정 작업 모두에 적응합니다
비용
낮은
보통
높이
자원 강도
낮음. 자원은 추론 중에 사용됩니다.
보통. 리소스는 미세 조정 중에 사용됩니다.
높이
결론
큰 언어 모델은 오늘날 AI 개발의 핵심입니다. 회사는 교육에 수백만 달러를 소비하지 않고 이러한 모델을 개선하고 사용자 정의 할 수있는 다양한 방법을 찾고 있습니다. 매개 변수 최적화 및 프롬프트 엔지니어링으로 시작합니다. 그들은 더 나은 반응을 얻고 환각을 줄이기 위해 Rag를 선택하거나 모델을 미세 조정합니다. 응답을 개선하기위한 다른 기술이 있지만 가장 인기있는 옵션이 있습니다.
이 튜토리얼에서 우리는 이론과 실제 사례를 통해 헝겊과 미세 조정의 차이점에 대해 배웠습니다. 우리는 또한 하이브리드 모델을 탐색했으며 어떤 방법이 당신에게 가장 적합한 지 비교했습니다.
LLM 및 관련된 다양한 기술에 대한 자세한 내용은 Llamaindex를 사용한 Rag의 코드와 Langchain을 사용하여 LLM 애플리케이션을 배포하는 코드를 확인하십시오.
로 이론을 시험에 넣습니다
미세 조정 모델, 래그 응용 프로그램 및 하이브리드 접근법에 동일한 프롬프트를 제공하여 결과를 평가하여 이론을 테스트합시다. 하이브리드 접근법은 미세 조정 된 모델과 RAG 응용 프로그램을 결합합니다. 이 예를 들어, 우리는 다양한 건강 상태에 대한 환자와 의사 간의 대화가 포함 된 Hugging Face의 Ruslanmv/Ai-Medical-Chatbot 데이터 세트를 사용할 것입니다.
llama 3
를 사용한 헝겊 응용 프로그램 구축
3. 제한된 모델 및 데이터 세트에 액세스하려면 API 키를 사용하여 Hugging Face 허브에 로그인하는 것이 좋습니다.
5. 데이터 세트를 처음 1000 행으로 제한합니다. 데이터 세트를 줄이면 벡터 데이터베이스의 데이터 저장 시간을 줄이는 데 도움이됩니다.
6. GPU 가속을 활성화하는 것과 같은 특정 매개 변수를 사용하여 포옹면에서 임베딩 모델을로드하십시오. 7. 샘플 텍스트를 제공하여 임베딩 모델을 테스트하십시오.
10. 샘플 프롬프트를 사용하여 유사성 검색을 수행하십시오.
12. LLAMA 3 8B 채팅 모델을 사용하여 토큰 화기 및 모델을로드하십시오. 13. 테스트 생성 파이프 라인을 만듭니다.
2. Langchain 및 Transformers 라이브러리에서 필요한 기능을로드하십시오. %%capture
%pip install -U langchain langchainhub langchain_community langchain-huggingface faiss-gpu transformers accelerate
from langchain.document_loaders import HuggingFaceDatasetLoader
from langchain.text_splitter import RecursiveCharacterTextSplitter
from langchain.embeddings import HuggingFaceEmbeddings
from langchain.vectorstores import FAISS
from transformers import AutoTokenizer, AutoModelForCausalLM,pipeline
from langchain_huggingface import HuggingFacePipeline
from langchain.chains import RetrievalQA
from huggingface_hub import login
from kaggle_secrets import UserSecretsClient
user_secrets = UserSecretsClient()
hf_token = user_secrets.get_secret("HUGGINGFACE_TOKEN")
login(token = hf_token)
# Specify the dataset name
dataset_name = "ruslanmv/ai-medical-chatbot"
# Create a loader instance using dataset columns
loader_doctor = HuggingFaceDatasetLoader(dataset_name,"Doctor")
# Load the data
doctor_data = loader_doctor.load()
# Select the first 1000 entries
doctor_data = doctor_data[:1000]
doctor_data[:2]
9. 로컬 디렉토리에 벡터 데이터베이스를 저장하십시오.
# Define the path to the embedding model
modelPath = "sentence-transformers/all-MiniLM-L12-v2"
# GPU acceleration
model_kwargs = {'device':'cuda'}
# Create a dictionary with encoding options
encode_kwargs = {'normalize_embeddings': False}
# Initialize an instance of HuggingFaceEmbeddings with the specified parameters
embeddings = HuggingFaceEmbeddings(
model_name=modelPath,
model_kwargs=model_kwargs,
encode_kwargs=encode_kwargs
)
text = "Why are you a doctor?"
query_result = embeddings.embed_query(text)
query_result[:3]
[-0.059351932257413864, 0.08008933067321777, 0.040729623287916183]
11. 벡터 데이터베이스 인스턴스를 리트리버로 변환하십시오. 이것은 우리가 래그 체인을 만드는 데 도움이 될 것입니다. vector_db = FAISS.from_documents(doctor_data, embeddings)
vector_db.save_local("/kaggle/working/faiss_doctor_index")
question = "Hi Doctor, I have a headache, help me."
searchDocs = vector_db.similarity_search(question)
print(searchDocs[0].page_content)
14. 파이프 라인을 Langchain LLM 클라이언트로 변환하십시오.
retriever = vector_db.as_retriever()
16. 의사에게 질문을하여 Q & A 체인을 테스트하십시오.
%%capture
%pip install -U langchain langchainhub langchain_community langchain-huggingface faiss-gpu transformers accelerate
2. 올바른 매개 변수를 사용하여 Kaggle GPU T4 X2 환경에서 모델을로드하십시오.
3. 채팅 템플릿을 메시지에 적용하십시오.
4. 모델 및 토큰 화기를 사용하여 텍스트 생성 파이프 라인을 만듭니다.
5. 파이프 라인 객체에 프롬프트를 제공하고 응답을 생성하십시오.
.
6. 두 번째 질문을하자.
from langchain.document_loaders import HuggingFaceDatasetLoader from langchain.text_splitter import RecursiveCharacterTextSplitter from langchain.embeddings import HuggingFaceEmbeddings from langchain.vectorstores import FAISS from transformers import AutoTokenizer, AutoModelForCausalLM,pipeline from langchain_huggingface import HuggingFacePipeline from langchain.chains import RetrievalQA
.
%%capture %pip install -U langchain langchainhub langchain_community langchain-huggingface faiss-gpu transformers accelerate
모두 사용 사례와 사용 가능한 리소스에 따라 다릅니다. 자원이 제한된 스타트 업이라면 Open AI API 및 Langchain 프레임 워크를 사용하여 Rag Room of Concept를 구축하십시오. 이를 위해서는 제한된 리소스, 전문 지식 및 데이터 세트가 필요합니다.
from langchain.document_loaders import HuggingFaceDatasetLoader from langchain.text_splitter import RecursiveCharacterTextSplitter from langchain.embeddings import HuggingFaceEmbeddings from langchain.vectorstores import FAISS from transformers import AutoTokenizer, AutoModelForCausalLM,pipeline from langchain_huggingface import HuggingFacePipeline from langchain.chains import RetrievalQA
rag
미세 조정
|
단점 |
||
데이터 편견, 자원 집약적, 높은 계산 비용, 실질적인 메모리 요구 사항, 시간 및 전문 지식 집약적.
|
구현 복잡성 |
|
rag보다 높습니다. 고도로 기술 전문가가 필요합니다.
|
학습 스타일
| dynamic
정적 |
|
적응성 |
|
비용 |
낮은 |
보통 |
자원 강도 |
낮음. 자원은 추론 중에 사용됩니다.
|
보통. 리소스는 미세 조정 중에 사용됩니다.
|
높이
|
LLM 및 관련된 다양한 기술에 대한 자세한 내용은 Llamaindex를 사용한 Rag의 코드와 Langchain을 사용하여 LLM 애플리케이션을 배포하는 코드를 확인하십시오. |
위 내용은 Rag vs Fine Tuning : 실제 사례가있는 포괄적 인 튜토리얼의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!
![chatgpt를 사용할 수 없습니다! 즉시 테스트 할 수있는 원인과 솔루션 설명 [최신 2025]](https://img.php.cn/upload/article/001/242/473/174717025174979.jpg?x-oss-process=image/resize,p_40)
chatgpt에 액세스 할 수 없습니까? 이 기사는 다양한 실용적인 솔루션을 제공합니다! 많은 사용자가 매일 chatgpt를 사용할 때 액세스 할 수 없거나 느린 응답과 같은 문제가 발생할 수 있습니다. 이 기사는 다양한 상황에 따라 이러한 문제를 단계별로 해결하도록 안내합니다. Chatgpt의 접근성 및 예비 문제 해결의 원인 먼저 문제가 OpenAI 서버 측 또는 사용자의 네트워크 또는 장치 문제에 있는지 확인해야합니다. 문제 해결을 위해 아래 단계를 따르십시오. 1 단계 : OpenAI의 공식 상태를 확인하십시오 chatgpt 서비스가 정상적으로 실행 중인지 확인하려면 OpenAi 상태 페이지 (status.openai.com)를 방문하십시오. 빨간색 또는 노란색 알람이 표시되면 열린 것을 의미합니다.

2025 년 5 월 10 일, MIT 물리학 자 Max Tegmark는 AI Labs가 인공 초 지능을 방출하기 전에 Oppenheimer의 삼위 일체 테스트 미적분학을 모방해야한다고 Guardian에게 말했다. “내 평가는 'Compton Constant', 인종이

AI 음악 제작 기술은 매일 매일 변화하고 있습니다. 이 기사는 Chatgpt와 같은 AI 모델을 예로 사용하여 AI를 사용하여 음악 제작을 지원하고 실제 사례에 대해 설명하는 방법을 자세히 설명합니다. 우리는 Sunoai, Hugging Face의 AI Jukebox 및 Python 's Music21 Library를 통해 음악을 만드는 방법을 소개합니다. 이러한 기술을 통해 모든 사람은 독창적 인 음악을 쉽게 만들 수 있습니다. 그러나 AI 생성 컨텐츠의 저작권 문제는 무시할 수 없으며 사용할 때는 신중해야합니다. 음악 분야에서 AI의 무한한 가능성을 모색 해 봅시다! OpenAi의 최신 AI 에이전트 "OpenAi Deep Research"가 소개됩니다. [chatgpt] ope

ChatGpt-4의 출현은 AI 응용 프로그램의 가능성을 크게 확장했습니다. GPT-3.5와 비교하여 ChatGpt-4는 상당히 개선되었습니다. 강력한 맥락 이해력이 있으며 이미지를 인식하고 생성 할 수도 있습니다. 그것은 보편적 인 AI 조수입니다. 비즈니스 효율성 향상 및 창출 지원과 같은 많은 분야에서 큰 잠재력을 보여주었습니다. 그러나 동시에, 우리는 또한 사용의 예방 조치에주의를 기울여야합니다. 이 기사에서는 ChatGpt-4의 특성을 자세히 설명하고 다양한 시나리오에 대한 효과적인 사용 방법을 소개합니다. 이 기사에는 최신 AI 기술을 최대한 활용하는 기술이 포함되어 있습니다. OpenAi의 최신 AI 에이전트, "OpenAi Deep Research"에 대한 자세한 내용은 아래 링크를 클릭하십시오.

chatgpt 앱 : AI 조수와 함께 창의력을 발휘하십시오! 초보자 가이드 Chatgpt 앱은 쓰기, 번역 및 질문 답변을 포함하여 광범위한 작업을 처리하는 혁신적인 AI 어시스턴트입니다. 창의적인 활동과 정보 수집에 유용한 끝없는 가능성이있는 도구입니다. 이 기사에서는 초보자를위한 이해하기 쉬운 방법, ChatGpt 스마트 폰 앱을 설치하는 방법, 음성 입력 기능 및 플러그인과 같은 앱의 고유 한 기능 및 앱을 사용할 때 염두에 두는 포인트에 이르기까지 설명합니다. 또한 플러그인 제한 및 장치 간 구성 동기화를 자세히 살펴 보겠습니다.

Chatgpt Chinese 버전 : 중국 AI 대화의 새로운 경험 잠금 해제 Chatgpt는 전 세계적으로 인기가 있습니다. 중국어 버전도 제공한다는 것을 알고 있습니까? 이 강력한 AI 도구는 일상적인 대화를 지원할뿐만 아니라 전문적인 콘텐츠를 처리하며 단순화되고 전통적인 중국어와 호환됩니다. 중국의 사용자이든 중국어를 배우는 친구이든 상관없이 혜택을 누릴 수 있습니다. 이 기사는 계정 설정, 중국 신속한 단어 입력, 필터 사용 및 다양한 패키지 선택을 포함하여 ChatGpt 중국어 버전을 사용하는 방법을 자세히 소개하고 잠재적 위험 및 응답 전략을 분석합니다. 또한 ChatGpt 중국어 버전을 다른 중국 AI 도구와 비교하여 장점과 응용 프로그램 시나리오를 더 잘 이해할 수 있도록 도와줍니다. Openai의 최신 AI 인텔리전스

이것들은 생성 AI 분야의 다음 도약으로 생각 될 수 있으며, 이는 우리에게 Chatgpt 및 기타 대규모 모델 챗봇을 제공했습니다. 단순히 질문에 대답하거나 정보를 생성하는 대신, 우리를 대신하여 조치를 취할 수 있습니다.

ChatGpt를 사용한 효율적인 다중 계정 관리 기술 | 비즈니스와 사생활 사용 방법에 대한 철저한 설명! Chatgpt는 다양한 상황에서 사용되지만 일부 사람들은 여러 계정 관리에 대해 걱정할 수 있습니다. 이 기사는 ChatGpt에 대한 여러 계정을 만드는 방법, 사용할 때 수행 할 작업 및 안전하고 효율적으로 작동하는 방법을 자세히 설명합니다. 또한 비즈니스와 개인 사용의 차이, OpenAI의 이용 약관을 준수하는 것과 같은 중요한 점을 다루며 여러 계정을 안전하게 활용하는 데 도움이되는 안내서를 제공합니다. Openai


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

Dreamweaver Mac版
시각적 웹 개발 도구

SublimeText3 영어 버전
권장 사항: Win 버전, 코드 프롬프트 지원!

ZendStudio 13.5.1 맥
강력한 PHP 통합 개발 환경

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구