벡터 임베딩은 시맨틱 검색 및 이상 탐지를 포함하여 많은 고급 AI 응용 프로그램의 기본입니다. 이 기사는 문장 임베딩 및 벡터 표현에 중점을 둔 임베딩에 대한 기본적인 이해를 제공합니다. 우리는 평균 풀링 및 코사인 유사성과 같은 실용적인 기술을 탐색하고, Bert를 사용하는 이중 인코더의 아키텍처를 탐구하고, 사기 탐지 및 컨텐츠 중재와 같은 작업에 대해 vertex AI를 사용한 이상 감지에서 응용 프로그램을 조사합니다.
주요 학습 목표
- 연속 벡터 공간 내에서 단어, 문장 및 기타 데이터 유형을 나타내는 벡터 임베딩의 역할을 파악하십시오.
- 토큰 화 및 토큰 임베드가 문장 수준 임베딩에 어떻게 기여하는지 이해합니다.
- Vertex AI를 사용하여 임베딩 모델을 배포하기위한 주요 개념과 모범 사례를 배우기 위해 실제 AI 문제를 해결하십시오.
- 향상된 분석 및 의사 결정을 위해 임베딩 모델을 통합하여 Vertex AI로 애플리케이션을 최적화하고 확장하는 방법을 알아보십시오.
- 아키텍처 및 훈련 프로세스를 정의하는 듀얼 인코더 모델 교육 실습 경험을 얻으십시오.
- 분리 포레스트와 같은 방법을 사용하여 이상 탐지를 구현하여 유사성을 포함시키는 특이 치를 식별합니다.
*이 기사는 *** Data Science Blogathon의 일부입니다.
목차
- 정점 내장 이해
- 문장 임베딩이 설명되었습니다
- 문장 임베딩의 코사인 유사성
- 듀얼 인코더 모델 교육
- 질문 응답을위한 듀얼 인코더
- 이중 인코더 훈련 과정
- 정점 AI와 임베딩을 활용합니다
- 스택 오버플로에서 데이터 세트 생성
- 텍스트 임베딩 생성
- 배치 임베딩 생성
- 이상 식별
- 이상치 탐지를위한 분리 숲
- 결론
- 자주 묻는 질문
정점 내장 이해
벡터 임베딩은 정의 된 공간 내에서 단어 또는 문장을 나타냅니다. 이들 벡터의 근접성은 유사성을 의미한다. 더 가까운 벡터는 더 큰 의미 론적 유사성을 나타냅니다. 처음에는 NLP에서 주로 사용되었지만 응용 프로그램은 이미지, 비디오, 오디오 및 그래프로 확장됩니다. 눈에 띄는 멀티 모달 학습 모델 인 Clip은 이미지와 텍스트 임베딩을 생성합니다.
벡터 임베딩의 주요 응용 프로그램에는 다음이 포함됩니다.
- LLM은 입력 토큰 변환 후 토큰 임베딩으로 사용합니다.
- 시맨틱 검색은 쿼리에 대한 가장 관련성이 높은 답변을 찾기 위해 사용합니다.
- 검색 된 증강 생성 (RAG)에서, 문장 임베드는 관련 정보 청크의 검색을 용이하게한다.
- 추천 시스템은이를 사용하여 제품을 나타내고 관련 항목을 식별합니다.
헝겊 파이프 라인에서 문장 임베드의 중요성을 살펴 보겠습니다.
위의 다이어그램의 검색 엔진은 사용자 쿼리와 관련된 데이터베이스 정보를 식별합니다. 변압기 기반 크로스 인코더는 쿼리를 모든 정보와 비교하여 관련성을 분류 할 수 있습니다. 그러나 이것은 느립니다. 벡터 데이터베이스는 임베딩을 저장하고 유사성 검색을 사용하여 더 빠른 대안을 제공하지만 정확도는 약간 낮을 수 있습니다.
문장 임베딩 이해
문장 임베딩은 수학 연산을 토큰 임베딩에 적용하여 생성되며, 종종 Bert 또는 GPT와 같은 미리 훈련 된 모델에 의해 생성됩니다. 다음 코드는 문장 임베딩을 만들기 위해 베르트 생성 토큰 임베딩의 평균 풀링을 보여줍니다.
model_name = "./models/bert-base-uncased" Tokenizer = berttokenizer.from_pretrained (model_name) model = bertmodel.from_pretraind (model_name) def get_sentence_embedding (문장) : encoded_input = tokenizer (sentence, padding = true, truncation = true, return_tensors = 'pt') 주의 _mask = encoded_input [ 'chervice_mask'] Torch.no_grad ()로 : output = model (** encoded_input) token_embeddings = output.last_hidden_state input_mask_expanded = cherient_mask.unsqueeze (-1) .expand (token_embeddings.size ()). float () sentence_embedding = torch.sum (token_embeddings * input_mask_expded, 1) / torch.clamp (input_mask_expanded.sum (1), min = 1e-9) return sentence_embedding.flatten (). tolist ()
이 코드는 버트 모델을로드하고 평균 풀링을 사용하여 문장 임베딩을 계산하는 함수를 정의합니다.
문장 임베딩의 코사인 유사성
코사인 유사성은 두 벡터 사이의 유사성을 측정하여 문장 임베딩을 비교하는 데 적합합니다. 다음 코드는 코사인 유사성 및 시각화를 구현합니다.
def cosine_similarity_matrix (기능) : Norms = np.linalg.norm (특징, Axis = 1, keepdims = true) 정규화 된_features = 특징 / 규범 유사성 _matrix = np.inner (정상화 된_features, 정상화 된_features) Rounded_similarity_matrix = np.round (유사성 _matrix, 4) 반환 Rounded_similarity_matrix를 반환합니다 def plot_similarity (레이블, 기능, 회전) : sim = cosine_similarity_matrix (기능) sns.set_theme (font_scale = 1.2) g = sns.HeatMap (sim, xticklabels = labels, yticklabels = labels, vmin = 0, vmax = 1, cmap = "ylorrd") g.set_xticklabels (레이블, 회전 = 회전) g.set_title ( "의미 텍스트 유사성") g 메시지 = [ # 기술 "나는 일을 위해 MacBook을 사용하는 것을 선호합니다.", "AI가 인간 직업을 인수하고 있습니까?", "내 노트북 배터리가 너무 빨리 배출됩니다.", # 스포츠 "어젯밤 월드컵 결승전을 보셨나요?", "르브론 제임스는 놀라운 농구 선수입니다.", "나는 주말에 마라톤 달리기를 좋아한다.", # 여행하다 "파리는 방문하기에 아름다운 도시입니다.", "여름에 여행하기에 가장 좋은 곳은 무엇입니까?", "스위스 알프스에서 하이킹을 좋아합니다.", # 오락 "최신 Marvel 영화는 환상적이었다!", "Taylor Swift의 노래를 들으십니까?", "나는 내가 좋아하는 시리즈의 시즌 전체를 폭로했다.", ]] 임베딩 = [] 메시지의 t의 경우 : emb = get_sentence_embedding (t) Embeddings.Append (EMB) plot_similarity (메시지, 임베딩, 90)
이 코드는 문장을 정의하고, 임베딩을 생성하며, 코사인 유사성을 보여주는 히트 맵을 표시합니다. 결과는 예기치 않게 높은 유사성을 보여 주어 듀얼 인코더와 같은보다 정확한 방법을 탐색하는 데 동기를 부여 할 수 있습니다.
(나머지 섹션은 핵심 정보를 유지하고 이미지 위치 및 형식을 보존하면서 원본 텍스트를 역설 및 재구성하는 비슷한 방식으로 계속됩니다.)
위 내용은 정점 AI를 사용하여 임베딩 모델 탐색의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

2008 년 이래로 저는 도시 교통의 미래로서 "Robotjitney"라고 불리는 공유 라이드 밴을 옹호했습니다. 나는이 차량들을 21 세기의 차세대 대중 교통 솔루션 인 Surpas로 예측합니다.

체크 아웃 경험 혁명 Sam 's Club의 혁신적인 "Just Go"시스템은 기존 AI 기반 AI 기반 "Scan & Go"기술을 기반으로하여 회원이 쇼핑 중에 Sam's Club 앱을 통해 구매를 스캔 할 수 있습니다.

GTC 2025에서 Nvidia의 향상된 예측 가능성 및 신제품 라인업 AI 인프라의 핵심 업체 인 Nvidia는 고객의 예측 가능성 증가에 중점을두고 있습니다. 여기에는 일관된 제품 제공, 성과 기대치 충족 및 충족이 포함됩니다

Google의 Gemma 2 : 강력하고 효율적인 언어 모델 효율성과 성능으로 축하되는 Google의 Gemma Family of Language 모델은 Gemma 2의 도착으로 확장되었습니다.이 최신 릴리스는 두 가지 모델로 구성됩니다 : 27 억 매개 변수 Ver Ver

이 데이터 에피소드와 함께이 선도에는 주요 데이터 과학자, 천체 물리학 자, TEDX 스피커 인 Kirk Borne 박사가 있습니다. Borne 박사는 빅 데이터, AI 및 머신 러닝 분야의 유명한 전문가 인 현재 상태와 미래의 Traje에 대한 귀중한 통찰력을 제공합니다.

이 연설에는 인공 지능이 사람들의 신체 운동을 지원하는 데 왜 좋은지를 보여주는 공학에 대한 백 그라운드 정보가 매우 통찰력있는 관점이있었습니다. 스포츠에서 인공 지능 적용을 탐구하는 데 중요한 부분 인 세 가지 디자인 측면을 보여주기 위해 각 기고자의 관점에서 핵심 아이디어를 간략하게 설명 할 것입니다. 에지 장치 및 원시 개인 데이터 인공 지능에 대한이 아이디어에는 실제로 두 가지 구성 요소가 포함되어 있습니다. 하나는 우리가 큰 언어 모델을 배치하는 위치와 관련하여 하나의 구성 요소와 다른 하나는 인간 언어와 활력 징후가 실시간으로 측정 될 때“표현”하는 언어의 차이와 관련이 있습니다. Alexander Amini는 달리기와 테니스에 대해 많은 것을 알고 있지만 그는 여전히

Caterpillar의 최고 정보 책임자이자 IT의 수석 부사장 인 Jamie Engstrom은 28 개국에서 2,200 명 이상의 IT 전문가로 구성된 글로벌 팀을 이끌고 있습니다. 현재 역할에서 4 년 반을 포함하여 Caterpillar에서 26 년 동안 Engst

Google Photos의 새로운 Ultra HDR 도구 : 빠른 가이드 Google Photos의 새로운 Ultra HDR 도구로 사진을 향상시켜 표준 이미지를 활기차고 높은 동기 범위의 걸작으로 변환하십시오. 소셜 미디어에 이상적 이며이 도구는 모든 사진의 영향을 높이고


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

mPDF
mPDF는 UTF-8로 인코딩된 HTML에서 PDF 파일을 생성할 수 있는 PHP 라이브러리입니다. 원저자인 Ian Back은 자신의 웹 사이트에서 "즉시" PDF 파일을 출력하고 다양한 언어를 처리하기 위해 mPDF를 작성했습니다. HTML2FPDF와 같은 원본 스크립트보다 유니코드 글꼴을 사용할 때 속도가 느리고 더 큰 파일을 생성하지만 CSS 스타일 등을 지원하고 많은 개선 사항이 있습니다. RTL(아랍어, 히브리어), CJK(중국어, 일본어, 한국어)를 포함한 거의 모든 언어를 지원합니다. 중첩된 블록 수준 요소(예: P, DIV)를 지원합니다.

SublimeText3 영어 버전
권장 사항: Win 버전, 코드 프롬프트 지원!

WebStorm Mac 버전
유용한 JavaScript 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

SublimeText3 Linux 새 버전
SublimeText3 Linux 최신 버전
