Rumah  >  Artikel  >  pembangunan bahagian belakang  >  Bagaimanakah Apache Spark boleh digunakan untuk pemadanan rentetan yang cekap dengan teks yang mudah ralat menggunakan pengubah pembelajaran mesin?

Bagaimanakah Apache Spark boleh digunakan untuk pemadanan rentetan yang cekap dengan teks yang mudah ralat menggunakan pengubah pembelajaran mesin?

Barbara Streisand
Barbara Streisandasal
2024-11-03 02:27:29844semak imbas

How can Apache Spark be used for efficient string matching with error-prone text using machine learning transformers?

Pemadanan Rentetan yang Cekap dalam Apache Spark untuk Teks Mudah Ralat

Latar Belakang:

Pemadanan rentetan adalah penting semasa mengesahkan teks diekstrak daripada imej atau sumber lain. Walau bagaimanapun, alat OCR sering memperkenalkan ralat, menjadikan padanan rentetan yang tepat tidak boleh dipercayai. Ini menimbulkan keperluan untuk algoritma yang cekap untuk membandingkan rentetan yang diekstrak dengan set data, walaupun terdapat ralat.

Pendekatan:

Semasa menggunakan Spark untuk tugasan ini mungkin tidak sesuai, kami mempersembahkan pendekatan yang menggabungkan berbilang pengubah pembelajaran mesin:

  1. Tokenizer: Pecah rentetan kepada token untuk mengendalikan ralat seperti penggantian aksara.
  2. NGram: Mencipta n-gram (cth., 3-gram) untuk mengambil kira aksara yang hilang atau rosak.
  3. Vectorizer: Menukar n-gram kepada vektor berangka, membenarkan untuk pengiraan jarak.
  4. LSH (Locality-Sensitive Hashing): Melakukan anggaran carian jiran terdekat pada vektor.

Pelaksanaan:

<code class="scala">import org.apache.spark.ml.feature.{RegexTokenizer, NGram, HashingTF, MinHashLSH, MinHashLSHModel}

val tokenizer = new RegexTokenizer()
val ngram = new NGram().setN(3)
val vectorizer = new HashingTF()
val lsh = new MinHashLSH()

val pipeline = new Pipeline()
val model = pipeline.fit(db)

val dbHashed = model.transform(db)
val queryHashed = model.transform(query)

model.stages.last.asInstanceOf[MinHashLSHModel]
  .approxSimilarityJoin(dbHashed, queryHashed, 0.75).show</code>

Pendekatan ini memanfaatkan LSH untuk mengenal pasti rentetan serupa dengan cekap, walaupun dengan ralat. Ambang 0.75 boleh dilaraskan bergantung pada tahap persamaan yang diingini.

Pelaksanaan Pyspark:

<code class="python">from pyspark.ml import Pipeline
from pyspark.ml.feature import RegexTokenizer, NGram, HashingTF, MinHashLSH

model = Pipeline(stages=[
    RegexTokenizer(pattern="", inputCol="text", outputCol="tokens", minTokenLength=1),
    NGram(n=3, inputCol="tokens", outputCol="ngrams"),
    HashingTF(inputCol="ngrams", outputCol="vectors"),
    MinHashLSH(inputCol="vectors", outputCol="lsh")
]).fit(db)

db_hashed = model.transform(db)
query_hashed = model.transform(query)

model.stages[-1].approxSimilarityJoin(db_hashed, query_hashed, 0.75).show()</code>

Sumber Berkaitan:

  • [Optimumkan kerja Spark yang perlu mengira setiap satu untuk setiap persamaan entri dan keluarkan N item serupa teratas untuk setiap satu](https://stackoverflow.com/questions/53917468/optimize-spark-job-that- perlu-mengira-setiap-untuk-setiap-kemasukan-persamaan-dan-keluar)

Atas ialah kandungan terperinci Bagaimanakah Apache Spark boleh digunakan untuk pemadanan rentetan yang cekap dengan teks yang mudah ralat menggunakan pengubah pembelajaran mesin?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!

Kenyataan:
Kandungan artikel ini disumbangkan secara sukarela oleh netizen, dan hak cipta adalah milik pengarang asal. Laman web ini tidak memikul tanggungjawab undang-undang yang sepadan. Jika anda menemui sebarang kandungan yang disyaki plagiarisme atau pelanggaran, sila hubungi admin@php.cn