Heim  >  Artikel  >  Technologie-Peripheriegeräte  >  Vom Entscheidungsbaum zum Transformator – Vergleich von Stimmungsanalysemodellen für Restaurantbewertungen

Vom Entscheidungsbaum zum Transformator – Vergleich von Stimmungsanalysemodellen für Restaurantbewertungen

WBOY
WBOYnach vorne
2023-05-04 12:31:061794Durchsuche

„Übersetzer“ |

erforscht und vergleicht mehrere Klassiker Modelle des maschinellen Lernens sowie moderne Deep-Learning-Techniken einschließlich neuronaler Netze und Transformer. Experimente zeigen, dass fein abgestimmte

Transformers Modelle und Deep-Learning-Modelle unter Verwendung der neuesten OpenAI-Einbettungen

andere Methoden bei weitem übertreffen. Während sich maschinelle Lernmodelle für die Verarbeitung natürlicher Sprache traditionell auf beliebte Sprachen wie Englisch und Spanisch konzentriert haben, ist dies in nicht der Fall Aufgrund der Entwicklung von zu häufig verwendeten Sprachen gibt es viel weniger Forschung und Anwendung im Zusammenhang mit Modellen für maschinelles Lernen. Andererseits haben mit dem Aufschwung des E-Commerce aufgrund der COVID-19-Pandemie auch weniger verbreitete Sprachen wie Mazedonisch große Datenmengen durch Online-Bewertungen generiert. Dies bietet die Möglichkeit, Modelle für maschinelles Lernen für die Stimmungsanalyse mazedonischer Restaurantbewertungen zu entwickeln und zu trainieren. Bei Erfolg könnte dies Unternehmen dabei helfen, die Kundenstimmung besser zu verstehen und damit verbundene Dienstleistungen zu verbessern. In dieser Studie befassen wir uns mit den Herausforderungen, die dieses Problem mit sich bringt, und untersuchen und vergleichen verschiedene Stimmungsanalysemodelle

zur Analyse der Stimmung in mazedonischen Restaurantbewertungen, von klassischen Random Forests bis hin zu modernen Deep-Learning-Techniken und

Vom Entscheidungsbaum zum Transformator – Vergleich von Stimmungsanalysemodellen für RestaurantbewertungenTransformern

usw. . Zunächst geben wir einen Überblick über den Inhalt dieses Artikels: #🎜🎜 ## 🎜🎜 ## 🎜🎜#Herausforderungen und Datenvorverarbeitung#🎜🎜 ## 🎜🎜#### 🎜🎜 ## 🎜🎜 ## 🎜🎜##Vektor -Einbettungen#🎜🎜 ## 🎜 🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜#Laser#🎜🎜 ## 🎜🎜##🎜🎜 ## 🎜🎜##🎜🎜 ## 🎜🎜 ## 🎜 🎜#### ??

  • Modell für maschinelles Lernen
  • Random Forest # ?? 🎜🎜#
  • Ergebnisse und Diskussion#🎜🎜 #​Zukunft von Arbeit
  • Fazit#🎜🎜 #
  • #🎜 🎜 #Vorverarbeitete Daten​
  • Sprache ist ein einzigartiges Werkzeug für die menschliche Kommunikation. Ohne geeignete Verarbeitungstechnologie können Computer Sprache nicht interpretieren. Damit Maschinen Sprache analysieren und verstehen können, müssen wir komplexe semantische und lexikalische Informationen auf rechnerisch verarbeitbare Weise darstellen. Ein beliebter Weg, dies zu erreichen, ist die Vektordarstellung. In den letzten Jahren sind neben sprachspezifischen Darstellungsmodellen auch mehrsprachige Modelle entstanden. Diese Modelle können den semantischen Kontext von Texten in einer Vielzahl von Sprachen erfassen.
  • Allerdings für Kyrillisch
    (Kyrillisch)
  • Die Sprache Da Benutzer im Internet häufig lateinische Texte verwenden, um sich auszudrücken, entsteht eine Mischung aus lateinischen und kyrillischen Daten . Um dieser Herausforderung zu begegnen, habe ich einen Datensatz von etwa 500 Bewertungen eines lokalen Restaurants -
  • verwendet, der sowohl lateinische als auch kyrillische Schriften enthielt. Der Datensatz enthält auch einen kleinen Satz englischer Kommentare, die bei der Bewertung der Leistung von Hybriddaten helfen. Darüber hinaus können Online-Texte Symbole wie Emoticons enthalten, die entfernt werden müssen. Daher ist die Vorverarbeitung ein entscheidender Schritt vor der Texteinbettung. #🎜🎜 ## 🎜🎜##🎜🎜 ## 🎜🎜##
    import pandas as pd​
    import numpy as np​
    
    #把数据集加载进一个dataframe​
    df = pd.read_csv('/content/data.tsv', sep='t')​
    
    # 注意sentiment类别的分布情况​
    df['sentiment'].value_counts()​
    
    # -------​
    # 0 337​
    # 1 322​
    # Name: sentiment, dtype: int64​
    #🎜🎜 ## 🎜🎜#Beachten
  • Positive und negative Klassen mit nahezu gleicher Verteilung. Um Emojis zu entfernen, habe ich Python-Bibliothek Emoji verwendet, mit der Emojis und andere Symbole problemlos entfernt werden können.
  • !pip install emoji​
    import emoji​
    
    clt = []​
    for comm in df['comment'].to_numpy():​
     clt.append(emoji.replace_emoji(comm, replace=""))​
    
    df['comment'] = clt​
    df.head()​
    Für die Fragen in Kyrillisch und Latein habe ich den gesamten Text in das eine oder andere konvertiert, wie dieses Modell für maschinelles Lernen kann dann auf beiden getestet werden, um die Leistung zu vergleichen. Ich verwende die Bibliothek „cyrtranslit“, um diese Aufgabe auszuführen. Es unterstützt die meisten kyrillischen Alphabete wie Mazedonisch, Bulgarisch, Ukrainisch usw.
  • import cyrtranslit​
    latin = []​
    cyrillic = []​
    for comm in df['comment'].to_numpy():​
     latin.append(cyrtranslit.to_latin(comm, "mk"))​
     cyrillic.append(cyrtranslit.to_cyrillic(comm, "mk"))​
    
    df['comment_cyrillic'] = cyrillic​
    df['comment_latin'] = latin​
    df.head()​
  • Bild 1: # 🎜🎜#Das Ergebnis der Konvertierung der Ausgabe
  • für das Einbettungsmodell I Das Entfernen von Satzzeichen, Stoppwörtern und anderen Textbereinigungen ist normalerweise nicht erforderlich. Diese Modelle sind darauf ausgelegt, Text in natürlicher Sprache, einschließlich Zeichensetzung, zu verarbeiten und sind oft in der Lage, die Bedeutung eines Satzes genauer zu erfassen, wenn dieser intakt bleibt. Damit ist die Textvorverarbeitung abgeschlossen.
  • 矢量嵌入​

    目前,没有大规模的马其顿语言描述模型可用。然而,我们可以使用基于马其顿语文本训练的多语言模型。当前,有几种这样的模型可用,但对于这项任务,我发现LASER和多语言通用句子编码器是最合适的选择。

    LASER​

    LASER(Language-Agnostic Sentence Representations)是一种生成高质量多语言句子嵌入的语言不可知方法。LASER模型基于两阶段过程其中第一阶段是对文本进行预处理,包括标记化、小写和应用句子。这部分是特定于语言的第二阶段涉及使用多层双向LSTM将预处理的输入文本映射到固定长度的嵌入。

    在一系列基准数据集上,LASER已经被证明优于其他流行的句子嵌入方法,如fastText和InferSent。此外,LASER模型是开源的,免费提供,使每个人都可以轻松访问。

    使用LASER创建嵌入是一个简单的过程:

    !pip install laserembeddings​
    !python -m laserembeddings download-models​
    
    from laserembeddings import Laser​
    
    #创建嵌入​
    laser = Laser()​
    embeddings_c = laser.embed_sentences(df['comment_cyrillic'].to_numpy(),lang='mk')​
    embeddings_l = laser.embed_sentences(df['comment_latin'].to_numpy(),lang='mk')​
    
    # 保存嵌入​
    np.save('/content/laser_multi_c.npy', embeddings_c)​
    np.save('/content/laser_multi_l.npy', embeddings_l)​

    多语言通用句子编码器​

    多语言通用句子编码器(MUSE)是由Facebook开发的用于生成句子嵌入的预训练模型。MUSE旨在将多种语言的句子编码到一个公共空间中。

    该模型基于深度神经网络,该网络使用编码器-解码器架构来学习句子与其在高维空间中的对应嵌入向量之间的映射。MUSE是在一个大规模的多语言语料库上训练的,其中包括维基百科的文本、新闻文章和网页。

    !pip install tensorflow_text​
    import tensorflow as tf​
    import tensorflow_hub as hub​
    import numpy as np​
    import tensorflow_text​
    
    #加载MUSE模型​
    module_url = "https://tfhub.dev/google/universal-sentence-encoder-multilingual-large/3"​
    embed = hub.load(module_url)​
    
    sentences = df['comment_cyrillic'].to_numpy()​
    muse_c = embed(sentences)​
    muse_c = np.array(muse_c)​
    
    sentences = df['comment_latin'].to_numpy()​
    muse_l = embed(sentences)​
    muse_l = np.array(muse_l)​
    
    np.save('/content/muse_c.npy', muse_c)​
    np.save('/content/muse_l.npy', muse_l)​

    OpenAI Ada v2​

    2022年底,OpenAI宣布了他们全新的最先进嵌入模型text-embedding-ada-002(https://openai.com/blog/new-and-improved-embedding-model/)。由于此模型基于GPT-3构建,因此具有多语言处理能力。为了比较西里尔文和拉丁语评论的结果,我决定在两个数据集上运行了模型

    !pip install openai​
    
    import openai​
    openai.api_key = 'YOUR_KEY_HERE'​
    
    embeds_c = openai.Embedding.create(input = df['comment_cyrillic'].to_numpy().tolist(), model='text-embedding-ada-002')['data']​
    embeds_l = openai.Embedding.create(input = df['comment_latin'].to_numpy().tolist(), model='text-embedding-ada-002')['data']​
    
    full_arr_c = []​
    for e in embeds_c:​
     full_arr_c.append(e['embedding'])​
    full_arr_c = np.array(full_arr_c)​
    
    full_arr_l = []​
    for e in embeds_l:​
     full_arr_l.append(e['embedding'])​
    full_arr_l = np.array(full_arr_l)​
    
    np.save('/content/openai_ada_c.npy', full_arr_c)​
    np.save('/content/openai_ada_l.npy', full_arr_l)​

    机器学习模型​

    本节探讨用于预测马其顿餐厅评论中情绪的各种机器学习模型。从传统的机器学习模型到深度学习技术,我们将研究每个模型的优缺点,并比较它们在数据集上的性能。

    在运行任何模型之前,应该对数据进行分割,以便针对每种嵌入类型进行训练和测试。这可以通过sklearn库轻松完成。

    from sklearn.model_selection import train_test_split​
    X_train, X_test, y_train, y_test = train_test_split(embeddings_c, df['sentiment'], test_size=0.2, random_state=42)​

    随机森林​

    Vom Entscheidungsbaum zum Transformator – Vergleich von Stimmungsanalysemodellen für Restaurantbewertungen

    图2随机森林分类的简化表示。构建100个决策树,并将结果作为每个决策树的结果之间的多数表决进行计算

    随机森林是一种广泛使用的机器学习算法,它使用决策树集合对数据点进行分类。该算法通过在完整数据集的子集和特征的随机子集上训练每个决策树来工作。在推理过程中,每个决策树都会生成一个情绪预测,最终的结果是通过对所有树进行多数投票获得的。这种方法有助于防止过度拟合,并可导致更稳健和准确的预测结果

    from sklearn.ensemble import RandomForestClassifier​
    from sklearn.metrics import classification_report, confusion_matrix​
    
    rfc = RandomForestClassifier(n_estimators=100)​
    rfc.fit(X_train, y_train)​
    print(classification_report(y_test,rfc.predict(X_test)))​
    print(confusion_matrix(y_test,rfc.predict(X_test)))​

    XGBoost​

    Vom Entscheidungsbaum zum Transformator – Vergleich von Stimmungsanalysemodellen für Restaurantbewertungen

    图3基于boosting算法的顺序过程。每个下一个决策树都基于上一个决策的残差(误差)进行训练

    XGBoost(极限梯度增强)是一种强大的集成方法,主要用于表格数据。与随机森林算法模型一样,XGBoost也使用决策树对数据点进行分类,但方法不同。XGBoost不是一次训练所有树,而是以顺序的方式训练每棵树,从上一棵树所犯的错误中学习。这个过程被称为增强,这意味着将弱模型结合起来,形成一个更强的模型。虽然XGBoost主要使用表格数据产生了很好的结果,但使用向量嵌入测试该模型也会很有趣。

    from xgboost import XGBClassifier​
    from sklearn.metrics import classification_report, confusion_matrix​
    
    rfc = XGBClassifier(max_depth=15)​
    rfc.fit(X_train, y_train)​
    print(classification_report(y_test,rfc.predict(X_test)))​
    print(confusion_matrix(y_test,rfc.predict(X_test)))​

    支持向量机​

    Vom Entscheidungsbaum zum Transformator – Vergleich von Stimmungsanalysemodellen für Restaurantbewertungen

    图4支持向量分类的简化表示。在具有1024个输入特征的这种情绪分析的情况下,超平面将是1023维

    支持向量机(SVM)是一种用于分类和回归任务的流行且强大的机器学习算法。它的工作原理是找到将数据分成不同类的最佳超平面,同时最大化类之间的边界。SVM对高维数据特别有用,可以使用核函数处理非线性边界。

    from sklearn.svm import SVC​
    from sklearn.metrics import classification_report, confusion_matrix​
    
    rfc = SVC()​
    rfc.fit(X_train, y_train)​
    print(classification_report(y_test,rfc.predict(X_test)))​
    print(confusion_matrix(y_test,rfc.predict(X_test)))​

    深度学习​

    Vom Entscheidungsbaum zum Transformator – Vergleich von Stimmungsanalysemodellen für Restaurantbewertungen

    图5此问题中使用的神经网络的简化表示

    深度学习是一种先进的机器学习方法,它利用由多层和神经元组成的人工神经网络。深度学习网络在文本和图像数据方面表现出色。使用Keras库实现这些网络是一个简单的过程。

    import tensorflow as tf​
    from tensorflow import keras​
    from sklearn.model_selection import train_test_split​
    from sklearn.metrics import classification_report, confusion_matrix​
    
    model = keras.Sequential()​
    model.add(keras.layers.Dense(256, activatinotallow='relu', input_shape=(1024,)))​
    model.add(keras.layers.Dropout(0.2))​
    model.add(keras.layers.Dense(128, activatinotallow='relu'))​
    model.add(keras.layers.Dense(1, activatinotallow='sigmoid'))​
    
    model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])​
    
    history = model.fit(X_train, y_train, epochs=11, validation_data=(X_test, y_test))​
    
    test_loss, test_acc = model.evaluate(X_test, y_test)​
    print('Test accuracy:', test_acc)​
    y_pred = model.predict(X_test)​
    
    print(classification_report(y_test,y_pred.round()))​
    print(confusion_matrix(y_test,y_pred.round()))​

    在此,使用了具有两个隐藏层和校正线性单元(ReLU)激活函数的神经网络。输出层包含一个具有S形激活函数的神经元,使网络能够对积极或消极情绪进行二元预测。二元交叉熵损失函数与S形激活配对以训练模型。此外,Dropout被用于帮助防止过度拟合和改进模型的泛化。我用各种不同的超参数进行了测试,发现这种配置最适合这个问题。

    通过以下函数,我们可以可视化模型的训练。

    import matplotlib.pyplot as plt​
    
    def plot_accuracy(history):​
     plt.plot(history.history['accuracy'])​
     plt.plot(history.history['val_accuracy'])​
     plt.title('Model Accuracy')​
     plt.xlabel('Epoch')​
     plt.ylabel('Accuracy')​
     plt.legend(['Train', 'Validation'], loc='upper left')​
     plt.show()​

    Vom Entscheidungsbaum zum Transformator – Vergleich von Stimmungsanalysemodellen für Restaurantbewertungen

    图6示例训练输出

    Transformers​

    Vom Entscheidungsbaum zum Transformator – Vergleich von Stimmungsanalysemodellen für Restaurantbewertungen

    图7BERT大型语言模型的预训练和微调过程。(BERT原始论文地址:https://arxiv.org/pdf/1810.04805v2.pdf

    微调Transformers是自然语言处理中的一种流行技术,涉及调整预先训练的变换器模型以适应特定任务。Transformers,如BERT、GPT-2和RoBERTa,在大量文本数据上进行了预训练,能够学习语言中的复杂模式和关系。然而,为了在特定任务(如情绪分析或文本分类)上表现良好,需要根据任务特定数据对这些模型进行微调。

    对于这些类型的模型,不需要我们之前创建的向量表示,因为它们直接处理标记(直接从文本中提取)。在马其顿语的情绪分析任务中,我使用了bert-base-multilingual-uncased,这是BERT模型的多语言版本。

    HuggingFace使微调Transformers成为一项非常简单的任务。首先,需要将数据加载到Transformers数据集中。然后将文本标记化,最后训练模型。

    from sklearn.model_selection import train_test_split​
    from datasets import load_dataset​
    from transformers import TrainingArguments, Trainer​
    from sklearn.metrics import classification_report, confusion_matrix​
    
    # 创建由数据集加载的训练和测试集的csv文件​
    df.rename(columns={"sentiment": "label"}, inplace=True)​
    train, test = train_test_split(df, test_size=0.2)​
    pd.DataFrame(train).to_csv('train.csv',index=False)​
    pd.DataFrame(test).to_csv('test.csv',index=False)​
    
    #加载数据集​
    dataset = load_dataset("csv", data_files={"train": "train.csv", "test": "test.csv"})​
    
    # 标记文本​
    tokenizer = AutoTokenizer.from_pretrained('bert-base-multilingual-uncased')​
    encoded_dataset = dataset.map(lambda t: tokenizer(t['comment_cyrillic'], truncatinotallow=True), batched=True,load_from_cache_file=False)​
    
    # 加载预训练的模型​
    model = AutoModelForSequenceClassification.from_pretrained('bert-base-multilingual-uncased',num_labels =2)​
    
    #微调模型​
    arg = TrainingArguments(​
     "mbert-sentiment-mk",​
     learning_rate=5e-5,​
     num_train_epochs=5,​
     per_device_eval_batch_size=8,​
     per_device_train_batch_size=8,​
     seed=42,​
     push_to_hub=True​
    )​
    trainer = Trainer(​
     model=model,​
     args=arg,​
     tokenizer=tokenizer,​
     train_dataset=encoded_dataset['train'],​
     eval_dataset=encoded_dataset['test']​
    )​
    trainer.train()​
    
    # 取得预测结果​
    predictions = trainer.predict(encoded_dataset["test"])​
    preds = np.argmax(predictions.predictions, axis=-1)​
    
    # 评估​
    print(classification_report(predictions.label_ids,preds))​
    print(confusion_matrix(predictions.label_ids,preds))​

    因此,我们成功地调整了BERT进行情绪分析。

    实验结果与讨论​

    Vom Entscheidungsbaum zum Transformator – Vergleich von Stimmungsanalysemodellen für Restaurantbewertungen

    图8所有模型的结果大对比

    实验证明,马其顿餐厅评论的情绪分析结果很有希望从上图中可见,其中有几个模型获得了很高的准确性和F1分数。实验表明,深度学习模型和变换器的性能优于传统的机器学习模型,如随机森林和支持向量机,尽管相差不大。使用新OpenAI嵌入的Transformers和深度神经网络成功打破了0.9精度的障碍。

    OpenAI嵌入模型textembedding-ada-002成功地大提高了从经典ML模型获得的结果,尤其是在支持向量机上。本研究中的最佳结果是在深度学习模型上嵌入西里尔文文本。

    一般来说,拉丁语文本的表现比西里尔语文本差。尽管我最初假设这些模型的性能会更好,但考虑到拉丁语中类似单词在其他斯拉夫语言中的流行,以及嵌入模型是基于这些数据训练的事实,这些发现并不支持这一假设。

    Zukünftige Arbeit​

    In zukünftigen Arbeiten wäre es äußerst wertvoll, mehr Daten zu sammeln, um das Modell weiter zu trainieren und zu testen, insbesondere wenn die Überprüfungsthemen und -quellen vielfältiger sind. Darüber hinaus kann der Versuch, mehr Funktionen wie Metadaten (z. B. Alter, Geschlecht, Standort des Prüfers) oder zeitliche Informationen (z. B. Überprüfungszeit) in das Modell einzubeziehen, dessen Genauigkeit verbessern. Schließlich wäre es interessant, die Analyse auf andere, weniger häufig verwendete Sprachen auszudehnen und die Leistung des Modells mit dem im mazedonischen Review trainierten Modell zu vergleichen. Fazit​

    Dieser Beitrag demonstriert die Wirksamkeit verschiedener

    beliebter

    Modelle des maschinellen Lernens und Einbettungstechniken für die Stimmungsanalyse mazedonischer Restaurantbewertungen. Es werden mehrere klassische Modelle des maschinellen Lernens, wie Random Forests und SVMs, sowie moderne Deep-Learning-Techniken, einschließlich neuronaler Netze und Transformers, untersucht und verglichen. Die Ergebnisse zeigen, dass fein abgestimmte Transformers-Modelle und Deep-Learning-Modelle, die die neuesten OpenAI-Einbettungen verwenden, andere Methoden übertreffen, mit einer Verifizierungsgenauigkeit von bis zu 90 %. Übersetzer-Einführung​

    Zhu Xianzhong, 51CTO-Community-Redakteur, 51CTO-Expertenblogger, Dozent, Computerlehrer an einer Universität in Weifang und ein Veteran in der freiberuflichen Programmierbranche. ​

    Originaltitel:

    Von Entscheidungsbäumen zu Transformatoren: Vergleich von Stimmungsanalysemodellen für mazedonische Restaurantbewertungen, Autor: Danilo Najkov.

Das obige ist der detaillierte Inhalt vonVom Entscheidungsbaum zum Transformator – Vergleich von Stimmungsanalysemodellen für Restaurantbewertungen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen