ホームページ >テクノロジー周辺機器 >AI >デシジョン ツリーからトランスフォーマーへ — レストラン レビューの感情分析モデルの比較

デシジョン ツリーからトランスフォーマーへ — レストラン レビューの感情分析モデルの比較

WBOY
WBOY転載
2023-05-04 12:31:061806ブラウズ

翻訳者 | 朱賢中

査読者| 孫樹娟

この 記事 #では、さまざまな 人気のある マケドニアのレストランのレビューの感情分析のための機械学習モデルと埋め込み技術の有効性,ニューラル ネットワークや ## モダン ディープを含む、いくつかの古典的な機械学習モデルを探索および比較します。 #Transformers を含む学習テクノロジー。 実験 は、最新の OpenAI 組み込み微調整 Transformers モデルと深層学習モデル の使用がはるかに優れていることを示しています。 ## 他の方法よりも優れています。

自然言語処理の機械学習モデルは従来、英語やスペイン語などの言語に焦点を当ててきました

デシジョン ツリーからトランスフォーマーへ — レストラン レビューの感情分析モデルの比較etc

人気のある言語;しかしはあまり使用されていない言語の開発です機械学習モデルの関連する研究と応用という点では、その数ははるかに少ないです。 一方、 新型コロナウイルス感染症の流行による電子商取引の台頭により、マケドニア語などのあまり一般的ではない言語でも大量のデータが生成されていますオンラインのレビューを通じて。これは、マケドニアのレストランのレビューの感情分析のための機械学習モデルを開発および トレーニングする機会を提供します ; 成功すれば、 これはビジネスに役立つ可能性がありますもっと見る お客様の感情をよく理解し、関連サービスを改善します。この研究では、この問題によってもたらされる課題に取り組み、古典的なランダム フォレストから最新のディープ ラーニング技術や まで、さまざまな 感情分析モデル を調査および比較します。トランスフォーマーetc まず、この記事の内容の概要を説明します。

  • #課題とデータ前処理
  • ベクトル埋め込みの作成
    LASER
  • 埋め込み
  • 多言語ユニバーサル テキスト エンコーダ
  • OpenAI Ada v2
##機械学習モデル
ランダム フォレスト
  • XGBoost
  • サポート ベクター マシン
  • 深層学習
  • #トランスフォーマー
  • ##結果と考察
  • #今後の取り組み
  • ##結論
  • 前処理されたデータ
  • #言語は人間のコミュニケーションの独特な形式であるツール、コンピューターは言語を解釈できません適切な加工技術がなければ。機械が言語を分析して理解するには、複雑な意味論的情報と語彙情報を計算可能に処理可能な方法で表現する必要があります。これを実現する一般的な方法は、ベクトル表現を使用することです。近年、言語固有の表現モデルに加えて、多言語モデルが登場しています。これらのモデルは、幅広い言語にわたるテキストの意味コンテキストをキャプチャできます。

ただし、キリル文字を使用する言語の場合は、

(キリル文字)、インターネット上のユーザーは、自分自身を表現するためにラテン文字を使用すると、ラテン文字とキリル文字で構成されるデータが混在することになり、さらなる課題が生じました。この課題に対処するために、ラテン文字とキリル文字の両方を含む約 500 件のレビュー

--

を含む地元のレストランのデータセットを使用しました。データセットには、ハイブリッド データのパフォーマンスの評価に役立つ小さな英語のコメント セットも含まれています。さらに、オンライン テキストには、削除する必要がある絵文字などの記号が含まれている場合があります。したがって、前処理はテキスト埋め込みを実行する前の重要なステップです。

import pandas as pd​
import numpy as np​

#把数据集加载进一个dataframe​
df = pd.read_csv('/content/data.tsv', sep='t')​

# 注意sentiment类别的分布情况​
df['sentiment'].value_counts()​

# -------​
# 0 337​
# 1 322​
# Name: sentiment, dtype: int64​
データセットには、ほぼ等しい正の 分布が含まれていることに注意してください。ネガティブクラス。絵文字を削除するには、絵文字やその他の記号を簡単に削除できる Python ライブラリ絵文字を使用しました。

!pip install emoji​
import emoji​

clt = []​
for comm in df['comment'].to_numpy():​
 clt.append(emoji.replace_emoji(comm, replace=""))​

df['comment'] = clt​
df.head()​
キリル文字とラテン語の質問については、機械学習モデルがパフォーマンスを比較するために両方でテストできるように、すべてのテキストをどちらか一方に変換しました。 。このタスクを実行するには、「cyrtranslit」ライブラリを使用します。マケドニア語、ブルガリア語、ウクライナ語など、ほとんどのキリル文字をサポートしています。 #
import cyrtranslit​
latin = []​
cyrillic = []​
for comm in df['comment'].to_numpy():​
 latin.append(cyrtranslit.to_latin(comm, "mk"))​
 cyrillic.append(cyrtranslit.to_cyrillic(comm, "mk"))​

df['comment_cyrillic'] = cyrillic​
df['comment_latin'] = latin​
df.head()​
#図 1変換出力

結果

私が使用する埋め込みモデルでは、通常、句読点、ストップワード、その他のテキストのクリーニングは必要ありません。これらのモデルは、句読点を含む自然言語テキストを処理するように設計されており、多くの場合、文がそのままの状態であれば、文の意味をより正確に捉えることができます。このようにして、テキストの前処理が完了します。 デシジョン ツリーからトランスフォーマーへ — レストラン レビューの感情分析モデルの比較

矢量嵌入​

目前,没有大规模的马其顿语言描述模型可用。然而,我们可以使用基于马其顿语文本训练的多语言模型。当前,有几种这样的模型可用,但对于这项任务,我发现LASER和多语言通用句子编码器是最合适的选择。

LASER​

LASER(Language-Agnostic Sentence Representations)是一种生成高质量多语言句子嵌入的语言不可知方法。LASER模型基于两阶段过程其中第一阶段是对文本进行预处理,包括标记化、小写和应用句子。这部分是特定于语言的第二阶段涉及使用多层双向LSTM将预处理的输入文本映射到固定长度的嵌入。

在一系列基准数据集上,LASER已经被证明优于其他流行的句子嵌入方法,如fastText和InferSent。此外,LASER模型是开源的,免费提供,使每个人都可以轻松访问。

使用LASER创建嵌入是一个简单的过程:

!pip install laserembeddings​
!python -m laserembeddings download-models​

from laserembeddings import Laser​

#创建嵌入​
laser = Laser()​
embeddings_c = laser.embed_sentences(df['comment_cyrillic'].to_numpy(),lang='mk')​
embeddings_l = laser.embed_sentences(df['comment_latin'].to_numpy(),lang='mk')​

# 保存嵌入​
np.save('/content/laser_multi_c.npy', embeddings_c)​
np.save('/content/laser_multi_l.npy', embeddings_l)​

多语言通用句子编码器​

多语言通用句子编码器(MUSE)是由Facebook开发的用于生成句子嵌入的预训练模型。MUSE旨在将多种语言的句子编码到一个公共空间中。

该模型基于深度神经网络,该网络使用编码器-解码器架构来学习句子与其在高维空间中的对应嵌入向量之间的映射。MUSE是在一个大规模的多语言语料库上训练的,其中包括维基百科的文本、新闻文章和网页。

!pip install tensorflow_text​
import tensorflow as tf​
import tensorflow_hub as hub​
import numpy as np​
import tensorflow_text​

#加载MUSE模型​
module_url = "https://tfhub.dev/google/universal-sentence-encoder-multilingual-large/3"​
embed = hub.load(module_url)​

sentences = df['comment_cyrillic'].to_numpy()​
muse_c = embed(sentences)​
muse_c = np.array(muse_c)​

sentences = df['comment_latin'].to_numpy()​
muse_l = embed(sentences)​
muse_l = np.array(muse_l)​

np.save('/content/muse_c.npy', muse_c)​
np.save('/content/muse_l.npy', muse_l)​

OpenAI Ada v2​

2022年底,OpenAI宣布了他们全新的最先进嵌入模型text-embedding-ada-002(https://openai.com/blog/new-and-improved-embedding-model/)。由于此模型基于GPT-3构建,因此具有多语言处理能力。为了比较西里尔文和拉丁语评论的结果,我决定在两个数据集上运行了模型

!pip install openai​

import openai​
openai.api_key = 'YOUR_KEY_HERE'​

embeds_c = openai.Embedding.create(input = df['comment_cyrillic'].to_numpy().tolist(), model='text-embedding-ada-002')['data']​
embeds_l = openai.Embedding.create(input = df['comment_latin'].to_numpy().tolist(), model='text-embedding-ada-002')['data']​

full_arr_c = []​
for e in embeds_c:​
 full_arr_c.append(e['embedding'])​
full_arr_c = np.array(full_arr_c)​

full_arr_l = []​
for e in embeds_l:​
 full_arr_l.append(e['embedding'])​
full_arr_l = np.array(full_arr_l)​

np.save('/content/openai_ada_c.npy', full_arr_c)​
np.save('/content/openai_ada_l.npy', full_arr_l)​

机器学习模型​

本节探讨用于预测马其顿餐厅评论中情绪的各种机器学习模型。从传统的机器学习模型到深度学习技术,我们将研究每个模型的优缺点,并比较它们在数据集上的性能。

在运行任何模型之前,应该对数据进行分割,以便针对每种嵌入类型进行训练和测试。这可以通过sklearn库轻松完成。

from sklearn.model_selection import train_test_split​
X_train, X_test, y_train, y_test = train_test_split(embeddings_c, df['sentiment'], test_size=0.2, random_state=42)​

随机森林​

デシジョン ツリーからトランスフォーマーへ — レストラン レビューの感情分析モデルの比較

图2随机森林分类的简化表示。构建100个决策树,并将结果作为每个决策树的结果之间的多数表决进行计算

随机森林是一种广泛使用的机器学习算法,它使用决策树集合对数据点进行分类。该算法通过在完整数据集的子集和特征的随机子集上训练每个决策树来工作。在推理过程中,每个决策树都会生成一个情绪预测,最终的结果是通过对所有树进行多数投票获得的。这种方法有助于防止过度拟合,并可导致更稳健和准确的预测结果

from sklearn.ensemble import RandomForestClassifier​
from sklearn.metrics import classification_report, confusion_matrix​

rfc = RandomForestClassifier(n_estimators=100)​
rfc.fit(X_train, y_train)​
print(classification_report(y_test,rfc.predict(X_test)))​
print(confusion_matrix(y_test,rfc.predict(X_test)))​

XGBoost​

デシジョン ツリーからトランスフォーマーへ — レストラン レビューの感情分析モデルの比較

图3基于boosting算法的顺序过程。每个下一个决策树都基于上一个决策的残差(误差)进行训练

XGBoost(极限梯度增强)是一种强大的集成方法,主要用于表格数据。与随机森林算法模型一样,XGBoost也使用决策树对数据点进行分类,但方法不同。XGBoost不是一次训练所有树,而是以顺序的方式训练每棵树,从上一棵树所犯的错误中学习。这个过程被称为增强,这意味着将弱模型结合起来,形成一个更强的模型。虽然XGBoost主要使用表格数据产生了很好的结果,但使用向量嵌入测试该模型也会很有趣。

from xgboost import XGBClassifier​
from sklearn.metrics import classification_report, confusion_matrix​

rfc = XGBClassifier(max_depth=15)​
rfc.fit(X_train, y_train)​
print(classification_report(y_test,rfc.predict(X_test)))​
print(confusion_matrix(y_test,rfc.predict(X_test)))​

支持向量机​

デシジョン ツリーからトランスフォーマーへ — レストラン レビューの感情分析モデルの比較

图4支持向量分类的简化表示。在具有1024个输入特征的这种情绪分析的情况下,超平面将是1023维

支持向量机(SVM)是一种用于分类和回归任务的流行且强大的机器学习算法。它的工作原理是找到将数据分成不同类的最佳超平面,同时最大化类之间的边界。SVM对高维数据特别有用,可以使用核函数处理非线性边界。

from sklearn.svm import SVC​
from sklearn.metrics import classification_report, confusion_matrix​

rfc = SVC()​
rfc.fit(X_train, y_train)​
print(classification_report(y_test,rfc.predict(X_test)))​
print(confusion_matrix(y_test,rfc.predict(X_test)))​

深度学习​

デシジョン ツリーからトランスフォーマーへ — レストラン レビューの感情分析モデルの比較

图5此问题中使用的神经网络的简化表示

深度学习是一种先进的机器学习方法,它利用由多层和神经元组成的人工神经网络。深度学习网络在文本和图像数据方面表现出色。使用Keras库实现这些网络是一个简单的过程。

import tensorflow as tf​
from tensorflow import keras​
from sklearn.model_selection import train_test_split​
from sklearn.metrics import classification_report, confusion_matrix​

model = keras.Sequential()​
model.add(keras.layers.Dense(256, activatinotallow='relu', input_shape=(1024,)))​
model.add(keras.layers.Dropout(0.2))​
model.add(keras.layers.Dense(128, activatinotallow='relu'))​
model.add(keras.layers.Dense(1, activatinotallow='sigmoid'))​

model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])​

history = model.fit(X_train, y_train, epochs=11, validation_data=(X_test, y_test))​

test_loss, test_acc = model.evaluate(X_test, y_test)​
print('Test accuracy:', test_acc)​
y_pred = model.predict(X_test)​

print(classification_report(y_test,y_pred.round()))​
print(confusion_matrix(y_test,y_pred.round()))​

在此,使用了具有两个隐藏层和校正线性单元(ReLU)激活函数的神经网络。输出层包含一个具有S形激活函数的神经元,使网络能够对积极或消极情绪进行二元预测。二元交叉熵损失函数与S形激活配对以训练模型。此外,Dropout被用于帮助防止过度拟合和改进模型的泛化。我用各种不同的超参数进行了测试,发现这种配置最适合这个问题。

通过以下函数,我们可以可视化模型的训练。

import matplotlib.pyplot as plt​

def plot_accuracy(history):​
 plt.plot(history.history['accuracy'])​
 plt.plot(history.history['val_accuracy'])​
 plt.title('Model Accuracy')​
 plt.xlabel('Epoch')​
 plt.ylabel('Accuracy')​
 plt.legend(['Train', 'Validation'], loc='upper left')​
 plt.show()​

デシジョン ツリーからトランスフォーマーへ — レストラン レビューの感情分析モデルの比較

图6示例训练输出

Transformers​

デシジョン ツリーからトランスフォーマーへ — レストラン レビューの感情分析モデルの比較

图7BERT大型语言模型的预训练和微调过程。(BERT原始论文地址:https://arxiv.org/pdf/1810.04805v2.pdf

微调Transformers是自然语言处理中的一种流行技术,涉及调整预先训练的变换器模型以适应特定任务。Transformers,如BERT、GPT-2和RoBERTa,在大量文本数据上进行了预训练,能够学习语言中的复杂模式和关系。然而,为了在特定任务(如情绪分析或文本分类)上表现良好,需要根据任务特定数据对这些模型进行微调。

对于这些类型的模型,不需要我们之前创建的向量表示,因为它们直接处理标记(直接从文本中提取)。在马其顿语的情绪分析任务中,我使用了bert-base-multilingual-uncased,这是BERT模型的多语言版本。

HuggingFace使微调Transformers成为一项非常简单的任务。首先,需要将数据加载到Transformers数据集中。然后将文本标记化,最后训练模型。

from sklearn.model_selection import train_test_split​
from datasets import load_dataset​
from transformers import TrainingArguments, Trainer​
from sklearn.metrics import classification_report, confusion_matrix​

# 创建由数据集加载的训练和测试集的csv文件​
df.rename(columns={"sentiment": "label"}, inplace=True)​
train, test = train_test_split(df, test_size=0.2)​
pd.DataFrame(train).to_csv('train.csv',index=False)​
pd.DataFrame(test).to_csv('test.csv',index=False)​

#加载数据集​
dataset = load_dataset("csv", data_files={"train": "train.csv", "test": "test.csv"})​

# 标记文本​
tokenizer = AutoTokenizer.from_pretrained('bert-base-multilingual-uncased')​
encoded_dataset = dataset.map(lambda t: tokenizer(t['comment_cyrillic'], truncatinotallow=True), batched=True,load_from_cache_file=False)​

# 加载预训练的模型​
model = AutoModelForSequenceClassification.from_pretrained('bert-base-multilingual-uncased',num_labels =2)​

#微调模型​
arg = TrainingArguments(​
 "mbert-sentiment-mk",​
 learning_rate=5e-5,​
 num_train_epochs=5,​
 per_device_eval_batch_size=8,​
 per_device_train_batch_size=8,​
 seed=42,​
 push_to_hub=True​
)​
trainer = Trainer(​
 model=model,​
 args=arg,​
 tokenizer=tokenizer,​
 train_dataset=encoded_dataset['train'],​
 eval_dataset=encoded_dataset['test']​
)​
trainer.train()​

# 取得预测结果​
predictions = trainer.predict(encoded_dataset["test"])​
preds = np.argmax(predictions.predictions, axis=-1)​

# 评估​
print(classification_report(predictions.label_ids,preds))​
print(confusion_matrix(predictions.label_ids,preds))​

因此,我们成功地调整了BERT进行情绪分析。

实验结果与讨论​

デシジョン ツリーからトランスフォーマーへ — レストラン レビューの感情分析モデルの比較

图8所有模型的结果大对比

实验证明,马其顿餐厅评论的情绪分析结果很有希望从上图中可见,其中有几个模型获得了很高的准确性和F1分数。实验表明,深度学习模型和变换器的性能优于传统的机器学习模型,如随机森林和支持向量机,尽管相差不大。使用新OpenAI嵌入的Transformers和深度神经网络成功打破了0.9精度的障碍。

OpenAI嵌入模型textembedding-ada-002成功地大提高了从经典ML模型获得的结果,尤其是在支持向量机上。本研究中的最佳结果是在深度学习模型上嵌入西里尔文文本。

一般来说,拉丁语文本的表现比西里尔语文本差。尽管我最初假设这些模型的性能会更好,但考虑到拉丁语中类似单词在其他斯拉夫语言中的流行,以及嵌入模型是基于这些数据训练的事实,这些发现并不支持这一假设。

今後の作業

今後の作業では、特にレビューのトピックやソースがより多様である場合、モデルをさらにトレーニングしてテストするために、より多くのデータを収集することが非常に価値があると考えられます。 。さらに、メタデータ (レビュー担当者の年齢、性別、所在地など) や一時的な情報 (レビュー時間など) などの特徴をより多くモデルに組み込もうとすると、精度が向上する可能性があります。最後に、分析を他のあまり一般的に使用されていない言語に拡張し、モデルのパフォーマンスをマケドニアのレビューでトレーニングされたモデルと比較することは興味深いでしょう。 結論

この記事では、さまざまな

人気のある

機械学習モデルとその有効性を示します。マケドニアのレストランのレビューの感情分析のための埋め込み技術。ランダム フォレストや SVM などのいくつかの古典的な機械学習モデルだけでなく、ニューラル ネットワークや Transformers などの最新の深層学習技術も検討および比較されます。結果は、最新の OpenAI 埋め込みを使用した微調整された Transformers モデルとディープ ラーニング モデルが他の方法よりも優れており、検証精度が 90% に達していることを示しています。 翻訳者紹介

Zhu Xianzhong、51CTOコミュニティ編集者、51CTOエキスパートブロガー、講師、濰坊の大学のコンピューター教師、フリーランスプログラミング界のベテラン。

元のタイトル:

意思決定ツリーからトランスフォーマーへ: マケドニアのレストランのレビューの感情分析モデルの比較 、著者: Danilo Najkov

以上がデシジョン ツリーからトランスフォーマーへ — レストラン レビューの感情分析モデルの比較の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明:
この記事は51cto.comで複製されています。侵害がある場合は、admin@php.cn までご連絡ください。