Heim >Technologie-Peripheriegeräte >KI >Spezifische vorab trainierte Modelle für den biomedizinischen NLP-Bereich: PubMedBERT

Spezifische vorab trainierte Modelle für den biomedizinischen NLP-Bereich: PubMedBERT

王林
王林nach vorne
2023-11-27 17:13:461205Durchsuche

Die rasante Entwicklung großer Sprachmodelle in diesem Jahr hat dazu geführt, dass Modelle wie BERT jetzt als „kleine“ Modelle bezeichnet werden. Beim LLM-Wettbewerb für naturwissenschaftliche Prüfungen von Kaggle erreichten Spieler, die Deberta nutzten, den vierten Platz, was ein hervorragendes Ergebnis ist. Daher ist in einem bestimmten Bereich oder Bedarf nicht unbedingt ein großes Sprachmodell als beste Lösung erforderlich, und auch kleine Modelle haben ihren Platz. Daher stellen wir heute PubMedBERT vor, ein von Microsoft Research bei ACM im Jahr 2022 veröffentlichtes Papier. Dieses Modell trainiert BERT von Grund auf vor, indem es domänenspezifische Korpora verwendet. Das Folgende sind die wichtigsten Punkte des Papiers:

Spezifische vorab trainierte Modelle für den biomedizinischen NLP-Bereich: PubMedBERTFür bestimmte Bereiche mit großen Mengen an unbeschriftetem Text, wie z. B. im biomedizinischen Bereich, ist das Vortraining von Sprachmodellen von Grund auf effektiver als das kontinuierliche Vortraining von Sprachmodellen für allgemeine Domänen. Zu diesem Zweck schlagen wir den Biomedical Language Understanding and Reasoning Benchmark (BLURB) für domänenspezifisches Vortraining vor.

PubMedBERT

1, domänenspezifisches Vortraining. Untersuchungen zeigen, dass man bei Null anfangen kann -spezifisches Vortraining übertrifft das kontinuierliche Vortraining von Allzweck-Sprachmodellen deutlich, was zeigt, dass die vorherrschenden Annahmen, die dem Vortraining für gemischte Domänen zugrunde liegen, nicht immer zutreffen.

2. Modell

Bei Verwendung des BERT-Modells besteht die Anforderung der Ganzwortmaskierung (WWM) darin, dass das gesamte Wort maskiert werden muss

Spezifische vorab trainierte Modelle für den biomedizinischen NLP-Bereich: PubMedBERT

3 Nach Angaben des Autors ist BLUE [45] der erste Versuch, einen NLP-Benchmark im biomedizinischen Bereich zu schaffen. Die Abdeckung von BLUE ist jedoch begrenzt. Für biomedizinische Anwendungen auf Basis von pubmed schlägt der Autor den Biomedical Language Understanding and Reasoning Benchmark (BLURB) vor.

PubMedBERT verwendet einen größeren domänenspezifischen Korpus (21 GB).

Ergebnisanzeige

Spezifische vorab trainierte Modelle für den biomedizinischen NLP-Bereich: PubMedBERT

PubMedBERT übertrifft durchweg alle anderen BERT-Modelle bei den meisten Aufgaben der biomedizinischen Verarbeitung natürlicher Sprache (NLP), oft mit einem klaren Vorteil

Das obige ist der detaillierte Inhalt vonSpezifische vorab trainierte Modelle für den biomedizinischen NLP-Bereich: PubMedBERT. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Stellungnahme:
Dieser Artikel ist reproduziert unter:51cto.com. Bei Verstößen wenden Sie sich bitte an admin@php.cn löschen