Název: BERT-Based Sentiment Analysis Using Distillation
Autoři: Lehečka, Jan
Švec, Jan
Ircing, Pavel
Šmídl, Luboš
Citace zdrojového dokumentu: LEHEČKA, J., ŠVEC, J., IRCING, P., ŠMÍDL, L. BERT-Based Sentiment Analysis Using Distillation. In Statistical Language and Speech Processing, SLSP 2020. Cham: Springer, 2020. s. 58-70. ISBN 978-3-030-59429-9, ISSN 0302-9743.
Datum vydání: 2020
Nakladatel: Springer
Typ dokumentu: konferenční příspěvek
conferenceObject
URI: 2-s2.0-85092196103
http://hdl.handle.net/11025/42765
ISBN: 978-3-030-59429-9
ISSN: 0302-9743
Klíčová slova v dalším jazyce: Sentiment analysis;BERT;Knowledge distillation
Abstrakt v dalším jazyce: In this paper, we present our experiments with BERT (Bidirectional Encoder Representations from Transformers) models in the task of sentiment analysis, which aims to predict the sentiment polarity for the given text. We trained an ensemble of BERT models from a large self-collected movie reviews dataset and distilled the knowledge into a single production model. Moreover, we proposed an improved BERT’s pooling layer architecture, which outperforms standard classification layer while enables per-token sentiment predictions. We demonstrate our improvements on a publicly available dataset with Czech movie reviews.
Práva: Plný text je přístupný v rámci univerzity přihlášeným uživatelům.
© Springer
Vyskytuje se v kolekcích:Konferenční příspěvky / Conference papers (NTIS)
Konferenční příspěvky / Conference Papers (KKY)
OBD

Soubory připojené k záznamu:
Soubor VelikostFormát 
Lehečka2020_Chapter_BERT-BasedSentimentAnalysisUsi.pdf482,82 kBAdobe PDFZobrazit/otevřít  Vyžádat kopii


Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam: http://hdl.handle.net/11025/42765

Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.

hledání
navigace
  1. DSpace at University of West Bohemia
  2. Publikační činnost / Publications
  3. OBD