Název: | Sumarizace novinových článků |
Další názvy: | Summarization of News Articles |
Autoři: | Seják, Michal |
Vedoucí práce/školitel: | Sido Jakub, Ing. |
Oponent: | Flek Lucie, Prof. Dr. |
Datum vydání: | 2022 |
Nakladatel: | Západočeská univerzita v Plzni |
Typ dokumentu: | diplomová práce |
URI: | http://hdl.handle.net/11025/49094 |
Klíčová slova: | sumarizace;nlp;extraktivní;vícedokumentová;bert;czert;longformer |
Klíčová slova v dalším jazyce: | summarization;nlp;extractive;multi-document;bert;czert;longformer |
Abstrakt: | Automatická sumarizace textu je důležitý úkol z oboru zpracování přirozeného jazyka s mnoha aplikacemi. V této práci se zaměřujeme na sumarizaci novinových článků. V práci představujeme nový sumarizační dataset vytvořený z článků ČTK. Na tomto datasetu jsme natrénovali některé z nejmodernějších modelů pro extraktivní sumarizaci s využitím neuronových sítí BERT a Longformer a zhodnotili je podle metrik ROUGE-N, ROUGE-L a BertScore. Z experimentů vyplývá, že nejlepší model dle BertScore je založený na předtrénovaném Longformeru (0.802), ale lze jej využít jen pokud je dopředu znám či zadán počet vět ve shrnutí. Pokud tato informace k dispozici není, nejlepším přístupem se jeví klasifikace jednotlivých vět s kontextem a pozičními metadaty pomocí předtrénovaného modelu BERT (0.79). |
Abstrakt v dalším jazyce: | Automatic text summarization is an important NLP task with many applications. Our particular area of focus is summarization of news articles. We introduce a new Czech summarization dataset created from CNA articles. Using this dataset, we trained multiple state-of-the-art approaches for extractive summarization using the BERT and Longformer model architectures and evaluate them using ROUGE-N, ROUGE-L and BertScore. We found that a pretrained Czech Longformer is the best approach regarding BertScore (0.802), when the number of summary sentences is known. If it is unknown, we found that the best approach is sentence-wise classification with context and positional metadata using a pretrained Czech BERT (BertScore 0.79). |
Práva: | Plný text práce je přístupný bez omezení |
Vyskytuje se v kolekcích: | Diplomové práce / Theses (KIV) |
Soubory připojené k záznamu:
Soubor | Popis | Velikost | Formát | |
---|---|---|---|---|
masters.pdf | Plný text práce | 1,44 MB | Adobe PDF | Zobrazit/otevřít |
A20N0106Phodnoceni-ved.pdf | Posudek vedoucího práce | 119 kB | Adobe PDF | Zobrazit/otevřít |
A20N0106Pposudek-op.pdf | Posudek oponenta práce | 1,25 MB | Adobe PDF | Zobrazit/otevřít |
A20N0106Pobhajoba.pdf | Průběh obhajoby práce | 552,7 kB | Adobe PDF | Zobrazit/otevřít |
A20N0106P-zadani_DIP.pdf | VŠKP - příloha | 17,2 kB | Adobe PDF | Zobrazit/otevřít |
A20N0106P_prilohy.zip | VŠKP - příloha | 1,85 GB | ZIP | Zobrazit/otevřít |
Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam:
http://hdl.handle.net/11025/49094
Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.