Full metadata record
DC poleHodnotaJazyk
dc.contributor.authorŠvec, Jan
dc.contributor.authorFrémund, Adam
dc.contributor.authorBulín, Martin
dc.contributor.authorLehečka, Jan
dc.date.accessioned2023-01-16T11:00:16Z-
dc.date.available2023-01-16T11:00:16Z-
dc.date.issued2022
dc.identifier.citationŠVEC, J. FRÉMUND, A. BULÍN, M. LEHEČKA, J. Transfer Learning of Transformers for Spoken Language Understanding. In Text, Speech, and Dialogue 25th International Conference, TSD 2022, Brno, Czech Republic, September 6–9, 2022, Proceedings. Cham: Springer International Publishing, 2022. s. 489-500. ISBN: 978-3-031-16269-5 , ISSN: 0302-9743cs
dc.identifier.isbn978-3-031-16269-5
dc.identifier.issn0302-9743
dc.identifier.uri2-s2.0-85139041956
dc.identifier.urihttp://hdl.handle.net/11025/50928
dc.format12 s.cs
dc.format.mimetypeapplication/pdf
dc.language.isoenen
dc.publisherSpringer International Publishingen
dc.relation.ispartofseriesText, Speech, and Dialogue 25th International Conference, TSD 2022, Brno, Czech Republic, September 6–9, 2022, Proceedingsen
dc.rightsPlný text je přístupný v rámci univerzity přihlášeným uživatelům.cs
dc.rights© Springer Nature Switzerland AGen
dc.titleTransfer Learning of Transformers for Spoken Language Understandingen
dc.typekonferenční příspěvekcs
dc.typeConferenceObjecten
dc.rights.accessrestrictedAccessen
dc.type.versionpublishedVersionen
dc.description.abstract-translatedPre-trained models used in the transfer-learning scenario are recently becoming very popular. Such models benefit from the availability of large sets of unlabeled data. Two kinds of such models include the Wav2Vec 2.0 speech recognizer and T5 text-to-text transformer. In this paper, we describe a novel application of such models for dialog systems, where both the speech recognizer and the spoken language understanding modules are represented as Transformer models. Such composition outperforms the baseline based on the DNN-HMM speech recognizer and CNN understanding.en
dc.subject.translatedWav2Vec modelen
dc.subject.translatedSpeech recognitionen
dc.subject.translatedT5 modelen
dc.subject.translatedSpoken language understandingen
dc.identifier.doi10.1007/978-3-031-16270-1_40
dc.type.statusPeer-revieweden
dc.identifier.obd43936700
dc.project.IDGA22-27800S/Využití vícemodálních Transformerů pro přirozenější hlasový dialogcs
dc.project.IDSGS-2022-017/Inteligentní metody strojového vnímání a porozumění 5cs
dc.project.ID90140/Velká výzkumná infrastruktura_(J) - e-INFRA CZcs
Vyskytuje se v kolekcích:Konferenční příspěvky / Conference papers (NTIS)
Konferenční příspěvky / Conference Papers (KKY)
OBD

Soubory připojené k záznamu:
Soubor VelikostFormát 
Svec_Fremund_Bulin_Lehecka-Transfer_Learning_of_Transformers_TSD_2022.pdf286,91 kBAdobe PDFZobrazit/otevřít  Vyžádat kopii


Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam: http://hdl.handle.net/11025/50928

Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.

hledání
navigace
  1. DSpace at University of West Bohemia
  2. Publikační činnost / Publications
  3. OBD