Full metadata record
DC poleHodnotaJazyk
dc.contributor.authorKarpov, Alexey
dc.contributor.authorTsirulnik, Liliya
dc.contributor.authorKrňoul, Zdeněk
dc.contributor.authorRonzhin, Andrey
dc.contributor.authorLobanov, Boris
dc.contributor.authorŽelezný, Miloš
dc.date.accessioned2016-01-11T05:58:40Z
dc.date.available2016-01-11T05:58:40Z
dc.date.issued2009
dc.identifier.citationKARPOV, Alexey; TSIRULNIK, Liliya; KRŇOUL, Zdeněk; RONZHIN, Andrey; LOBANOV, Boris; ŽELEZNÝ, Miloš. Audio-visual speech asynchrony modeling in a talking head. In: Proceedings of ICSPL 2009: 10th Annual Conference of the International Speech Communication Association 2009, 6-10 September 2009, Brighton, UK. [Baixas]: ISCA, 2009, p. 2911-2914. ISSN 1990-9772.en
dc.identifier.issn1990-9772
dc.identifier.urihttp://www.kky.zcu.cz/cs/publications/AlexeyKarpov_2009_Audio-VisualSpeech
dc.identifier.urihttp://hdl.handle.net/11025/17205
dc.description.abstractV tomto článku je navržen systém audiovizuální syntézy řeči obsahující modelování asynchronie mezi zvukovou a vizuální modalitou řeči. Studie reálných nahrávek obsažených v řečových databázích nám poskytují požadované údaje k pochopení problému modalit asynchronie, která je částečně způsobena koartikulací. Byl vypracován soubor kontextově závislých pravidel časování a doporučení zajišťující synchronizaci zvukové a vizuální řeči tak, že animace mluvící hlavy je více přirozená. Kognitivní ohodnocení systému mluvící hlavy, který je nastaven pro Ruštinu a implementující původní model asynchronie, ukazuje vysokou srozumitelnost a přirozenost syntetizované audiovizuální řeči.cs
dc.format4 s.cs
dc.format.mimetypeapplication/pdf
dc.language.isoenen
dc.publisherISCAen
dc.rights© ISCAcs
dc.subjectautomatické rozpoznávání řečics
dc.subjectsyntéza řečics
dc.subjectmultimodální vjem řečics
dc.subjectkognitivní studiecs
dc.titleAudio-visual speech asynchrony modeling in a talking headen
dc.title.alternativeModelování asynchnie v systému mluvící hlavycs
dc.typečlánekcs
dc.typearticleen
dc.rights.accessopenAccessen
dc.type.versionpublishedVersionen
dc.description.abstract-translatedAn audio-visual speech synthesis system with modeling of asynchrony between auditory and visual speech modalities is proposed in the paper. Corpus-based study of real recordings gave us the required data for understanding the problem of modalities asynchrony that is partially caused by the coarticulationphenomena. A set of context-dependent timing rules and recommendations was elaborated in order to make a synchronization of auditory and visual speech cues of the animated talking head similar to a natural humanlike way. The cognitive evaluation of the model-based talking head for Russian with implementation of the original asynchrony model has shown high intelligibility and naturalness of audio-visual synthesized speech.en
dc.subject.translatedaudio-visual speech processingen
dc.subject.translatedspeech synthesisen
dc.subject.translatedmultimodal speech perceptionen
dc.subject.translatedcognitive studyen
dc.type.statusPeer-revieweden
Vyskytuje se v kolekcích:Články / Articles (NTIS)

Soubory připojené k záznamu:
Soubor Popis VelikostFormát 
AlexeyKarpov_2009_Audio-VisualSpeech.pdfPlný text254,9 kBAdobe PDFZobrazit/otevřít


Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam: http://hdl.handle.net/11025/17205

Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.