Název: | PocketEAR: An Assistive Sound Classification System for Hearing-Impaired |
Další názvy: | PocketEAR: Asistivní systém klasifikace zvuků pro sluchově postižené |
Autoři: | Ekštein, Kamil |
Citace zdrojového dokumentu: | EKŠTEIN, K.. PocketEAR: An Assistive Sound Classification System for Hearing-Impaired. In: Speech and Computer. Cham: Springer, 2019. s. 82-92. ISBN 978-3-030-26060-6 , ISSN 0302-9743. |
Datum vydání: | 2019 |
Nakladatel: | Springer |
Typ dokumentu: | konferenční příspěvek conferenceObject |
URI: | 2-s2.0-85071465267 http://hdl.handle.net/11025/36712 |
ISBN: | 978-3-030-26060-6 |
ISSN: | 0302-9743 |
Klíčová slova: | Klasifikace zvuků z prostředí;hluboké konvoluční neuronové sítě;dvojstupňový klasifikátor;architektura klient-server |
Klíčová slova v dalším jazyce: | Environmental sound classfication;deep convolutional neural networks;two-stage classifier;client-server architecture |
Abstrakt: | Tento článek popisuje architekturu a činnost asistivního systému nazvaného PocketEAR, který je primárně určen pro sluchově postižené uživatele. Pomáhá jim orientovat se v akusticky aktivním prostředí tím, že průběžně monitoruje a klasifikuje přicházející zvuky a zobrazuje uživateli třídy těchto zachycených zvuků. Klasifikátor zvuků prostředí je navržen jako dvojstupňový klasifikátor hlubokou konvoluční neuronovou sítí (skládá se z tzv. superklasifikátoru a množiny tzv. subklasifikátorů), do kterého vstupuje sekvence MFCC vektorů. Klasifikátor je obklopen distribuovaným klient-server systémem, kdy zachycení zvuků v terénu, jejich (před)zpracování a zobrazení výsledků klasifikace zajišťují instance mobilní klientské aplikace, zatímco o samotnou klasifikaci a správu systému se starají dva kooperující servery. Článek detailně rozebírá architekturu klasifikátoru zvuků z prostředí a také použité specifické postupy zpracování zvuku. This paper describes the design and operation of an assistive system called PocketEAR which is primarily targeted towards hearing-impaired users. It helps them with orientation in acoustically active environments by continuously monitoring and classifying the incoming sounds and displaying the captured sound classes to the users. The environmental sound recognizer is designed as a two-stage deep convolutional neural network classifier (consists of the so-called superclassifier and a set of the so-called subclassifiers) fed with sequences of MFCC vectors. It is wrapped in a distributed client-server system where the sound capturing in terrain, (pre)processing and displaying of the classication results are performed by instances of a mobile client application, and the actual classication and maintenance are carried out by two co-operating servers. The paper discusses in details the architecture of the environmental sound classier as well as the used task-specific sound processing |
Práva: | Plný text je přístupný v rámci univerzity přihlášeným uživatelům. © Springer |
Vyskytuje se v kolekcích: | Konferenční příspěvky / Conference papers (NTIS) Konferenční příspěvky / Conference Papers (KIV) OBD |
Soubory připojené k záznamu:
Soubor | Velikost | Formát | |
---|---|---|---|
Ekštein specom2019-kamil-pocketear.pdf | 1,23 MB | Adobe PDF | Zobrazit/otevřít Vyžádat kopii |
Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam:
http://hdl.handle.net/11025/36712
Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.