Title: | PocketEAR: An Assistive Sound Classification System for Hearing-Impaired |
Other Titles: | PocketEAR: Asistivní systém klasifikace zvuků pro sluchově postižené |
Authors: | Ekštein, Kamil |
Citation: | EKŠTEIN, K.. PocketEAR: An Assistive Sound Classification System for Hearing-Impaired. In: Speech and Computer. Cham: Springer, 2019. s. 82-92. ISBN 978-3-030-26060-6 , ISSN 0302-9743. |
Issue Date: | 2019 |
Publisher: | Springer |
Document type: | konferenční příspěvek conferenceObject |
URI: | 2-s2.0-85071465267 http://hdl.handle.net/11025/36712 |
ISBN: | 978-3-030-26060-6 |
ISSN: | 0302-9743 |
Keywords: | Klasifikace zvuků z prostředí;hluboké konvoluční neuronové sítě;dvojstupňový klasifikátor;architektura klient-server |
Keywords in different language: | Environmental sound classfication;deep convolutional neural networks;two-stage classifier;client-server architecture |
Abstract: | Tento článek popisuje architekturu a činnost asistivního systému nazvaného PocketEAR, který je primárně určen pro sluchově postižené uživatele. Pomáhá jim orientovat se v akusticky aktivním prostředí tím, že průběžně monitoruje a klasifikuje přicházející zvuky a zobrazuje uživateli třídy těchto zachycených zvuků. Klasifikátor zvuků prostředí je navržen jako dvojstupňový klasifikátor hlubokou konvoluční neuronovou sítí (skládá se z tzv. superklasifikátoru a množiny tzv. subklasifikátorů), do kterého vstupuje sekvence MFCC vektorů. Klasifikátor je obklopen distribuovaným klient-server systémem, kdy zachycení zvuků v terénu, jejich (před)zpracování a zobrazení výsledků klasifikace zajišťují instance mobilní klientské aplikace, zatímco o samotnou klasifikaci a správu systému se starají dva kooperující servery. Článek detailně rozebírá architekturu klasifikátoru zvuků z prostředí a také použité specifické postupy zpracování zvuku. This paper describes the design and operation of an assistive system called PocketEAR which is primarily targeted towards hearing-impaired users. It helps them with orientation in acoustically active environments by continuously monitoring and classifying the incoming sounds and displaying the captured sound classes to the users. The environmental sound recognizer is designed as a two-stage deep convolutional neural network classifier (consists of the so-called superclassifier and a set of the so-called subclassifiers) fed with sequences of MFCC vectors. It is wrapped in a distributed client-server system where the sound capturing in terrain, (pre)processing and displaying of the classication results are performed by instances of a mobile client application, and the actual classication and maintenance are carried out by two co-operating servers. The paper discusses in details the architecture of the environmental sound classier as well as the used task-specific sound processing |
Rights: | Plný text je přístupný v rámci univerzity přihlášeným uživatelům. © Springer |
Appears in Collections: | Konferenční příspěvky / Conference papers (NTIS) Konferenční příspěvky / Conference Papers (KIV) OBD |
Files in This Item:
File | Size | Format | |
---|---|---|---|
Ekštein specom2019-kamil-pocketear.pdf | 1,23 MB | Adobe PDF | View/Open Request a copy |
Please use this identifier to cite or link to this item:
http://hdl.handle.net/11025/36712
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.