Název: PocketEAR: An Assistive Sound Classification System for Hearing-Impaired
Další názvy: PocketEAR: Asistivní systém klasifikace zvuků pro sluchově postižené
Autoři: Ekštein, Kamil
Citace zdrojového dokumentu: EKŠTEIN, K.. PocketEAR: An Assistive Sound Classification System for Hearing-Impaired. In: Speech and Computer. Cham: Springer, 2019. s. 82-92. ISBN 978-3-030-26060-6 , ISSN 0302-9743.
Datum vydání: 2019
Nakladatel: Springer
Typ dokumentu: konferenční příspěvek
conferenceObject
URI: 2-s2.0-85071465267
http://hdl.handle.net/11025/36712
ISBN: 978-3-030-26060-6
ISSN: 0302-9743
Klíčová slova: Klasifikace zvuků z prostředí;hluboké konvoluční neuronové sítě;dvojstupňový klasifikátor;architektura klient-server
Klíčová slova v dalším jazyce: Environmental sound classfication;deep convolutional neural networks;two-stage classifier;client-server architecture
Abstrakt: Tento článek popisuje architekturu a činnost asistivního systému nazvaného PocketEAR, který je primárně určen pro sluchově postižené uživatele. Pomáhá jim orientovat se v akusticky aktivním prostředí tím, že průběžně monitoruje a klasifikuje přicházející zvuky a zobrazuje uživateli třídy těchto zachycených zvuků. Klasifikátor zvuků prostředí je navržen jako dvojstupňový klasifikátor hlubokou konvoluční neuronovou sítí (skládá se z tzv. superklasifikátoru a množiny tzv. subklasifikátorů), do kterého vstupuje sekvence MFCC vektorů. Klasifikátor je obklopen distribuovaným klient-server systémem, kdy zachycení zvuků v terénu, jejich (před)zpracování a zobrazení výsledků klasifikace zajišťují instance mobilní klientské aplikace, zatímco o samotnou klasifikaci a správu systému se starají dva kooperující servery. Článek detailně rozebírá architekturu klasifikátoru zvuků z prostředí a také použité specifické postupy zpracování zvuku.
This paper describes the design and operation of an assistive system called PocketEAR which is primarily targeted towards hearing-impaired users. It helps them with orientation in acoustically active environments by continuously monitoring and classifying the incoming sounds and displaying the captured sound classes to the users. The environmental sound recognizer is designed as a two-stage deep convolutional neural network classifier (consists of the so-called superclassifier and a set of the so-called subclassifiers) fed with sequences of MFCC vectors. It is wrapped in a distributed client-server system where the sound capturing in terrain, (pre)processing and displaying of the classication results are performed by instances of a mobile client application, and the actual classication and maintenance are carried out by two co-operating servers. The paper discusses in details the architecture of the environmental sound classier as well as the used task-specific sound processing
Práva: Plný text je přístupný v rámci univerzity přihlášeným uživatelům.
© Springer
Vyskytuje se v kolekcích:Konferenční příspěvky / Conference papers (NTIS)
Konferenční příspěvky / Conference Papers (KIV)
OBD

Soubory připojené k záznamu:
Soubor VelikostFormát 
Ekštein specom2019-kamil-pocketear.pdf1,23 MBAdobe PDFZobrazit/otevřít  Vyžádat kopii


Použijte tento identifikátor k citaci nebo jako odkaz na tento záznam: http://hdl.handle.net/11025/36712

Všechny záznamy v DSpace jsou chráněny autorskými právy, všechna práva vyhrazena.

hledání
navigace
  1. DSpace at University of West Bohemia
  2. Publikační činnost / Publications
  3. OBD