Serwis Infona wykorzystuje pliki cookies (ciasteczka). Są to wartości tekstowe, zapamiętywane przez przeglądarkę na urządzeniu użytkownika. Nasz serwis ma dostęp do tych wartości oraz wykorzystuje je do zapamiętania danych dotyczących użytkownika, takich jak np. ustawienia (typu widok ekranu, wybór języka interfejsu), zapamiętanie zalogowania. Korzystanie z serwisu Infona oznacza zgodę na zapis informacji i ich wykorzystanie dla celów korzytania z serwisu. Więcej informacji można znaleźć w Polityce prywatności oraz Regulaminie serwisu. Zamknięcie tego okienka potwierdza zapoznanie się z informacją o plikach cookies, akceptację polityki prywatności i regulaminu oraz sposobu wykorzystywania plików cookies w serwisie. Możesz zmienić ustawienia obsługi cookies w swojej przeglądarce.
Expressing emotion to others and recognizing emotion state of the counterpart are not difficult for human. Emotion state of a person may be recognized from the facial expression, voice, and/or gesture. Speech emotion recognition research gained a lot of attention in recent years. One of the important subjects in speech emotion recognition research is the feature selection. The speech features used...
Emotion plays a critical role in human interaction. Listeners can perceive the emotional state of speakers from their facial expression, gestures and/or speech. In this paper, we investigate the relationship of the intended emotion expressed by speakers and the emotion perceived by listeners of a newly recorded corpus. We investigate the consistency of the emotion expressed by speakers and the emotion...
To meet the real world challenges for speech emotion recognition, four emotions for practical use were studied for evaluation of work ability. Elicited speech corpus was collected in a psychology experiment to provide trustable emotion data, acoustic features related to arousal and valence dimensions were selected specially for the practical emotions and a re-compositive GMM method was used for the...
This paper constructs a VQ/ANN (vector quantization/artificial neural network) based speech emotion recognition system. The system first extracts the basic prosodic parameters and Mel-frequency cepstral coefficients (MFCC) frame by frame. Recent researches reveal that MFCC convey detailed emotional relevant information of syllable. However, the statistic measures of MFCC confuse the information at...
Podaj zakres dat dla filtrowania wyświetlonych wyników. Możesz podać datę początkową, końcową lub obie daty. Daty możesz wpisać ręcznie lub wybrać za pomocą kalendarza.