Des R\'eseaux de Neurones avec M\'ecanisme d'Attention pour la Compr\'ehension de la Parole (Exploring the use of Attention-Based Recurrent Neural Networks For Spoken Language Understanding )

L{'}{\'e}tude porte sur l{'}apport d{'}un r{\'e}seau de neurones r{\'e}current (Recurrent Neural Network RNN) bidirectionnel encodeur/d{\'e}codeur avec m{\'e}canisme d{'}attention pour une t{\^a}che de compr{\'e}hension de la parole. Les premi{\`e}res exp{\'e}riences faites sur le corpus ATIS confirment la qualit{\'e} du syst{\`e}me RNN {\'e}tat de l{'}art utilis{\'e} pour cet article, en comparant les r{\'e}sultats obtenus {\`a} ceux r{\'e}cemment publi{\'e}s dans la litt{\'e}rature. Des exp{\'e}riences suppl{\'e}mentaires montrent que les RNNs avec m{\'e}canisme d{'}attention obtiennent de meilleures performances que les RNNs r{\'e}cemment propos{\'e}s pour la t{\^a}che d{'}{\'e}tiquetage en concepts s{\'e}mantiques. Sur le corpus MEDIA, un corpus fran{\c{c}}ais {\'e}tat de l{'}art pour la compr{\'e}hension d{\'e}di{\'e} {\`a} la r{\'e}servation d{'}h{\^o}tel et aux informations touristiques, les exp{\'e}riences montrent qu{'}un RNN bidirectionnel atteint une f-mesure de 79,51 tandis que le m{\^e}me syst{\`e}me int{\'e}grant le m{\'e}canisme d{'}attention permet d{'}atteindre une f-mesure de 80,27.

PDF Abstract
No code implementations yet. Submit your code now

Datasets


  Add Datasets introduced or used in this paper

Results from the Paper


  Submit results from this paper to get state-of-the-art GitHub badges and help the community compare results to other papers.

Methods


No methods listed for this paper. Add relevant methods here