Des R\'eseaux de Neurones avec M\'ecanisme d'Attention pour la Compr\'ehension de la Parole (Exploring the use of Attention-Based Recurrent Neural Networks For Spoken Language Understanding )
L{'}{\'e}tude porte sur l{'}apport d{'}un r{\'e}seau de neurones r{\'e}current (Recurrent Neural Network RNN) bidirectionnel encodeur/d{\'e}codeur avec m{\'e}canisme d{'}attention pour une t{\^a}che de compr{\'e}hension de la parole. Les premi{\`e}res exp{\'e}riences faites sur le corpus ATIS confirment la qualit{\'e} du syst{\`e}me RNN {\'e}tat de l{'}art utilis{\'e} pour cet article, en comparant les r{\'e}sultats obtenus {\`a} ceux r{\'e}cemment publi{\'e}s dans la litt{\'e}rature. Des exp{\'e}riences suppl{\'e}mentaires montrent que les RNNs avec m{\'e}canisme d{'}attention obtiennent de meilleures performances que les RNNs r{\'e}cemment propos{\'e}s pour la t{\^a}che d{'}{\'e}tiquetage en concepts s{\'e}mantiques. Sur le corpus MEDIA, un corpus fran{\c{c}}ais {\'e}tat de l{'}art pour la compr{\'e}hension d{\'e}di{\'e} {\`a} la r{\'e}servation d{'}h{\^o}tel et aux informations touristiques, les exp{\'e}riences montrent qu{'}un RNN bidirectionnel atteint une f-mesure de 79,51 tandis que le m{\^e}me syst{\`e}me int{\'e}grant le m{\'e}canisme d{'}attention permet d{'}atteindre une f-mesure de 80,27.
PDF Abstract