Comparaison d'architectures neuronales pour l'analyse syntaxique en constituants
L{'}article traite de l{'}analyse syntaxique lexicalis{\'e}e pour les grammaires de constituants. On se place dans le cadre de l{'}analyse par transitions. Les mod{\`e}les statistiques g{\'e}n{\'e}ralement utilis{\'e}s pour cette t{\^a}che s{'}appuient sur une repr{\'e}sentation non structur{\'e}e du lexique. Les mots du vocabulaire sont repr{\'e}sent{\'e}s par des symboles discrets sans liens entre eux. {\`A} la place, nous proposons d{'}utiliser des repr{\'e}sentations denses du type plongements (embeddings) qui permettent de mod{\'e}liser la similarit{\'e} entre symboles, c{'}est-{\`a}-dire entre mots, entre parties du discours et entre cat{\'e}gories syntagmatiques. Nous proposons d{'}adapter le mod{\`e}le statistique sous-jacent {\`a} ces nouvelles repr{\'e}sentations. L{'}article propose une {\'e}tude de 3 architectures neuronales de complexit{\'e} croissante et montre que l{'}utilisation d{'}une couche cach{\'e}e non-lin{\'e}aire permet de tirer parti des informations donn{\'e}es par les plongements.
PDF Abstract