Comparaison d'architectures neuronales pour l'analyse syntaxique en constituants

L{'}article traite de l{'}analyse syntaxique lexicalis{\'e}e pour les grammaires de constituants. On se place dans le cadre de l{'}analyse par transitions. Les mod{\`e}les statistiques g{\'e}n{\'e}ralement utilis{\'e}s pour cette t{\^a}che s{'}appuient sur une repr{\'e}sentation non structur{\'e}e du lexique. Les mots du vocabulaire sont repr{\'e}sent{\'e}s par des symboles discrets sans liens entre eux. {\`A} la place, nous proposons d{'}utiliser des repr{\'e}sentations denses du type plongements (embeddings) qui permettent de mod{\'e}liser la similarit{\'e} entre symboles, c{'}est-{\`a}-dire entre mots, entre parties du discours et entre cat{\'e}gories syntagmatiques. Nous proposons d{'}adapter le mod{\`e}le statistique sous-jacent {\`a} ces nouvelles repr{\'e}sentations. L{'}article propose une {\'e}tude de 3 architectures neuronales de complexit{\'e} croissante et montre que l{'}utilisation d{'}une couche cach{\'e}e non-lin{\'e}aire permet de tirer parti des informations donn{\'e}es par les plongements.

PDF Abstract
No code implementations yet. Submit your code now

Tasks


Datasets


  Add Datasets introduced or used in this paper

Results from the Paper


  Submit results from this paper to get state-of-the-art GitHub badges and help the community compare results to other papers.

Methods


No methods listed for this paper. Add relevant methods here