no code implementations • JEPTALNRECITAL 2020 • Syrielle Montariol, Alex Allauzen, re
Nous exp{\'e}rimentons sur un corpus de rapports financiers d{'}entreprises fran{\c{c}}aises, pour appr{\'e}hender les enjeux et pr{\'e}occupations propres {\`a} certaines p{\'e}riodes, acteurs et secteurs d{'}activit{\'e}s.
1 code implementation • JEPTALNRECITAL 2020 • Hang Le, Lo{\"\i}c Vial, Jibril Frej, Vincent Segonne, Maximin Coavoux, Benjamin Lecouteux, Alex Allauzen, re, Beno{\^\i}t Crabb{\'e}, Laurent Besacier, Didier Schwab
Les mod{\`e}les de langue pr{\'e}-entra{\^\i}n{\'e}s sont d{\'e}sormais indispensables pour obtenir des r{\'e}sultats {\`a} l{'}{\'e}tat-de-l{'}art dans de nombreuses t{\^a}ches du TALN.
no code implementations • JEPTALNRECITAL 2019 • Syrielle Montariol, Alex Allauzen, re
L{'}usage, le sens et la connotation des mots peuvent changer au cours du temps.
no code implementations • COLING 2018 • Matthieu Labeau, Alex Allauzen, re
Noise-Contrastive Estimation (NCE) is a learning criterion that is regularly used to train neural language models in place of Maximum Likelihood Estimation, since it avoids the computational bottleneck caused by the output softmax.
no code implementations • JEPTALNRECITAL 2018 • Matthieu Labeau, Alex Allauzen, re
L{'}estimation contrastive bruit{\'e}e (NCE) et l{'}{\'e}chantillonage par importance (IS) sont des proc{\'e}dures d{'}entra{\^\i}nement bas{\'e}es sur l{'}{\'e}chantillonage, que l{'}on utilise habituellement {\`a} la place de l{'}estimation du maximum de vraisemblance (MLE) pour {\'e}viter le calcul du softmax lorsque l{'}on entra{\^\i}ne des mod{\`e}les de langue neuronaux.
no code implementations • JEPTALNRECITAL 2018 • Aina Gar{\'\i} Soler, Marianna Apidianaki, Alex Allauzen, re
Lexical complexity detection is an important step for automatic text simplification which serves to make informed lexical substitutions.
no code implementations • WS 2017 • Matthieu Labeau, Alex Allauzen, re
Most of neural language models use different kinds of embeddings for word prediction.
no code implementations • JEPTALNRECITAL 2017 • {\'E}l{\'e}onor Bartenlian, Margot Lacour, Matthieu Labeau, Alex Allauzen, re, Guillaume Wisniewski, Fran{\c{c}}ois Yvon
Ce travail cherche {\`a} comprendre pourquoi les performances d{'}un analyseur morpho-syntaxiques chutent fortement lorsque celui-ci est utilis{\'e} sur des donn{\'e}es hors domaine.
no code implementations • JEPTALNRECITAL 2017 • Matthieu Labeau, Alex Allauzen, re
Les repr{\'e}sentations continues des mots sont calcul{\'e}es {\`a} la vol{\'e}e {\`a} partir des caract{\`e}res les composant, gr{\`a}ce {\`a} une couche convolutionnelle suivie d{'}une couche de regroupement (pooling).
no code implementations • EACL 2017 • Matthieu Labeau, Alex Allauzen, re
Noise Contrastive Estimation (NCE) is a learning procedure that is regularly used to train neural language models, since it avoids the computational bottleneck caused by the output softmax.
no code implementations • WS 2016 • Jan-Thorsten Peter, Tamer Alkhouli, Hermann Ney, Matthias Huck, Fabienne Braune, Alex Fraser, er, Ale{\v{s}} Tamchyna, Ond{\v{r}}ej Bojar, Barry Haddow, Rico Sennrich, Fr{\'e}d{\'e}ric Blain, Lucia Specia, Jan Niehues, Alex Waibel, Alex Allauzen, re, Lauriane Aufrant, Franck Burlot, Elena Knyazeva, Thomas Lavergne, Fran{\c{c}}ois Yvon, M{\=a}rcis Pinnis, Stella Frank
Ranked #12 on Machine Translation on WMT2016 English-Romanian
no code implementations • JEPTALNRECITAL 2016 • Kevin L{\"o}ser, Alex Allauzen, re
Cet article pr{\'e}sente un mod{\`e}le bay{\'e}sien non-param{\'e}trique pour la segmentation morphologique non supervis{\'e}e. Ce mod{\`e}le semi-markovien s{'}appuie sur des classes latentes de morph{\`e}mes afin de mod{\'e}liser les caract{\'e}ristiques morphotactiques du lexique, et son caract{\`e}re non-param{\'e}trique lui permet de s{'}adapter aux donn{\'e}es sans avoir {\`a} sp{\'e}cifier {\`a} l{'}avance l{'}inventaire des morph{\`e}mes ainsi que leurs classes.
no code implementations • JEPTALNRECITAL 2015 • Nicolas P{\'e}cheux, Alex Allauzen, re, Thomas Lavergne, Guillaume Wisniewski, Fran{\c{c}}ois Yvon
Quand on dispose de connaissances a priori sur les sorties possibles d{'}un probl{\`e}me d{'}{\'e}tiquetage, il semble souhaitable d{'}inclure cette information lors de l{'}apprentissage pour simplifier la t{\^a}che de mod{\'e}lisation et acc{\'e}l{\'e}rer les traitements.
no code implementations • JEPTALNRECITAL 2015 • Quoc-Khanh Do, Alex Allauzen, re, Fran{\c{c}}ois Yvon
Alors que les r{\'e}seaux neuronaux occupent une place de plus en plus importante dans le traitement automatique des langues, les m{\'e}thodes d{'}apprentissage actuelles utilisent pour la plupart des crit{\`e}res qui sont d{\'e}corr{\'e}l{\'e}s de l{'}application.
no code implementations • JEPTALNRECITAL 2014 • Guillaume Wisniewski, Nicolas P{\'e}cheux, Elena Knyazeva, Alex Allauzen, re, Fran{\c{c}}ois Yvon
no code implementations • LREC 2014 • Nicolas P{\'e}cheux, Alex Allauzen, er, Fran{\c{c}}ois Yvon
In Statistical Machine Translation (SMT), the constraints on word reorderings have a great impact on the set of potential translations that are explored.