Apprentissage discriminant des mod\`eles continus de traduction
Alors que les r{\'e}seaux neuronaux occupent une place de plus en plus importante dans le traitement automatique des langues, les m{\'e}thodes d{'}apprentissage actuelles utilisent pour la plupart des crit{\`e}res qui sont d{\'e}corr{\'e}l{\'e}s de l{'}application. Cet article propose un nouveau cadre d{'}apprentissage discriminant pour l{'}estimation des mod{\`e}les continus de traduction. Ce cadre s{'}appuie sur la d{\'e}finition d{'}un crit{\`e}re d{'}optimisation permettant de prendre en compte d{'}une part la m{\'e}trique utilis{\'e}e pour l{'}{\'e}valuation de la traduction et d{'}autre part l{'}int{\'e}gration de ces mod{\`e}les au sein des syst{\`e}mes de traduction automatique. De plus, cette m{\'e}thode d{'}apprentissage est compar{\'e}e aux crit{\`e}res existants d{'}estimation que sont le maximum de vraisemblance et l{'}estimation contrastive bruit{\'e}e. Les exp{\'e}riences men{\'e}es sur la t{\^a}ches de traduction des s{\'e}minaires TED Talks de l{'}anglais vers le fran{\c{c}}ais montrent la pertinence d{'}un cadre discriminant d{'}apprentissage, dont les performances restent toutefois tr{\`e}s d{\'e}pendantes du choix d{'}une strat{\'e}gie d{'}initialisation idoine. Nous montrons qu{'}avec une initialisation judicieuse des gains significatifs en termes de scores BLEU peuvent {\^e}tre obtenus.
PDF Abstract