Int\'egration de contexte global par amor\ccage pour la d\'etection d'\'ev\'enements (Integrating global context via bootstrapping for event detection)

Les approches neuronales obtiennent depuis plusieurs ann{\'e}es des r{\'e}sultats int{\'e}ressants en extraction d{'}{\'e}v{\'e}nements. Cependant, les approches d{\'e}velopp{\'e}es dans ce cadre se limitent g{\'e}n{\'e}ralement {\`a} un contexte phrastique. Or, si certains types d{'}{\'e}v{\'e}nements sont ais{\'e}ment identifiables {\`a} ce niveau, l{'}exploitation d{'}indices pr{\'e}sents dans d{'}autres phrases est parfois n{\'e}cessaire pour permettre de d{\'e}sambigu{\"\i}ser des {\'e}v{\'e}nements. Dans cet article, nous proposons ainsi l{'}int{\'e}gration d{'}une repr{\'e}sentation d{'}un contexte plus large pour am{\'e}liorer l{'}apprentissage d{'}un r{\'e}seau convolutif. Cette repr{\'e}sentation est obtenue par amor{\c{c}}age en exploitant les r{\'e}sultats d{'}un premier mod{\`e}le convolutif op{\'e}rant au niveau phrastique. Dans le cadre d{'}une {\'e}valuation r{\'e}alis{\'e}e sur les donn{\'e}es de la campagne TAC 2017, nous montrons que ce mod{\`e}le global obtient un gain significatif par rapport au mod{\`e}le local, ces deux mod{\`e}les {\'e}tant eux-m{\^e}mes comp{\'e}titifs par rapport aux r{\'e}sultats de TAC 2017. Nous {\'e}tudions {\'e}galement en d{\'e}tail le gain de performance de notre nouveau mod{\`e}le au travers de plusieurs exp{\'e}riences compl{\'e}mentaires.

PDF Abstract
No code implementations yet. Submit your code now

Datasets


  Add Datasets introduced or used in this paper

Results from the Paper


  Submit results from this paper to get state-of-the-art GitHub badges and help the community compare results to other papers.

Methods


No methods listed for this paper. Add relevant methods here