Investigación.

«Voy a proceder a descodificar».

Lo último en traducción automática.

Únete a nosotros

Lo último
en traducción automática.

En Language Weaver contamos con una amplia experiencia en investigación y desarrollo en el campo del procesamiento de lenguajes naturales. Nuestro polifacético equipo multinacional lleva a cabo investigaciones de vanguardia con el objetivo a corto plazo de avanzar en la ciencia, y el objetivo a largo plazo de aplicar este trabajo a nuestras herramientas y tecnologías. De este modo, queremos ayudar a nuestros clientes a comprender mejor su contenido y permitirles crear nuevo contenido de forma más eficaz. 

Entre las áreas en las que nuestro equipo está llevando a cabo activamente tareas de investigación y desarrollo se incluyen: 

  • Traducción automática neuronal 
  • Estimación de la calidad de la traducción automática 
  • Resumen multilingüe 
  • Reconocimiento de la entidad designada 
  • Sondeo de opiniones 
  • Generación de texto 
  • Simplificación y parafraseado del texto 
  • Respuesta a preguntas 
  • Análisis de temas y estilos 

Asistimos y participamos regularmente en conferencias. Además, publicamos nuestro trabajo en lugares conocidos como NAACL, (E)ACL, EMNLP, MT Summit y muchos otros. Puedes ver algunas de nuestras publicaciones seleccionadas a continuación.

La vida en Language Weaver

Lo mejor de trabajar en Language Weaver es que nunca te aburres. Nuestro equipo nunca se queda atascado trabajando en la misma tarea, ni investiga siempre sobre el mismo tema. Trabajamos constantemente con nuevos clientes utilizando datos nuevos, idiomas interesantes y una gran cantidad de dominios y aplicaciones. 

Siempre existe la oportunidad de ampliar y perfeccionar habilidades, por ejemplo, probando nuevas técnicas con las que resolver problemas reales para clientes que procesan y traducen miles de millones de palabras cada año. Y como los miembros de nuestro equipo proceden de múltiples lugares y circunstancias, también aprendemos mucho los unos de los otros. 

Con sedes en Los Ángeles, Cluj-Napoca, Dublín y en otras ubicaciones de Europa, nuestro equipo de científicos, ingenieros y lingüistas trabajan de forma dinámica y enérgica, fundamentándose siempre en el procesamiento de lenguajes naturales (NLP) y manteniendo una férrea voluntad de ampliar horizontes. Entre nosotros, hablamos casi tantos idiomas como pueden traducir nuestros motores de traducción automática.

Además del día a día, también contamos con un grupo de lectura semanal en el que presentamos nuestras propias investigaciones y otras publicaciones de vanguardia en nuestro campo. Además, publicamos un blog semanal, «The Neural MT Weekly», que leen miles de personas.

¿Te interesa unirte a nuestro equipo? ¡Contacta con nosotros!

Publicaciones 

Publicaciones seleccionadas:    

2021:    

Roemmele, M. and Sidhpura, D., and DeNeefe S., and Tsou, L. (2021). AnswerQuest: A System for Generating Question-Answer Items from Multi-Paragraph Documents. 16th Conference of the European Chapter of the Association for Computational Linguistics (EACL 2021), Demo Track.    

2020:    

Saunders, D., Feely, W.  and Byrne, B. (2020). Inference-only sub-character decomposition improves translation of unseen logographic characters, Proceedings of the 7th Workshop on Asian Translation.    

2019:    

Feely, W., Hasler, E.  and    de Gispert, A. (2019). Controlling Japanese Honorifics in English-to-Japanese Neural Machine Translation. Proceedings of the 6th Workshop on Asian Translation.    

Saunders, D., Stahlberg, F., de Gispert, A. and Byrne, B. (2019). Domain Adaptive Inference for Neural Machine Translation. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL).    

Roemmele, M. (2019). Identifying Sensible Lexical Relations in Generated Stories. Workshop on Narrative Understanding at the 2019 Annual Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL 2019).    

2018:    

Iglesias, G., Tambellini, W., de Gispert, A., Hasler, E. and Byrne, B. (2018). Accelerating NMT Batched Beam Decoding with LMBR Posteriors for Deployment. Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL-HLT).    

Hasler, E., de Gispert, A., Iglesias, G. and Byrne, B (2018). Neural Machine Translation Decoding with Terminology Constraints. Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL-HLT).    

Saunders, D., Stahlberg, F., de Gispert, A and Byrne, B. (2018). Multi-representation Ensembles and Delayed SGD Updates Improve Syntax-based NMT. Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (ACL).    

Stahlberg, F., de Gispert, A. and Byrne, B. (2018). The University of Cambridge's Machine Translation Systems for WMT18. Proceedings of the Conference of Machine Translation (WMT).    

2017:    

Hasler, E., de Gispert, A., Stahlberg, F., Waite, A. and Byrne, B. (2017). Source sentence simplification for statistical machine translation. Computer Speech & Language, vol 45, pps 221-235.    

Stahlberg, F., de Gispert, A., Hasler, E. and Byrne, B. (2017). Neural Machine Translation by Minimising the Bayes-risk with Respect to Syntactic Translation Lattices. Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics (EACL).    

Hasler, E., Stahlberg, F., Tomalin, M. de Gispert, A. and Byrne, B. (2017). A Comparison of Neural Models for Word Ordering. International Conference on Natural Language Generation (INLG).    

2015  

Gispert, A., Iglesias, G., Byrne, W., (2015) Fast and Accurate Preordering for SMT using Neural Networks, North American Chapter of the Association for Computational Linguistics: Human Language Technologies.    

Dreyer, M., & Graehl, J. (2015) hyp: A Toolkit for Representing, Manipulating, and Optimizing Hypergraphs, North American Chapter of the Association for Computational Linguistics: Human Language Technologies.    

Dreyer, M., & Dong, D., (2015) APRO: All-Pairs Ranking Optimization for MT Tuning, North American Chapter of the Association for Computational Linguistics: Human Language Technologies.   

2014    

May, J., Benjira, Y., Echihabi, A., (2014) An Arabizi-English Social Media Statistical Machine Translation System, Association for Machine Translation in the Americas.    

Jehl, L., Gispert, A., Hopkins, M., Byrne, M., (2014) Source-side preordering for translation using logistic regression and depth-first branch-And-bound search, European Chapter of the Association for Computational Linguistics, (pp 239-248).    

2013    

Hopkins, M., & May, J. (2013) Models of Translation Competitions. Proceedings of ACL, 2013.  

Munteanu, D. S., & Marcu, D. (2013) Exploiting Comparable Corpora. In Building and Using Comparable Corpora, Springer Publications.    

2012  

Soricut, R., Bach, N., & Wang, Z. (2012) The SDL Language Weaver Systems in the WMT12 Quality Estimation Shared Task, InProceedings of the Seventh Workshop on Statistical Machine Translation(WMT 2012), June 2012, Montreal, Quebec, Canada.   

Dreyer, M. & Marcu, D. (2012) HyTER: Meaning-Equivalent Semantics for Translation Evaluation, In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Montreal, Canada.    

2011    

Hopkins, M., & May, J. (2011) Tuning as Ranking. Proceedings of EMNLP, 2011.    

Hopkins, M., Langmead, G., & Vo, T.(2011) Extraction Programs: A Unified Approach to Translation Rule Extraction. Proceedings of WMT, 2011.    

2010    

Soricut, R., & Echihabi, A. (2010) TrustRank: Inducing Trust in Automatic Translations via Ranking, Association for Computational Linguistics Conference, (pp 612-621).    

Hopkins, M., & Langmead, G. (2010) SCFG Decoding Without Binarization. Proceedings of EMNLP, 2010.    

Wang, W., May, J., Knight, K., & Marcu, D. (2010) Re-Structuring, Re-Labeling, and Re-Aligning for Syntax-based Machine Translation, Computational Linguistics. (36,2).    

2009    

Hopkins, M., & Langmead, G. (2009) Cube Pruning as Heuristic Search. Proceedings of EMNLP, 2009.    

Yamada, K., & Muslea, I. (2009). Re-ranking for large-scale statistical machine translation, Learning Machine Translation, (pp 151-169).   

2007   

Wang, W., Knight,K., & Marcu, D. (2007) Binarizing Syntax Trees to Improve Syntax-Based Machine Translation Accuracy. Proceedings of EMNLP-07, pp. 746-754, Prague.    

2006    

Marcu, D., Wang, W., Echihabi, A., & Knight, K. (2006) SPMT: Statistical Machine Translation with Syntactified Target Language Phrases", Empirical Methods in Natural Language Conference, (pp 44-52).    

Huang, B., & Knight, K. (2006). Relabeling Syntax Trees to Improve Syntax-Based Machine Translation Quality. Proceedings of HLT-NAACL, 2006.

Suscríbete a Neural MT Weekly

Loading...