Ratio: 0 / 5

Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado
 

Un estudio del grupo IXA de la Facultad de Informática de la UPV/EHU abre una nueva línea de investigación en el campo del procesamiento del lenguaje natural

 

La mayoría de los sistemas de aprendizaje automático requieren supervisión humana, y la traducción automática no es una excepción: el ordenador utiliza millones de traducciones hechas por personas para extraer patrones y, de esta forma, aprender a traducir cualquier texto. Este método funciona bien con pares de idiomas como el inglés y el francés, pues existen muchas traducciones entre ambos. Sin embargo, no es tan efectivo para la gran mayoría de pares de idiomas con recursos limitados, como es el caso del alemán-ruso o el euskera-inglés, por ejemplo. En este contexto, Mikel Artetxe, Eneko Agirre y Gorka Labaka, investigadores del grupo IXA de la Facultad de Informática de la Universidad del País Vasco/ Euskal Herriko Unibertsitatea (UPV/EHU), han desarrollado un método de traducción automática basado en el aprendizaje sin supervisión, es decir, sin necesidad de diccionarios o traducciones humanas. “Imagina que le das a una persona una gran cantidad de libros escritos en chino y otros tantos, distintos, en árabe, con el objetivo de que aprenda a traducir del chino al árabe. A priori parece una tarea imposible para un ser humano. Pero nosotros hemos demostrado que un ordenador es capaz de hacerlo”, afirma Mikel Artetxe, que está realizando su tesis doctoral sobre el procesamiento del lenguaje natural y el aprendizaje automático.

Este nuevo método que proponen los investigadores de la UPV/EHU supone un gran avance en el campo de la traducción automática, ya que abre una nueva línea de trabajo que muestra que las redes neuronales, algoritmos informáticos que se inspiran en el cerebro humano, pueden aprender a traducir sin necesidad de traducciones preexistentes. Se da la casualidad que otro estudio, desarrollado por un equipo de investigadores de Facebook y la Universidad de la Sorbona de París, ha propuesto un método similar. “Es sorprendente -subraya Artetxe- que nuestros métodos sean tan parecidos. Pero al mismo tiempo es positivo, pues significa que esta nueva aproximación va por el buen camino”. Los dos estudios, de los que se ha hecho eco la revista científica Science en su sección digital de noticias, fueron publicados en el repositorio virtual arXiv con un día de diferencia, y serán presentados en uno de los congresos más relevantes del área, el sexto encuentro internacional sobre el aprendizaje de representaciones (International Conference on Learning Representations - ICLR), que se celebrará en el mes de abril en Vancouver, Canadá.

En los únicos resultados comparables entre ambos estudios, el método del grupo IXA de la UPV/EHU obtuvo resultados ligeramente superiores, con una puntuación BLEU del 15% entre el francés y el inglés. A modo de comparativa, la máxima puntuación la obtienen métodos supervisados como Google Translate con cerca del 40%, si bien una persona supera el 50%. “Estamos en los inicios -aclara Mikel Artetxe- por lo que no sabemos hasta dónde puede llegar esta nueva línea de investigación”.

Itzulpen automatikoa, hiztegirik gabe

UPV/EHUko Informatika Fakultateko IXA taldearen ikerlan batek ikerketa ildo berri bat ireki du hizkuntzaren prozesamenduaren esparruan

Ikasketa automatikoa, gehienetan, gizakiak gainbegiratzen du, eta itzulpen automatikoa ez da salbuespen bat: ordenagailuak pertsonek egindako milioika itzulpen erabiltzen ditu patroiak atera eta testu berria itzultzen ikasteko. Hurbilpen horrek ondo funtzionatzen du ingelesa eta frantsesa bezalako hizkuntza bikoteekin, euren arteko itzulpen ugari baitaude. Hizkuntza bikote gehienek, baina, askoz baliabide urriagoak dituzte, eta hori arazo handi bat da alemaniera-errusiera edo euskara-ingelesa bezalako bikoteentzat. Testuinguru horretan, Universidad del País Vasco/ Euskal Herriko Unibertsitateko (UPV/EHU) Informatika Fakultateko IXA taldeko Mikel Artetxe, Eneko Agirre eta Gorka Labaka ikertzaileek ikasketa ez-gainbegiratuan oinarritutako itzulpen automatikoko sistema bat garatu dute. «Imajinatu pertsona bati txineraz idatzitako hainbat liburu ematen dizkiozula, eta arabieraz idatzitako beste hainbeste liburu (elkarren artean ezberdinak), txineratik arabierara itzultzen ikas dezan. Hasiera batean, gizaki batentzat ezinezkoa dirudi. Baina guk frogatu dugu ordenagailu batek lan hori egiten ikas dezakeela», azaldu du Mikel Artetxek, hizkuntzaren prozesamenduari eta ikasketa automatikoari buruzko tesia egiten ari denak.

UPV/EHUko ikertzaileek proposatutako metodo berri hori aurrerapauso garrantzitsua da itzulpen automatikoan, neurona sareek, giza burmuinean inspiratutako algoritmo informatikoek, testu paralelorik gabe itzultzen ikas dezaketela erakusten baitu lehen aldiz. Kasualitatez, beste ikerlan batek, Facebook-eko eta Sorbonako Unibertsitateko (Paris) ikertzaile talde batek egindakoak, antzeko metodo bat proposatzen du. «Harrigarria da —nabarmendu du Artetxek— gure metodoak hain antzekoak izatea. Baina aldi berean pozgarria da, hurbilpen berri hau norabide egokian doala esan nahi baitu». Bi ikerlanak, Science aldizkariak bere berrien edizio digitalean jaso zituenak, arXiv gordailu birtualean argitaratu ziren egun bateko aldearekin, eta apirilean Vancouverren (Kanada) egingo den errepresentazio ikasketaren nazioarteko seigarren biltzarrean (International Conference on Learning Representations - ICLR) aurkeztuko dira.

Bi ikerlanen arteko emaitza konparagarri bakarrean UPV/EHUko IXA taldearen metodoak emaitza zertxobait hobeak lortu zituen, % 15eko BLEU puntuazioa lortuz frantsesa eta ingelesaren artean. Puntuaziorik handiena Google Translate bezalako metodo gainbegiratuek lortzen dute, % 40 inguruko tasarekin, eta pertsona batenak % 50etik gorakoak izan ohi dira. «Hau hasiera baino ez da —argitu du Mikel Artetxek— beraz, ez dakigu noraino iritsiko den ikerketa ildo berri hau».

esafsqarhyazeubebgcazh-CNzh-TWhrcsdanlenettlfifrglkadeelhtiwhihuisidgaitjakolvltmkmsmtnofaplptrorusrskslswsvthtrukurvicyyi