LENGUA INGLESA Y NUEVAS TECNOLOGIAS

REPORT B

 

Evaluación de los sistemas de traducción automática

 

Introducción

"Generally, the quality of translation you can get from a Machine Translation system is very low. This makes them useless in practice." [clwww.essex.ac.uk/MTbook/HTML]

"Generalmente, la calidad de la traducción que usted puede conseguir de un sistema de traducción automática es muy baja. Esto los hace inútiles en la práctica." [www.systransoft.com]

Esta es una demostración de una traducción hecha por una máquina traductora (Systran). El ejemplo mismo representa la opinión de mucha gente. Es verdad que muchas veces las traducciones son inaceptables, pero son dependientes del input; las frases que se introducen deberían ser cortas, porque los sistemas de traducción automática encuentran difícil analizar frases largas con rapidez o - más importante - con fiabilidad. Las frases no deberían contener construcciones gramaticales muy complicadas, porque así una máquina traductora previene traducciones incorrectas al reducir las fuentes potenciales de ambigüedades. El ejemplo (véase arriba) contiene dos frases cortas, lo que produce una traducción aceptable y comprensible. Mejor dicho, cuanto más complicado el input, peor el output [clwww.essex.ac.uk/MTbook/HTML]. La verdad es que los sistemas de traducción automática que existen hoy en día probablemente no pueden producir traducciones perfectas, porque se requiere más que buen conocimiento de la lengua fuente y meta y de sus gramáticas. La traducción correcta depende de conocimientos del mundo y no se pueden incorporar tales conocimientos en un ordenador. Quizás una alta calidad de un sistema de traducción automática sea imposible de realizar, no quiere decir que las máquinas traductoras sean inútiles. Además, el objetivo de tal sistema es automatizar el proceso de una primera traducción bosquejo. [clwww.essex.ac.uk/MTbook/HTML]. Hay casos que no requieren una traducción perfecta. Imagínese por ejemplo que estás buscando información en internet y encuentras una página web que puede ser interesante para ti, pero está escrita en un idioma que no dominas. Una máquina traductora te puede traducir el texto. Aunque la traducción no sea completamente correcta, te puede dar una idea global del contenido, lo que es útil, porque a base de esto puedes decidir si vale la pena que un traductor humano lo traduzca. Hay más razones por las que estas máquinas son útiles: [www.let.uu.nl/~Gerrit.Bloothooft/personal/onderwijs/C&T]

            · Primero, desde el punto de vista económico: pueden disminuir los costes de traducción.

            ·Segundo, desde el punto de vista práctico: aumentan la rapidez de traducir.

            ·Tercero, los traductores humanos no pueden satisfacer la demanda, simplemente porque no hay                    suficientes traductores.

            ·Cuarto, es una solución para un problema de comunicación. Puede eliminar las barreras                                lingüísticas.

 

 

1. Traducción automática: breve historia del campo

            El primer contacto entre dos mundos aparentemente ajenos como son informática y traducción se produce a mediados de siglo, en un intento de dar al ordenador horizontes más amplios que el terreno militar en el que se encontraba confinado. A finales de los años cuarenta Warren Weaver, un matemático americano interesado en teoría de la comunicación, propone utilizar las técnicas del desciframiento criptográfico para traducir textos mecánicamente. Nace así la traducción automática, un mal nombre para una actividad que todavía no ha logrado la solvencia que el adjetivo promete. De hecho, la complejidad de la información contenida en las lenguas, su rica organización interna y su diversidad invita a considerar altamente improbable el que algún día lleguemos a conseguir traducciones de alta calidad mediante procesos totalmente automatizados. Pero el término traducción automática se usa aún hoy, a pesar de las connotaciones que arrastra sobre el optimismo con que se abrazaron las nuevas tecnologías.

En cualquier caso, la propuesta no era consecuencia del avance tecnológico, pues los ingenios informáticos disponibles carecían de la operatividad requerida para ejecutar traducciones aceptables. Al contrario, era la necesidad la que imponía esta estrategia. Se estaba descubriendo el valor de la información, un bien propio del siglo XX, y con su trasvase automático de una lengua a otra se buscaba reducir costes en material y tiempo. En 1952 se celebra en el Instituto de Tecnología de Massachusetts el congreso que inauguraría todo un nuevo campo de trabajo. El entusiasmo con que fueron acogidos los primeros ensayos en esta dirección se explica en el contexto político de la guerra fría y la carrera armamentística. De hecho, el primer sistema piloto en Estados Unidos, el G.A.T. -Georgetown Automatic Translation-, se dedicaba exclusivamente a la traducción de textos científicos del ruso al inglés. Las esperanzas suscitadas por estas primeras investigaciones se desvanecieron rápidamente porque el proyecto se había concebido desde planteamientos excesivamente ingenuos. En opinión de sus promotores bastaría con dar cabida en el ordenador a diccionarios de cierta sofisticación, que además realizasen algunos procesos de ordenación y reajuste, de acuerdo con las peculiaridades internas de las lenguas concernidas.

Ante esta simplicidad conceptual los resultados son muy pobres. En los años sesenta, se comienza a cuestionar las posibilidades de éxito de la empresa y, en general, se acusa la excesiva precipitación con que se estaba abordando el asunto. El problema de fondo radica en la propia naturaleza de los sistemas utilizados en este período, la llamada primera generación en traducción automática. Se trata de complejos informáticos que pretenden conseguir una traducción aceptable trabajando palabra por palabra a partir de un diccionario, sin construir una representación sintáctica ni semántica de los mensajes y sin considerar las pertinentes diferencias entre las lenguas que manejan. La reflexión lingüística quedaba marginada de estos sistemas porque la investigación contaba únicamente con especialistas en otros campos, fundamentalmente matemáticos e ingenieros informáticos.

En 1965 las agencias gubernamentales que habían financiado la investigación durante veinte años exigen la formación de un comité de expertos que evalúe los progresos obtenidos hasta el momento. El resultado es el famoso informe ALPAC -Automatic Language Processing Advisory Committee-, que vertía resultados desoladores. En primer lugar, criticaba la escasa calidad y el alto coste de unas traducciones que precisaban importantes revisiones. Pero, además, llegaba a cuestionar la viabilidad y la promoción futura de semejantes proyectos. Como consecuencia las inversiones decayeron hasta el punto de que algunos equipos tuvieron que abandonar su tarea. La innovación quedaba relegada a marcos universitarios donde parecía adquirir dimensiones puramente especulativas. Visto desde la perspectiva actual, el informe era oportuno en la medida en que denunciaba las deficiencias de un modo particular de llevar a cabo el proyecto. Pero eso no significa que el proyecto mismo tuviera que desestimarse, sino que debería comenzar de nuevo su andadura a partir del marco teórico de la lingüística computacional.

Durante los diez años que siguieron a la publicación del informe ALPAC apenas unos cuantos grupos aislados pudieron mantenerse en torno a una empresa que parecía abocada al fracaso. En ese momento, una serie de acontecimientos independientes van a asegurar, azarosamente, la continuidad de la investigación. De un lado, Noam Chomsky formulaba una metodología lingüística que prometía dar el tratamiento informático adecuado para las lenguas. Un conjunto de reglas, al estilo de la lógica simbólica, parecía condensar la gramática y dotarla de la cobertura formal exigida por el ordenador. Del otro, aparecen nuevos lenguajes informáticos, como ALGOL y LISP, mejor dotados que sus predecesores para trabajar con lenguas. Por fin, un acontecimiento de otra índole, la guerra de Vietnam, iba a fomentar el interés por traducir las lenguas del sudeste asiático, escasamente conocidas a causa de la distancia -geográfica y genética- que las separa de Occidente y de su nula repercusión en el mercado mundial. Con una mínima apoyatura teórica y a la sombra de la Secretaría de Defensa de Estados Unidos, surge la segunda generación de técnicas de traducción automática, representada por los sistemas METAL y SYSTRAN en Estados Unidos, el TAUM-METEO en Canadá o el GETA en Francia. El esquema general seguido por todos ellos supone la superposición de etapas de trabajo sobre el eje de una lengua-puente. En una primera fase, un mensaje escrito en la lengua objeto de traducción (lengua-fuente) es almacenado y convertido a un estadio intermedio, más o menos artificial, que acoja tanto los significados referenciales como las peculiaridades formales del sistema. Este puente permite , en una segunda fase, recorrer el camino inverso, simplificando los problemas de versión a la lengua a la que se quiere traducir (lengua-destino). La técnica, que ha admitido distintos tipos de perfeccionamiento conceptual, admite la intromisión de otras variadas fases, sin excluir el tratamiento desde el exterior por parte de lingüistas y traductores. De hecho, el grado de intervención externa entabla relación directa con la calidad final del producto.

La segunda generación de sistemas de traducción automática deja entrever una fuerte toma de conciencia sobre la naturaleza de los problemas inherentes a la traducción. Los investigadores parecen ya convencidos de la necesidad de realizar análisis diferenciados de las lenguas fuente y destino, así como de proyectar la traducción a un nivel más profundo que en la etapa anterior, comenzando por un análisis sintáctico que después se enriquece con conocimientos semánticos y contextuales. En un segundo plano, debe constatarse también que el fracaso anterior impulsa un modelo más realista de investigación. En lugar del ambicioso plan de traducir una lengua a otra, se plantean proyectos restringidos, que traduzcan textos técnicos relativos a un dominio bien delimitado. Esta estrategia aminora el vocabulario -un objetivo interesante en sí mismo habida cuenta de las limitaciones técnicas de los sistemas de la época- pero, y esto es más importante, también disminuye la combinatoria gramatical y, en consecuencia, la ambigüedad. Sin embargo, los conocimientos lingüísticos van estrechamente vinculados al tipo de texto, de modo que estos sistemas son únicamente válidos para traducir grandes cantidades de materiales homogéneos, como manuales de instrucciones. El mejor ejemplo de esta restricción a dominios locales es el sistema TAUM-METEO que traduce exclusivamente boletines meteorológicos para las dos comunidades lingüísticas aglutinadas por el estado de Canadá .

En los últimos veinte años el campo ha experimentado una nueva vitalidad alentada por la creciente necesidad de traducciones en las empresas públicas y privadas y por el progreso de las herramientas informáticas. Los sistemas de segunda generación perfeccionados cuentan con lenguajes de programación más sofisticados, capaces de acceder de forma recursiva a rutinas que detectan caminos erróneos y vuelven atrás para tomar una nueva ruta. El sistema ARIANE, desarrollado por GETA (Francia), consigue traducciones aceptables del ruso o del alemán al francés, y METAL (Siemens, Alemania) trabaja en ambas direcciones con alemán, inglés, francés y español. Los años ochenta supusieron el lanzamiento de proyectos nacionales e internacionales en este dominio, como EUROTRA, que surge en 1982 para todas las combinaciones posibles de lenguas oficiales de la Comunidad Europea. En Japón, el proyecto MU incrementa la traducción automática con sistemas de visualización multilingüe, bancos de datos terminológicos, síntesis y reconocimiento del habla para la elaboración de teléfonos traductores. Esta vía ya anuncia una tercera y una cuarta generación de sistemas de traducción.

2. Traducción automática frente a traducción asistida

            Puesto que ningún sistema de traducción automática puede, al menos en el estado actual de la investigación, prescindir de toda intervención humana, se ha ido imponiendo la denominación de traducción asistida. Sin embargo, habría que distinguir, de acuerdo con el peso que adquiere cada uno de los agentes, entre (i) traducción (humana) asistida por el ordenador y (ii) traducción automática asistida por el ser humano. Aunque en ambos casos se registra la participación humana, ésta tiene lugar en distintas fases del trabajo. La traducción asistida por ordenador requiere, durante el propio proceso de traducción, la intervención de un traductor que tome las decisiones más comprometedoras -por ejemplo, solventar ambigüedades o confirmar el uso de una estructura poco frecuente-. En definitiva, la traducción asistida por ordenador implica un sistema interactivo que, al encontrar cualquier dificultad, reclama al ser humano para que la resuelva. En formas más limitadas, se habla también de traducción asistida por ordenador en referencia a una serie de productos de ayuda técnica para la traducción, en especial, los bancos de datos terminológicos bilingües o plurilingües, aunque limitar la técnica a esta somera intervención de la máquina no parece realmente apropiado).

En cambio, se habla de traducción automática (asistida por el ser humano) cuando el sistema exige una fase previa de preparación del texto en lengua-fuente o una revisión del texto de salida en lengua-destino. Por supuesto, existen notables diferencias en lo que respecta a la naturaleza y cantidad del trabajo humano necesario en estas colaboraciones. La preparación del texto puede limitarse a simples anotaciones con las que se marcan los límites de cada estructura sintáctica o suponer una nueva redacción. Del mismo modo, la revisión va desde los retoques tipográficos y las correcciones de estilo hasta la eliminación de contrasentidos.

El hecho de que el traductor esté siempre presente no debe interpretarse, en ningún caso, como un síntoma del fracaso de la empresa. Situando las cosas en su lugar, el traductor es un especialista en la tarea y, por tanto, un componente imprescindible, aún cuando su papel se limitase -en un estadio ideal- al de mero supervisor. Nadie espera que los sistemas de traducción automática funcionen sin la intervención de un ingeniero informático, así que prescindir del traductor sería tanto como relegar a un segundo plano, una vez más, el papel de la lingüística en la tarea. Como línea de investigación, la traducción automática no precisa hoy en día justificación alguna pero, al menos en ciertos círculos, todavía se ataca su rentabilidad práctica. En este sentido conviene apuntar que cualquier valoración de los logros en traducción automática debe tener en cuenta que las necesidades de traducción son mayores cada día y que el coste de los traductores humanos es considerable. Los avances que experimente el campo tienen una aplicación inmediata garantizada.

Por otro lado, la selección de una de las dos alternativas presentadas -traducción asistida por ordenador o traducción automática asistida por el traductor-, depende de las necesidades que la traducción deba satisfacer. Obviamente, la traducción de textos técnicos o científicos persigue como fin primordial la inteligibilidad de un producto cuyo contenido debe conocerse con exactitud y rapidez y cuyo estilo importa bastante menos. Este tipo de producto, la traducción para el especialista, constituye el marco idóneo para la traducción automática. Los textos administrativos o jurídicos, así como los manuales de instrucciones tienen exigencias más fuertes y pueden ser abordados por un sistema automático, siempre que en una etapa posterior sean revisados por un traductor. Es el campo de la traducción para el revisor. Obviamente, la revisión no exige el mismo esfuerzo ni el mismo tiempo que la traducción completa y la máquina habría simplificado el proceso y el precio final del producto, además de librar al ser humano de las fases más repetitivas y menos motivadoras de su trabajo. Por fin, los textos literarios exigen una calidad formal hoy inalcanzable con medios mecánicos, por lo que reclaman una traducción para el traductor, es decir, un uso moderado de las herramientas de traducción asistida que haga del especialista humano el autor inequívoco del producto.

 

3. Organización de los sistemas de traducción automática

            En términos generales, cualquier sistema de traducción automática debe analizar el texto de entrada y generar su equivalente en una lengua distinta. Eso implica un trabajo lingüístico amplio, que abarca todos los estratos del estudio. Se trabaja en morfología para identificar unidades mínimas, en sintaxis para delimitar los grupos de palabras que funcionan en bloque y sus relaciones con el todo de que forman parte y, por fin, se trabaja en semántica para consignar la naturaleza de esas relaciones y determinar el significado del texto. Estos pasos se cubren a partir de los datos lingüísticos contenidos en diccionarios o en gramáticas. Habitualmente el trabajo en cada estrato se estructura jerárquicamente, como en EUROTRA, pero en algunos casos la información morfológica, sintáctica y semántica interactúa en una perfecta cooperación -sistemas ARIANE, METAL o LOGOS-, de modo que las ambigüedades sintácticas se resuelven a partir de los conocimientos semánticos. En conjunto, todos los sistemas de traducción automática se componen de varios diccionarios, un analizador y un sistema de conversión de la lengua-fuente a la lengua-destino.

El funcionamiento de los sistemas de traducción automática depende, en buena medida, de una serie de diccionarios perfectamente articulados. De hecho, el diccionario era la única herramienta lingüística de los primeros sistemas. En principio, las palabras del texto de entrada se ponen en relación con la información gramatical contenida en un diccionario monolingüe, a fin de facilitar el proceso de análisis que va a tener lugar. Aunque existen fuertes variaciones en este punto, los diccionarios monolingües usados en esta primera fase de la traducción suelen contener la entrada léxica, información relativa a la categorización gramatical y alguna información sintáctica -el tipo de complemento usual en el caso de los verbos, o la preposición regida por el verbo o por un adjetivo-. A continuación, un diccionario bilingüe convierte las unidades de la lengua-fuente en sus equivalentes en la lengua-destino. Este segundo diccionario contiene una información similar al anterior, además de algunas indicaciones sobre el contexto en el que se usan las palabras de la lengua-fuente o sobre su dominio semántico -por ejemplo, uso legal, o uso técnico-. En esta fase las frases hechas y las locuciones, que no pueden dividirse en componentes, al igual que los homógrafos son registrados como tales.

Una vez establecidos los límites entre palabras, un analizador morfológico descompone el texto en entidades mínimas y lo prepara para la fase de análisis sintáctico, que requiere representaciones más complejas. Por supuesto, el análisis no es una fase exclusiva de la traducción automática y se advierte más estrechamente vinculada a la comprensión de textos. Además, tampoco es imprescindible reconocer grupos de constituyentes de alto nivel para traducir una secuencia. Es posible, por ejemplo, reconocer una determinada clase de palabras a partir de una entrada léxica y luego predecir la siguiente con cierto grado de certeza. En términos generales, sin embargo, la traducción automática se realiza sobre análisis que identifican al menos los constituyentes de alto nivel. Siguiendo el modelo de la gramática de dependencias se suele aceptar que los verbos actúan como núcleos en torno a los cuales se articula un número variable de argumentos que saturan la predicación. Algunos sistemas, como METAL o el japonés ATLAS, extienden esta perspectiva considerando que el verbo es un marco amplio de significado concretado después por las distintas funciones semánticas. De este modo, se supone que las relaciones semánticas subyacentes constituyen un fundamento universal del análisis que luego se realiza con estructuras de superficie específicas de cada lengua -como activas o pasivas, una secuencia de preposición y sustantivo o un sustantivo en dativo, etc. (Hutchins 1986:197)-. En todo caso puede notarse la estrecha relación existente entre los sistemas de traducción automática y las representaciones sintácticas de la lingüística estructural y generativa.

Los primeros sistemas de traducción automática consistían únicamente en la conversión de cada unidad de la lengua-fuente en su equivalente en la lengua-destino. Los problemas derivados de semejante concepción no son difíciles de prever: ni se respetan las relaciones que las unidades mantienen con el todo superior en el que se integran, ni se supera una visión local del texto, que hace de la palabra la unidad de traducción por excelencia. Además de los lógicos problemas de solvencia, la traducción con este mecanismo sólo es posible si se restringe a un par de lenguas determinado -como en la primera versión de SYSTRAN, dedicada exclusivamente a la conversión del ruso al inglés-. Estos problemas obligaron a optar por procedimientos indirectos, que trasvasasen el texto de una lengua a otra teniendo en cuenta representaciones intermedias. Como primera alternativa surge la traducción por pivote o interlengua, articulada sobre dos módulos: un módulo de análisis , que produce una representación del texto de entrada en una lengua-pivote presuntamente independiente de cualquier lengua particular, y un módulo de generación, que construye a partir de esa representación un texto de salida.

Texto en lengua-fuente --> MÓDULO DE ANÁLISIS --> representación del texto en lengua-pivote --> MÓDULO DE GENERACIÓN --> texto en lengua-destino.

El cometido de la lengua-pivote es, por tanto, servir de puente entre el análisis y la generación, garantizando una representación suficientemente abstracta como para preservar el contenido del texto con independencia de las restricciones propias de cada una de las dos lenguas. Al situarse en un nivel puramente conceptual, la lengua-pivote admite información extralingüística relativa al dominio particular del texto. Este mecanismo fue adoptado en los años setenta por algunos de los grandes sistemas de segunda generación como GETA. La solución parecía particularmente interesante para traducciones entre lenguas tipológicamente alejadas pero planteaba problemas teóricos -llevaba al extremo la hipótesis de los universales semánticos- y exigía análisis muy profundos, a veces imposibles de llevar a efecto. La segunda alternativa consta de tres módulos. Esto supone que, al análisis y la generación, se añade un nivel intermedio o de transferencia, que transforma la salida del módulo de análisis en una entrada para el de generación:

texto en lengua-fuente --> MÓDULO DE ANÁLISIS --> representación R del texto --> MÓDULO DE TRANSFERENCIA --> representación R' del texto --> MÓDULO DE GENERACIÓN --> texto en lengua-destino.

Los sistemas de transferencia son bastante más realistas porque las representaciones R y R' son distintas y, por tanto, están situadas en un nivel más concreto que la lengua- pivote. Los grandes sistemas de traducción automática han optado, desde los años ochenta por este mecanismo. Así, podrían citarse los proyectos GETA (desde 1971), METAL (desde 1978), MU (desde 1980) y EUROTRA (desde 1982). A partir de los años noventa se han ido abriendo nuevas vías de investigación en este campo. El desarrollo camina hacia cálculos probabilísticos o sistemas expertos sustentados por un diálogo entre hombre y máquina donde el sistema aparece dotado de ciertas capacidades de aprendizaje.

 

4. Comprension automática de textos

            La mayor parte de los productos resultantes de las industrias de la lengua exigen que, en alguna fase de la tarea, el ordenador pueda extraer y manejar el significado contenido en un texto (Verdejo, 1987). La traducción automática, las interfaces en lengua natural o los procesadores de texto de cierta entidad no lograrían sus objetivos sin una comprensión automática del texto. Esta denominación genérica del campo puede parecer un tanto ampulosa, sobre todo si se tiene en cuenta el tipo de trabajo real que los sistemas llevan a cabo. En este sentido, convendría hacer dos precisiones.

En primer lugar, parece más adecuado utilizar la etiqueta comprensión del texto que otra, probablemente más extendida, como comprensión del lenguaje natural. Es bastante habitual en el terreno de la lingüística computacional utilizar la denominación de lenguaje natural para aglutinar las lenguas humanas por oposición a los lenguajes informáticos. Aunque esta oposición resulte muy cómoda y goce de gran éxito, desde la perspectiva lingüística resulta poco afortunada. Los lenguajes informáticos son códigos sustitutivos que reemplazan a las lenguas humanas en la comunicación entre hombre y máquina. Así que el riesgo de confusión no existe. La etiqueta lenguaje natural subraya una precisión innecesaria -lenguaje es, por excelencia, el lenguaje natural-; lo extraño, lo marcado es que exista un lenguaje técnico de programación. En este sentido, parece preferible hablar del procesamiento de las lenguas y no del procesamiento del lenguaje natural. Pero la precisión terminológica no concluye ahí, porque no podemos pretender una comprensión automática de las lenguas, a lo sumo observaremos sus efectos sobre textos, esto es, sobre porciones muy limitadas del discurso emitido en las lenguas.

En segundo lugar, la denominación todavía puede propiciar fuertes equívocos por el carácter inherentemente humano que se asocia al concepto de comprensión. Como suele ocurrir en estos temas, la etiqueta favorece ciertas suspicacias. En la actualidad resulta pueril el debate sobre si términos como comprensión o inteligencia deben aplicarse a los sistemas informáticos. La investigación en ciencias cognitivas es una vía prometedora que intenta emular muchos de los procedimientos del cerebro humano pero, en último caso, la comprensión de un sistema informático no tiene que ser similar a la del hombre: basta con que el ordenador procese información lingüística y extraiga de ella las inferencias oportunas, del mismo modo en que actúa en los procesos de cálculo. Con todo, el problema de la comprensión de textos es uno de los más delicados y complejos a los que se han dedicado los ordenadores. Y su evidente utilidad no se corresponde con un alto nivel de desarrollo. Como ocurría en el caso de la traducción, todavía sólo es posible construir analizadores más o menos eficientes para dominios muy restringidos.

 

5.  Desarrollo lingüístico y recursos

            Nadie se atrevería a decir exactamente cuántas lenguas se hablan en el mundo. Se calcula que son unas 6.700, aunque el número exacto depende de lo que se entienda por lengua y de cómo se distinga lengua de variedad dialectal. Se estima que más de 400 están a punto de extinguirse, la mayoría habladas en Australia y en las Américas. También en Europa hay lenguas en estado terminal, siete según el catálogo de Ethnologue (2001). Cuatro de ellas son variedades del Saami, la lengua de los lapones repartidos por Rusia, Noruega y Suecia, países en los que apenas quedan algunas decenas de hablantes.

Poco más de un centenar de las lenguas del mundo pasan de siete millones de hablantes. Pero son todavía menos las que tienen presencia significativa en Internet, principal exponente de la sociedad de la información. Podemos usar el directorio de Google como termómetro de la presencia de estas lenguas y comprobar que sólo 66 están representadas. Llama la atención que lenguas con muchos hablantes, como el vietnamita, hablado por cerca de 68 millones de personas, cuente sólo con 80 páginas referenciadas en el directorio (es decir, poco más de una página por cada mil hablantes); mientras que lenguas minoritarias como el euskara, hablado por menos de un millón de personas, contabilice 4.278 páginas (Google, 26.12.2001). Esto quiere decir que hay 4.532 más páginas en euskara por hablante de euskara que páginas en vietnamita por hablante de vietnamita. En la comparación con otras lenguas la proporción se estabiliza; calculamos 45 páginas más por hablante de euskara que por hablante de húngaro, 21 más que por hablante de español y hasta tres veces más que por hablante de alemán. Estos datos son solo aproximados (seguramente Google no sea muy conocido en Vietnam), pero en todo caso dejan claro que el desarrollo de una lengua no depende del número de hablantes.

Existen muchas razones para subrayar la importancia de este factor, pero se pueden resumir en una: para poder crear herramientas informáticas, como un traductor automático, hace falta disponer de recursos lingüísticos: diccionarios, gramáticas, analizadores, bases de conocimiento y, sobre todo, corpora. El grado de disponibilidad de estos recursos incidirá directamente en la facilidad con la que se podrán generar las herramientas. Para disponer de recursos hay que pasar antes por muchas fases de desarrollo, que van desde la estandarización de una forma de escritura, pasando por la normalización de su uso en el mayor número posible de ámbitos sociales, hasta la promoción de grupos avanzados de investigación en ingeniería lingüística. Si una lengua no ha pasado por la fase de estandarización de su escritura, poco sentido tiene plantear el desarrollo de aplicaciones computacionales.

Directorios como el de Google dan una idea aproximada del grado de desarrollo y vitalidad de las lenguas. Para traducir (se haga por medios mecánicos o manuales), es fundamental que las lenguas tengan un nivel de desarrollo equiparable, porque de lo contrario el traductor deberá duplicar el trabajo, normalizar primero y traducir después. Para ilustrar este problema podemos recurrir a un caso que conocemos muy bien. Cuando se decretó el bilingüismo oficial en el País Vasco, hacia 1979, hubo que realizar un esfuerzo inmenso de desarrollo lingüístico en todos los ámbitos, empezando por el administrativo, pero sin dejar ningún otro atrás, ya que el euskara entró en la administración, pero también lo hizo en los medios de comunicación y en la educación, desde la formación primaria hasta la universitaria. Esto quiere decir que durante veinte años los traductores de euskara han combinado dos funciones, la normalización lingüística y la traducción.

Hay que advertir que la normalización tiene límites. Aunque es posible elevar el desarrollo de una lengua hasta los niveles más altos (técnicos o científicos), no tiene sentido que todas las lenguas intenten equipararse al inglés. Esto es algo que los hablantes de lenguas minoritarias de países desarrollados como Noruega o Finlandia han comprendido muy bien. Cada idioma posee sus ámbitos naturales de uso. A una lengua minoritaria no le perjudica ceder algunos espacios a las lenguas mayoritarias, siempre y cuando su comunidad de hablantes no pierda el apego por la lengua en los ámbitos más íntimos y cotidianos. En países como Francia o España existe el empeño de elevar el francés y el español a la misma cota que el inglés; pero hoy en día esto es absurdo. Es una batalla perdida que no debe ser emulada, y señalo en este sentido al euskara. Es importante poner un orden racional en las prioridades. Muy probablemente la mejor defensa de una lengua minoritaria pasa por la promoción del multilingüismo.

 

6.  El inglés como lingua franca

            Todavía por bastante tiempo, la solución transitoria a las barreras lingüísticas no se va a encontrar en la traducción sino en una resignación generalizada e inevitable a aceptar el inglés como lengua vehicular o lingua franca. Esta lengua que es nativa para solo un 8% de la población mundial, es, según Jean-François Degremont, sociólogo francés consejero de WorldMedia, lengua vehicular para el 20% de la humanidad.

Según datos recogidos por Large en 1983, del total de publicaciones técnicas y científicas, el inglés era la lengua de origen de la mitad de estas publicaciones; el francés, alemán, japonés y ruso juntos representaban otro 40% y el resto de las lenguas el 10%. En 1991 Jean-François Degremont aportaba una nueva cifra: Un 22% de todas las obras publicadas se editan en inglés, pero esta cifra se remonta hasta el 80% para las publicaciones científicas y técnicas. Estudios recientes apuntan a que la información en inglés sobrepasa el 90% de toda la información depositada en Internet

 

7.  Medio y modo

            Desde hace años en los estudios de traducción se distinguen dos actividades claramente diferenciadas. La primera es la interpretación, o traducción de intervenciones orales. La segunda es la traducción de textos escritos. El perfil de los profesionales de una y otra especialidad suele ser muy distinto. Los intérpretes traducen casi siempre sin tiempo para pensar, ni para preparar el texto, o consultar diccionarios. Tampoco pueden repasar o corregir sus traducciones. Su trabajo se realiza de manera simultánea al de la producción del original y conlleva generalmente una gran interacción social. El intérprete está totalmente sometido al contexto en el que se realiza su trabajo, atado a una serie de protocolos y convenciones. Además, el lenguaje oral tiene características muy distintas del lenguaje escrito; es espontáneo, contextualizado, discontinuo y muchas veces agramatical. Por el contrario el traductor de textos escritos se enfrenta a textos que la mayoría de las veces se han escrito con cuidado, que a veces incluso pueden contener valores literarios. Normalmente dispone de tiempo para consultar diccionarios u otras fuentes documentales, y de revisar y corregir sus traducciones. Generalmente este trabajo se desempeña en condiciones de aislamiento, desconectado del entorno social, con el único condicionante de la premura de tiempo.

Aunque en ocasiones se habla indistintamente de traducción de textos orales y escritos, es obvio que representan problemas de índole muy distinta. Análogamente, el medio electrónico ha dado lugar a un tipo de documento y necesidades muy distintas de los medios oral y escrito tradicionales. Cada vez son más numerosos los textos que se generan de manera automática y se conciben con el conocimiento previo de que van a ser tratados por otros sistemas automáticos. En muchos casos, los textos se generan dentro de unas condiciones de control muy estrictas para facilitar su procesamiento posterior. Aunque existe un interés comercial muy grande por los programas de traducción del habla (C-STAR, JANUS , VERBMOBIL, EUTRANS, etc.), y la industria sigue mejorando los programas tradicionales de traducción de textos escritos, el futuro se dirige hacia el tratamiento automático de textos en soporte electrónico. Esta tarea se ha venido a denominar localización, y a ella le dedicaremos un pequeño apartado.

En resumen, podemos distinguir tres modos de traducción según el medio:

                        ·si el medio es oral: interpretación

                        ·si el medio es escrito: traducción

                        ·si el medio es electrónico: localización

Hecha esta distinción, hay que añadir que el medio electrónico es ante todo multimedia, con capacidad para integrar los tres medios y modos descritos.

 

8.  Fines

            Habida cuenta del cúmulo de factores que inciden en el diseño de un sistema de traducción automática, no sorprende que los resultados no satisfagan siempre las expectativas. Por eso, sin duda el factor más importante que se debe tener en cuenta cuando se diseña un programa es definir claramente el uso que se le quiere dar. En el pasado muchos sistemas han sido diseñados con la idea de que sirvan un propósito general, es decir, que sean capaces de traducir cualquier texto; y lo que se han obtenido son programas que proporcionan traducciones muy deficientes. Sin embargo, cuando se delimita más claramente el ámbito de aplicación y ese ámbito se contempla adecuadamente en el desarrollo (en los módulos léxico y sintáctico), los resultados mejoran notablemente. Muchos sistemas de traducción automática de propósito general han sido luego adaptado a dominios de aplicación concretos, como es el caso del programa SYSTRAN en la versión desarrollada por la CE.

Según datos recogidos por Colin Brace, con la utilización generalizada del correo electrónico en las instancias administrativas europeas a comienzos de la década de 1990, la utilización de SYSTRAN se disparó. En 1996 más de 200.000 páginas fueron traducidas por este medio. Sólo un tercio de esas páginas fueron solicitadas por el propio Servicio de Traducciones (SdT) de la Comunidad, el resto fueron traducidas por petición personal y directa de los trabajadores "no lingüísticos" en los diversos departamentos. El SdT realizó una encuesta entre los usuarios del programa en la que se comprobó que se recurría a la traducción automática para:

            ·realizar traducciones urgentes

            ·ojear los contenidos de los documentos

            ·obtener versiones preliminares

Los traductores del SdT, reconocían un ahorro del 30% de tiempo cuando las propiedades del documento se adecuaban al sistema (documento conocido, diccionario preparado) y el revisor humano era veterano. La encuesta también detectó que el grado de satisfacción era superior entre los funcionarios no lingüísticos que entre los traductores y que la principal clave del éxito era su disponibilidad inmediata.

Hutchins y Somers (1992) definían de esta manera el estado de la cuestión en traducción automática: "Lo que se ha logrado es desarrollar programas informáticos que realizan traducciones en borrador en áreas relativamente bien delimitadas. Estas traducciones pueden luego corregirse para obtener versiones finales de calidad por unas tarifas económicas. También pueden dejarse como están, sin revisar, puesto que los especialistas pueden leerlas y entenderlas para informarse. En algunos casos, con los controles adecuados sobre el texto original, es posible alcanzar, de forma automática, resultados de mayor calidad que requieren poca o ninguna corrección. [...] La mayor parte de los textos que se traducen en el mundo no tienen un alto valor cultural ni literario. La mayoría de los traductores profesionales se dedican a satisfacer la enorme y creciente demanda de traducciones de documentos técnicos y científicos, transacciones comerciales, informes administrativos, documentación jurídica, manuales de instrucciones, libros de texto de medicina o agricultura, patentes industriales, panfletos publicitarios, reportajes periodísticos, etc. Parte de este trabajo resulta difícil y constituye un reto, pero un gran porcentaje es tedioso y repetitivo, a la vez que exige precisión y coherencia. La demanda de estas traducciones se está incrementando a un ritmo superior a la capacidad de los traductores, por lo que la ayuda del ordenador ejerce una evidente e inmediata atracción".

 

9.  Sistemas más relevantes

            Revisemos los sistemas más destacados hasta finales de los noventa, para centrarnos después en los que han pasado a estar disponibles por Internet.

  · Hasta los años noventa:

            Sin duda el más relevante de los sistemas nunca diseñados ha sido SYSTRAN. De él hay que decir que no se trata de un sistema único, sino de una familia de sistemas con un ancestro común. Este ancestro surgió a finales de la década de los cincuenta de la mano de Peter Toma en la Universidad de Georgetown. En su devenir posterior, pasó por la Universidad de Saarland, en 1964, pionera en lingüística computacional en Europa. (En Saarbrücken se desarrollaron más adelante el prototipo SUSY y algunos de los módulos de EUROTRA.) De vuelta a EEUU, en 1968 Toma fundó Latsec Inc. en La Jolla, California, animado por un contrato de colaboración con la USAF (fuerzas aéreas de EEUU). SYSTRAN fue usado por la NASA en el desafortunado proyecto espacial Apollo-Soyouz entre los años 1974-1975. Esta experiencia le dio prestigio y Toma fue invitado a hacer una demostración entre el par inglés/francés para la CE. Convencida por los resultados, en 1975 la Comisión adquirió la licencia y comenzó a desarrollar sus propios pares de lenguas, adaptando las gramáticas y los lexicones a las propiedades de los textos administrativos internos. En la actualidad el sistema de la CE dispone

 

de 17 pares de lenguas que se han integrado a una red local de servicios lingüísticos, EURAMIS (Strandvik, 2001), que goza de gran popularidad entre los trabajadores de la Comisión. En la década de 1980 otras empresas adquirieron los derechos de explotación: World Translation Corporation en Canadá, SYSTRAN Institute en Alemania, SYSTRAN Corporation en Japón, de manera que durante unos años se produjo una considerable dispersión entre las distintas versiones del programa. A principios de los noventa, la empresa francesa Gachot adquirió todas las filiales, salvo la de la CE, y el sistema se hizo muy popular en Francia, por su accesibilidad a través de Minitel. En 1994 se ofrecía de manera gratuita en los chat de CompuServe. En 1995 salió al mercado una versión adaptada para Windows. Pero la consagración definitiva se produjo en 1997, cuando el sitio de Internet AltaVista llegó a un acuerdo con SYSTRAN para ofrecer el servicio de traducción gratuito por web, BABELFISH. En este momento SYSTRAN es el sistema de traducción más desarrollado (con 35 pares de lenguas disponibles) y más utilizado (1.000.000 de traducciones a través de BABELFISH).

El segundo sistema en veteranía e importancia es sin duda METAL. Se trata de otro superviviente de los sesenta, que al igual que SYSTRAN ha deambulado por los dos continentes. El diseño original se fraguó en 1961 en el LRC (Linguistic Research Center) de la Universidad de Texas en Austin, bajo la dirección de Winfred Lehmann, para el el par inglés/alemán. El destino de METAL pasa al viejo continente en 1978, momento en que la empresa SIEMENS se hizo con los derechos de desarrollo y explotación. Al par inicial se le añaden pronto siete, con las principales lenguas europeas (francés, holandés, danés y español). En 1994 SIEMENS-NIXDORF cede el desarrollo del sistema a un conjunto de filiales creadas al efecto, entre ellas Sietec en Alemania, e Incyta en España. En 1997 estas empresas son absorbidas por el grupo belga Lernout & Hauspie. En la actualidad, los distintos desarrollos de METAL dependen de la empresa Sail Labs. Cabe destacar que en España se han desarrollado los pares de lenguas inglés/catalán (proyecto ITACA) y español/catalán (IncytaEsCA), sufragados por la Generalitat de Catalunya; así como el par español/gallego, sufragado por la Xunta de Galicia.

Para abordar la traducción automática entre el español y el inglés, seguramente el sistema más completo y que mejores resultados ofrece es el desarrollando por la Organización de la Salud Panamericana (PAHO/OPS), situada en Washington DC y fundada en 1950. Existen dos versiones, cada una para cada par de lenguas: SPANAM (español-inglés), que empezó a desarrollarse primero, en 1979; y ENGSPAN (inglés-español), en desarrollo desde 1984. Los responsables dicen que desde que se puso operativo se han procesado más de 35 millones de palabras, con un aumento de la productividad de los traductores de entre un 30% a un 50%. Los sistemas están instalados en una red de área local y son utilizados también por el personal de otras dependencias técnicas y administrativas en la sede de la OPS. Cada diccionario del sistema contiene más de 75.000 palabras, frases idiomáticas y reglas contextuales. Los programas y los diccionarios se mejoran constantemente con las sugerencias de los usuarios. Ambos sistemas han salido recientemente al mercado en versiones compatibles con Windows a un precio asequible (1.600 €).

Por su lado, el gigante de la informática IBM desde mediados de los ochenta ha centrado sus esfuerzos de traducción automática en el proyecto LMT, dirigido por Michael McCord y desarrollado simultáneamente en los laboratorios de EEUU, Alemania, España e Israel. Se trata de una implementación en Prolog (LMT son las siglas de Logic-programming Machine Translation) que adopta la estrategia de transferencia. Se han desarrollado 12 pares de lenguas y en la actualidad se encuentra disponible con el nombre comercial WebSphere. IBM también dispone de un software de memorias de traducción, TranslationManager, que desde 1999 integra los programas de traducción automática de LOGOS, otra de las empresas veteranas en el sector. Este programa también se puede combinar con el traductor italiano/inglés PeTra, desarrollado en colaboración con IBM por la empresa italiana SYNTHEMA.

Desde comienzos de la década de 1990 la mayoría de los programas de traducción se han adaptado al ordenador personal. Dos de los primeros en hacerlo fueron PC-Translator (de Linguistic Products) y Power Translator (de Globalink). Globalink se había fusionado antes con MicroTac (responsable de la gama de productos Language Assistant) y durante unos años (1995 -1998) fue lider de ventas al llevar al mercado sus programas a un precio muy reducido (unos 60 €). Según datos de Ovum Ltd., Globalink obtuvo en 1995 el triple de beneficios que METAL y diez veces más que SYSTRAN o LOGOS. En 1998 Globalink fue absorbida por Lernout & Hauspie y en la actualidad desconocemos su destino tras las dificultades financieras de la empresa en 2000. En lo que respecta a empresas japonesas, Fujitsu, una de las empresas pioneras hace años que oferta versiones para PC de su veterano sistema ATLAS, también comercializado como TransLinGo, a precios moderados (entre 100 y 600 € según las prestaciones). Otros traductores de japonés adaptados a Windows son LogoVista, de Language Engineering Corporation, y Tsunami y Typhoon de Neocor Technologies (posteriormente absorbida por Lernout & Hauspie). De Rusia procede el programa ProMT (antes llamado Stylus), así como PARS, especializados en la traducción del ruso a otras lenguas europeas. Otros programas para PC desarrollados en Europa son, entre los más destacables, WINGER, especializado en la traducción del danés, pero con soporte otros pares de lenguas europeas, y TranSmart, desarrollado por Nokia para el par finlandés/inglés.

En España, se han desarrollado con éxito varios programas para traducir entre el par español/catalán. Además del desarrollado por Incyta (ahora Sail Labs), que también lo ha hecho para el gallego, cabe destacar los siguientes sistemas: SALT, de la Conselleria de Cultura de la Generalitat Valenciana, sistema interactivo para Windows; InterNOSTRUM, para Linux, desarrollado en la Universitad de Alicante y financiado por la Caja de Ahorros del Mediterráneo; el sistema AutomaticTrans de la empresa barcelonesa Softlibrary (traductores del diario El Periódico al catalán); así como el programa ARA, de la empresa valenciana ARA-AutoTrad.

  ·La era Web

            El panorama de productos que incorporan tecnologías de traducción ha experimentado un revulsivo lógico con la generalización de Internet a partir de 1995. CompuServe se adelantó ofreciendo SYSTRAN en sus áreas de chat. La puesta en marcha a partir de 1997 del servicio BABELFISH de traducción automática gratuita (para los pares francés, alemán y español del y al inglés) en el portal AltaVista supuso un destacable hito histórico. Desde entonces los acontecimientos se han acelerado. Varias empresas han desaparecido o han sido absorbidas por otras: Logos por IBM; Globalink y Neocor Technologies por Lernout & Hauspi. El precio de adquisición de los programas se ha abaratado considerablemente y su distribución agilizado a través de portales generalistas, como World Language Resources (http://www.worldlanguage.com/). Con Internet son posibles dos cosas antes inimaginables. Por un lado, muchos fabricantes permiten a sus potenciales clientes el acceso a versiones de demostración temporales o parciales, fáciles de conseguir e instalar. Por otro, y más interesante, ahora cualquier usuario con acceso a Internet puede probar las posibilidades de la traducción automática en alguno de los cada día más numerosos sitios que ofrecen servicios abiertos y gratuitos:

BABELFISH: http://babelfish.altavista.com (licencia de SYSTRAN)

SYSTRAN: http://www.systransoft.com (de la empresa Gachot)

GOOGLE: http://translate.google.com

ProMT: http://www.translate.ru/ (antes Stylus)

FreeTRANSLATION: http://ets.freetranslation.com:5081/ (de Transparent Language                                                                                                                      TranscendRT)

VOILA: http://www.voila.fr/ (licencia de Softissimo)

Traductor de EL Mundo: http://www.el-mundo.es/traductor/ (licencia de Softissimo)

NeuroTrans: http://www.tranexp.hr

InterTran (tm): http://www.tranexp.com

World Language: http://www.worldlanguage.com/Translation.htm (de InterTran)

Sail Labs: http://t1.sail-labs.com/t1probe.html (antes METAL)

InterNOSTRUM: http://www.softcatala.org/traductor/

AutomaticTrans: http://www.automatictrans.es (español, catalán, portugués. Colaboraron                                                                                         con El Periódico 1996).

LogoVista: http://www.logovista.jp (del inglés al japonés)

TARJIM: http://www.tarjim.com (del inglés al árabe)

Es necesario puntualizar que, salvo para las traducciones al catalán, ninguno de los sistemas en la lista permite obtener traducciones de calidad, por las razones que se han discutido anteriormente. Todos ellos son sistemas de traducción por reglas, con cobertura amplia a costa de una calidad generalmente muy baja. La alternativa es restringir la cobertura. Para mejorar la calidad aplicando métodos basados en analogías con mayor cobertura harían falta grandes cantidades de corpora paralelos, de los que nadie en la actualidad dispone (Abaitua, 2001).

 

10.  Presente y futuro de la traducción automatica

            El colapso de la investigación en traducción automática no tuvo efectos tan devastadores como podría pensarse para el conjunto de la investigación en lenguaje natural en España. La SEPLN ha continuado con vigor sus actividades y la infraestructura humana de especialistas ha dado importantes frutos, si bien estos se han circunscrito, casi en exclusiva, a la universidad. Gran parte de la década de los noventa, hasta prácticamente 1997, ha contemplado el desarrollo de recursos básicos, de los que antes se carecía en España: lematizadores y etiquetadores morfosintácticos, correctores gramaticales, analizadores eficientes, bases de datos léxicas y terminológicas, entornos de desarrollo gramatical, corpus de referencia, memorias de traducción, etc. Además, los resultados de nuestros investigadores han tenido un considerable eco internacional. Desde 1992 la presencia de españoles en los principales foros mundiales de la especialidad (ACL, COLING, ANLP, etc.) ha ido en aumento. Madrid fue sede en 1997 del congreso mundial de la Association for Computational Linguistics (ACL), la primera vez que este congreso se realizaba fuera de Norteamérica. Por otro lado, la participación internacional en los congresos de la SEPLN se ha afianzado año tras año. (En septiembre se ha celebrado en Lérida el decimoquinto congreso). Asimismo, se ha consolidado la participación española en proyectos europeos. A los antes citados (CRATER, CON-TEXT, TRADE, EAGLES, PAROLE), hay que sumar EUROWORDNET, EUROMAP, INTERVAL, entre otros.

¿Pero qué sucede con la traducción automática? Muchas cosas han cambiado con la progresiva mundialización de los mercados. La documentación de los productos ha ido cambiando de formato y soporte. Internet ha entrado con fuerza en todas las fases de comercialización pero, sobre todo, se ha convertido en un poderoso medio de acceso a masas cada vez más amplias y heterogéneas de clientes. La demanda de traducciones de páginas web se ha incrementado de manera espectacular. Esta demanda ha sido atendida por un sector emergente de empresas especializadas en la adaptación y traducción (localización) de programas informáticos. En tiempos recientes hemos visto asentarse en nuestro país a un nutrido grupo de empresas transnacionales que combinan el desarrollo de recursos lingüísticos (bases terminológicas, glosarios, etc.) con servicios de traducción y localización: C&L, ITP, L&H, INK, entre otras. Asimismo, dos empresas, que se han dado a conocer mundialmente como proveedoras de gestores de memorias de traducción, STAR y TRADOS, tienen presencia activa en nuestro territorio y compiten en el desarrollo de esta tecnología con una empresa española, DÉJÀ VU.

Al margen de estas empresas, se debe reseñar el esfuerzo realizado en materia de traducción por un medio de prensa diaria, El Periódico de Catalunya, que ha automatizado casi en su totalidad el volcado al catalán de las ediciones originales en español. Otra iniciativa industrial digna de mención es la de la empresa vasca GEINSA, que ha dedicado importantes recursos a la traducción automática y ha presentado prototipos de ambicioso diseño.

Pero estas aportaciones recientes de la industria se han producido en España alejadas de la comunidad académica. El tipo de tecnología que más se utiliza hoy tiene poco que ver con la que se pretendía desarrollar en los años setenta y ochenta, de la mano de la inteligencia artificial o la gramática generativa. Son métodos que, con metas más bajas, permiten agilizar de manera notoria las tareas más rutinarias y pesadas de los traductores: recuperación y cotejo de textos traducidos, mantenimiento y consulta de bases terminológicas, ayudas para la revisión y autoedición, etc. De entre todas las herramientas desarrolladas, son los gestores de memorias de traducción las más demandados por el mercado en este momento. No es casualidad que las dos empresas líderes en esta aplicación, STAR y TRADOS, tengan un origen común en la Universidad de Sttutgart, en Alemania, donde a finales de los ochenta se ensayaron herramientas de traducción que incorporaban técnicas procedentes del reconocimiento de voz.

 

· Referencias:

· Lenguaje y nuevas tecnologías: el campo de la lingüística computacional

      Teresa Moure

      http://liceu.uab.es/~joaquim/publicacions/llisterri_moure_96.html

· Quince años de traducción automática en España

      Joseba Abaitua

      http://www.serv-inf.deusto.es/abaitua/konzeptu/ta/ta15.htm

      http://www.serv-inf.deusto.es/abaitua/konzeptu/ta/ta97.htm

 

 

 

                                                                                              DANIEL RODRIGUEZ GASCA

                                                                                                    18596017-B …. ESIDE

                                                                                                 rodriguezdani@hotmail.com